반응형

AI/논문 읽기 6

ResNet: Deep Residual for Image Recognition

해당 포스트는 상당 부분 blog1, blog2 를 인용하였음을 밝힙니다. 정리 (원인) 레이어 망이 깊어져서 -> vanishing/exploding gradients 문제 발생 -> weight convergence 가 뒤따라옴 -> SDG같은 옵티마이져를 써서 다소 해결을 함 -> 그래도 training error 발생 (결론) 이런 문제를 degradation problem 이라고 함 degradation problem을 한마디로 정리하자면, 레이어가 깊어져서 최적화된 웨이트 값을 못찾는 현상이라고 할 수 있다. -> (해결) residual net을 쓰니 해결 됨 -> (발전) bottleneck block 이용하면 연산량을 줄일 수 있음 등장 배경 Degradation Problem Deep ..

AI/논문 읽기 2021.08.08

Stratified K-fold Cross Validation 개념 및 적용

https://jinnyjinny.github.io/deep%20learning/2020/04/02/Kfold/ K-fold 개념과 Stratified cross validation 적용해보기 · Hyojin Kim's blog K-fold 개념과 Stratified cross validation 적용해보기 02 Apr 2020 | Deep learning K-fold K-fold 개념 데이터를 k개의 분할(k개의 fold, 일반적으로 k=4 or 5)로 나누고 k개의 모델을 만들어 k-1개의 분할에서 훈련하고 � jinnyjinny.github.io

AI/논문 읽기 2020.07.14

CAM: Learning Deep Features for Discriminative Localization

https://jinnyjinny.github.io/papers/2020/03/04/CAM/ CAM:Learning Deep Features for Discriminative Localization · Hyojin Kim's blog CAM:Learning Deep Features for Discriminative Localization 04 Mar 2020 | Deep learning Object detection CAM CAM(Class Activation Map) 이 논문은 2016년 CVPR에 실린 “Learning Deep Features for Discriminative Localization”의 Visualization 방�� jinnyjinny.github.io

AI/논문 읽기 2020.07.14

Image preprocessing & augmentation

이번 포스팅에서는 이미지의 수가 적더라도 성능이 잘 나오게끔 도와주는, 이미지 증강, 왜곡 기법에 대해 알아보겠습니다. 1. RGB 값을 각각 빼서 그 값의 평균을 0으로 만드는 방법, preprocessing 먼저 첫번째 방법으로는 RGB 값을 각각 빼서 그 값의 평균을 0으로 만드는 것입니다. 이는 loss 값 수렴을 빠르게하는 효과가 있습니다. 강제로 RGB 값을 평균에서 빼주면, 사실상 input 값의 평균이 0이 되어서 traind을 할 때 수렴이 빨라집니다. 2. 좌우반전, augmentation 말 그대로 이미지의 좌우를 반전시키는 방법입니다. 모델이 이미지를 판단할 때, 같은 이미지이더라도 좌우를 다 살퍼보게하면 정확도가 높아지게 됩니다. 3. 밝기 조절, augmentation 딥러닝 모..

AI/논문 읽기 2020.05.21
반응형