🙋♂️ Augmentation, Learning Rate Scheduler 최적화
✍ Augmentation과 LR Scheduler 기법 사용 시,
-. 두 가지의 기법 개별 최적화 보단 두 가지 모두 만족하는 최적화 작업 필요
-. 개략적인 최적 Learning rate를 찾은 후, 가벼운 Augmentation 적용
(LR - 0.001 or 0.01 , HorizontalFlip 기법)
-. Augmentation에 대한 변화를 증가 시키면서 Augmentation을 적용
(성능이 저하되면 의심되는 해당 기법을 제외, 확률을 변화 시키는 방식으로 적용 필요)
-. Learning Rate Scheduler를 다양하게 적용하면서 최적화
'MLDL_정리 > 용어, 메모장' 카테고리의 다른 글
[DL] 1,2 Stage Detector (0) | 2022.05.18 |
---|---|
[ML] 지도, 비지도, 강화 학습 (0) | 2022.05.17 |
[DL] - CNN의 Stride, Padding, Pooling 특징 (0) | 2022.03.21 |
[DL] - Deep Learning CNN / Filter (0) | 2022.03.21 |
[DL] - Mini Batch Size, Epoch, Interation (0) | 2022.03.12 |