🙋♂️ Augmentation, Learning Rate Scheduler 최적화 ✍ Augmentation과 LR Scheduler 기법 사용 시, -. 두 가지의 기법 개별 최적화 보단 두 가지 모두 만족하는 최적화 작업 필요 -. 개략적인 최적 Learning rate를 찾은 후, 가벼운 Augmentation 적용 (LR - 0.001 or 0.01 , HorizontalFlip 기법) -. Augmentation에 대한 변화를 증가 시키면서 Augmentation을 적용 (성능이 저하되면 의심되는 해당 기법을 제외, 확률을 변화 시키는 방식으로 적용 필요) -. Learning Rate Scheduler를 다양하게 적용하면서 최적화