💡Batch 단위
tf.keras.optimizer.LearingRateSchedule
keras bacth 단위로 lr를 최적화하는 optimizer(sgd,rmsprop, adam 등..)에 적용됨
model.compile(optimizer=Adam(learing_rate=CosineDecay(..)))와 같이
compile() 호출 시, optimizer 인자로 적용되어야 함.
💡Epoch 단위
tf.keras.callbacks.LearingRateScheduler <batch 단위는 .LearingRateSchedule / r 없음>
keras epoch 단위로 lr를 최적화하는 callbackmodel.fit(~callbacks=[LearningRateScheduler(schedule_funtion)])
와 같이 fit() 호출 시, callbacks 인자로 입력
'MLDL_정리 > 용어, 메모장' 카테고리의 다른 글
Json Annotation file (ms coco data format) (0) | 2023.06.05 |
---|---|
Bayes Error (1) | 2023.03.16 |
[메모] Tensorflow GPU 확인 (0) | 2022.07.21 |
[DL] 블롭(blob) (0) | 2022.06.20 |
[DL] 1,2 Stage Detector (0) | 2022.05.18 |