MLDL_정리/용어, 메모장

Learing Rate의 Batch / Epoch Level 동적 적용

KimTory 2023. 2. 24. 02:12

💡Batch 단위

tf.keras.optimizer.LearingRateSchedule
keras bacth 단위로 lr를 최적화하는 optimizer(sgd,rmsprop, adam 등..)에 적용됨
model.compile(optimizer=Adam(learing_rate=CosineDecay(..)))와 같이
compile() 호출 시, optimizer 인자로 적용되어야 함.


 

💡Epoch 단위

tf.keras.callbacks.LearingRateScheduler <batch 단위는 .LearingRateSchedule / r 없음>
keras epoch 단위로 lr를 최적화하는 callbackmodel.fit(~callbacks=[LearningRateScheduler(schedule_funtion)])
와 같이 fit() 호출 시, callbacks 인자로 입력


 

'MLDL_정리 > 용어, 메모장' 카테고리의 다른 글

Json Annotation file (ms coco data format)  (0) 2023.06.05
Bayes Error  (1) 2023.03.16
[메모] Tensorflow GPU 확인  (0) 2022.07.21
[DL] 블롭(blob)  (0) 2022.06.20
[DL] 1,2 Stage Detector  (0) 2022.05.18