🙋♂️ Mini Batch Size, Epoch, Interation 정의는?? ▶ 무수히 많은 양의 Data Set을 학습 시, 한 번에 전체 데이터 셋을 학습 하기란 GPU를 사용해서 사실상 시간적, 효율적에서 매우 비효율적이다. 그래서 이를 해결 하기 위해, 머신 러닝에서 최적화(optimization)를 할 때는 일반적으로 여러 번 학습 과정을 거칩니다. 한 번의 학습 과정 역시 사용하는 데이터를 나누는 방식으 세분화 시키는 데, 이때 사용 되는 개념이 아래 기법들이다. ✍ 정리 1) Mini batch Size → 전체 데이터 셋을 여러 개 나눈 상태 형태를 Mini batch 라고하며, 여러 개 중 1개의 양을 batch Size 라고 한다. 2) Epoch→ 한 번의 Epoch는 쉽게 정리..