Kernel 2

VGGNet16 - Network 구조 및 구현

💡Network Learing Rate는 Gradient의 보폭을 말한다. Deep Learning Network이 확률적 경사 하강법(SGD) 최적화 알고리즘을 사용하여 훈련 하는 데, 사용되는 파라미터이다. Learing Rate는 성능에 꽤 큰 영향을 주는 파라미터이며, 학습되는 모델의 weight의 최적값을 어떻게 찾아 나갈 지 보폭을 정한다. (hyper param) ▶ Hyper Parameter는 user가 직접 셋팅 할 수 있는 값이며, knn or lr rate 등.. 👉 특징 Network Depth와 성능 영향에 집중을 위해 등장 하였으며, Kernel Size가 크면 Image Size 축소가 급격하게 이뤄져서 더 깊은 층을 만들기 어려우며, Parameter 수와 많은 연산량도 필..

[DL] - Deep Learning CNN / Filter

🙋‍♂️ 일반적인 Vision 영역에서의 Filter와 Deep Learning CNN에서의 Filter 값의 차이?? ▶ Filter는 CNN에서 일반적으로 Kernel과 거의 혼영 되어 사용하며, 명확히 구분을 하자면 Filter는 다수의 Kernel들로 구성된 Layer이다. 그리고 Kernel은 Filter 내, 서로 다른 값을 가질 수 있다는 특징이 있다. ✍ Kernel 크기가 클 수록 입력 Feature Map에서 더 큰 Feature 정보를 가져 올 수 있으나, 사이즈 만큼 Convolution 연산을 할 경우, 훨씬 더 많은 연산량과 Parameter가 필요함 → 보통 3 X 3 Kernel Size 사용 ✍일반적으로 Vision 영역에서 Filter는 User가 목적에 맞는 특정 Fil..