DL 17

Self-supervised VS Transfer, Generative, Data Aug

1. Self-Supervised Learning vs. Data Augmentation Self-supervised learning과 데이터 증강은 기계 학습의 두 가지 다른 접근 방식입니다. 이 두 방법은 데이터를 활용하는 방식에서 중요한 차이점을 가집니다. Self-Supervised Learning: Learning Task Creation: Self-supervised learning은 레이블이 없는 데이터에서 학습 과제를 만들어냅니다. 예를 들어, 이미지에서 일부분을 가리고 그 부분을 예측하게 하는 것과 같은 작업을 통해, 모델이 데이터의 내재된 구조나 패턴을 학습하도록 합니다. Feature Learning: 이 접근 방식의 주요 목표는 데이터의 유용한 특성이나 표현을 학습하는 것입니다. 이..

Mask RCNN ROI Align

// fast rcnn과 mask rcnn의 차이점 https://blahblahlab.tistory.com/139 MASK RCNN 논문 리뷰 Instance segmentation task를 다룬 논문인 MASK-RCNN 차례입니다. MASK RCNN은 기존 object detection task에서 사용되던 FASTER RCNN에 Mask branch를 추가해 classification , bbox regression , predicting object mask를 동시에 처리하 blahblahlab.tistory.com https://kr.mathworks.com/help/vision/ug/getting-started-with-r-cnn-fast-r-cnn-and-faster-r-cnn.html R..

EfficientNet - Network 구조 및 구현

💡Network (아키텍처 구조) EfficientNet Network는 메인으로 mobile inverted bottleneck convolution(MBConv) block을 사용한다. MBConv block Depthwise separable conv와 Squeeze-and-excitation(se) 개념을 적용한 방식이다. 📝 https://github.com/qubvel/efficientnet GitHub - qubvel/efficientnet: Implementation of EfficientNet model. Keras and TensorFlow Keras. Implementation of EfficientNet model. Keras and TensorFlow Keras. - GitHub ..

VGGNet16 - Network 구조 및 구현

💡Network Learing Rate는 Gradient의 보폭을 말한다. Deep Learning Network이 확률적 경사 하강법(SGD) 최적화 알고리즘을 사용하여 훈련 하는 데, 사용되는 파라미터이다. Learing Rate는 성능에 꽤 큰 영향을 주는 파라미터이며, 학습되는 모델의 weight의 최적값을 어떻게 찾아 나갈 지 보폭을 정한다. (hyper param) ▶ Hyper Parameter는 user가 직접 셋팅 할 수 있는 값이며, knn or lr rate 등.. 👉 특징 Network Depth와 성능 영향에 집중을 위해 등장 하였으며, Kernel Size가 크면 Image Size 축소가 급격하게 이뤄져서 더 깊은 층을 만들기 어려우며, Parameter 수와 많은 연산량도 필..

[Machine Vision] OCR, OCV 차이

🙋‍♂️ OCR, OCV란?? ✍ OCR란?? OCR (Optical Character Recognition) / 광학 문자 인식 사람 또는 기계를 통해 인쇄된 문자의 형상을 이미지 스캐너로 스캔하여 기계가 읽을 수 있도록 문자로 변환 하는 기술 ✍ OCV란?? OCV (Optical Character Verification) / 광학 문자 검증 문자열의 존재와 문자의 가독성을 확인 및 검증하여 인쇄 품질을 평가하는 기술 💁‍♂️ Vision 검사 / OCR -. 차량 번호판 검사 -. 포장 공정 (QR CODE, 라벨 정보 검사, Tray 정보 추출,,,) ✍ OCR Tool / Cognex 1) Train Image 내, 학습 할 문자 추출 2) Train Image 기준 / 영문 + 숫자 추출 → ..

[DL] - Image Classification Model 최적화 기법 (메모)

🙋‍♂️ Augmentation, Learning Rate Scheduler 최적화 ✍ Augmentation과 LR Scheduler 기법 사용 시, -. 두 가지의 기법 개별 최적화 보단 두 가지 모두 만족하는 최적화 작업 필요 -. 개략적인 최적 Learning rate를 찾은 후, 가벼운 Augmentation 적용 (LR - 0.001 or 0.01 , HorizontalFlip 기법) -. Augmentation에 대한 변화를 증가 시키면서 Augmentation을 적용 (성능이 저하되면 의심되는 해당 기법을 제외, 확률을 변화 시키는 방식으로 적용 필요) -. Learning Rate Scheduler를 다양하게 적용하면서 최적화

[DL] CIFAR-10

🙋‍♂️ CIFAR-10 구성 CIFAR-10 Data Set은 32 x 32 크기의 60,000개의 Image Set으로 구성 되어 있으며, 10개의 Class로 분류 된다.각 Class는 60,000개의 전체 이미지와 50,000개의 Train Image, 10,000개의 Test Image로 구성 (Labels는 동일) → Mnist보다 가볍고, 시간이 덜 소요됨 ✍ Data Set Load / Labels 확인 # Default import import numpy as np # linear algebra import pandas as pd # data processing, CSV file I/O (e.g. pd.read_csv) import os from tensorflow.keras.datase..

MLDL_정리/Sample 2022.03.22

[DL] - CNN의 Stride, Padding, Pooling 특징

🙋‍♂️ CNN - Convolutional Neural Networks의 핵심 요소: Stride, Padding, Pooling Stride(스트라이드) 정의: Stride는 컨볼루션 연산을 수행할 때 필터가 입력 데이터 위를 이동하는 간격을 의미합니다. 즉, 필터가 얼마나 멀리 뛰어넘어가며 정보를 추출하는지를 결정합니다. 효과: Stride = 1: 필터가 한 픽셀씩 이동하며, 입력 데이터의 정보를 놓치지 않고 잘 포착합니다. Stride = 2 이상: 필터가 더 큰 간격으로 이동하여 출력 크기를 줄이고, 연산 속도를 향상시킵니다. 하지만 이 때, 특정 정보의 손실이 발생할 수 있습니다. 최신 트렌드: 최근의 깊은 네트워크에서는 Stride를 조절하여 연산 효율성을 높이고, 깊은 레이어에서 정보의 ..

[DL] - Deep Learning CNN / Filter

🙋‍♂️ 일반적인 Vision 영역에서의 Filter와 Deep Learning CNN에서의 Filter 값의 차이?? ▶ Filter는 CNN에서 일반적으로 Kernel과 거의 혼영 되어 사용하며, 명확히 구분을 하자면 Filter는 다수의 Kernel들로 구성된 Layer이다. 그리고 Kernel은 Filter 내, 서로 다른 값을 가질 수 있다는 특징이 있다. ✍ Kernel 크기가 클 수록 입력 Feature Map에서 더 큰 Feature 정보를 가져 올 수 있으나, 사이즈 만큼 Convolution 연산을 할 경우, 훨씬 더 많은 연산량과 Parameter가 필요함 → 보통 3 X 3 Kernel Size 사용 ✍일반적으로 Vision 영역에서 Filter는 User가 목적에 맞는 특정 Fil..