CNN 이전의 영상분류 알고리즘 방식은 왜 실패했는가?
1.원래 영상 다루기가 어렵다
2.기존 물체인식 영상처리방식이 별로였다
3.기존 분류방식이 별로였다
1.기본적으로 영상 정보가 다루기 어려운 점
semantic gap : 의미 갭? 사람이 보는 방식(시각처리방식)과 디지털 rgb영상과의 차이
viewpoint variation : 카메라로 촬영할때의 높이/각도등에 따라 차이가 큼
illumiation : 조명의 밝기/색상에 따라
deformation : 인식하려고하는 대상이 항상 정면을 서있는게 아님. 비틀어져있고 회전해있고 누워있고
occlusion : 인식대상이 은폐엄폐/가려짐 등으로 일부만 인식 가능
background clutter : 배경혼란, 인식대상물과 배경의 패턴이 비슷
intraclass variation : 종내 다양성, 같은 고양이라도 페르시아고양이, 길고양이 다 다르게생김
2.기존 영상 내 물체인식 방법 vs data-driven approach
1)영상에서 edge/corner 를 찾아내서 하드코딩 조합하여 물체를 인식 >> 성능이 매우 낮음
2)빅데이터를 모아서 classifier 를 기계학습시킨 후, 새로운 이미지로 평가한다
기본적인 input > function > output 프로세스에서
function 을 사람이 직관적으로 만드냐, 기계학습을 시키냐의 차이
3.Classifer - 어떻게 분류하는가, 분류방식
1)k-Nearest Neighbor 방식
#작동방식
[1]모든 이미지/레이블을 전부 저장한 후, [2] 한 장의 사진을 넣으면, 가장 유사한 사진을 출력한다
#유사도 측정 방법 / 단점
: L1 distance(pixel-wise absolute value difference), 학습된 사진과 추론할 사진의 모든픽셀의 차이의 절대값의 총합
: L1 distance 총합이 작을수록 유사한 이미지라고 판단
: 아래 분류된 이미지들을 봐도 배경의 색 등에 크게 영향을 받아보인다.
2)
'AIFFEL 대전 > CS231N' 카테고리의 다른 글
K-NearestNeighbor (0) | 2021.01.05 |
---|---|
lecture2 linear classifier (0) | 2021.01.03 |
lecture2 분류와 유사성 (0) | 2021.01.03 |
lecture2 preview, keyword (0) | 2021.01.02 |
lecture3 preview, keyword (0) | 2021.01.02 |