본문으로 바로가기

CNN 이전의 영상분류 알고리즘 방식은 왜 실패했는가?

1.원래 영상 다루기가 어렵다

2.기존 물체인식 영상처리방식이 별로였다

3.기존 분류방식이 별로였다

 

 

1.기본적으로 영상 정보가 다루기 어려운 점

semantic gap : 의미 갭? 사람이 보는 방식(시각처리방식)과 디지털 rgb영상과의 차이

viewpoint variation : 카메라로 촬영할때의 높이/각도등에 따라 차이가 큼

illumiation : 조명의 밝기/색상에 따라 

deformation : 인식하려고하는 대상이 항상 정면을 서있는게 아님. 비틀어져있고 회전해있고 누워있고

occlusion : 인식대상이 은폐엄폐/가려짐 등으로 일부만 인식 가능

background clutter : 배경혼란, 인식대상물과 배경의 패턴이 비슷

intraclass variation : 종내 다양성, 같은 고양이라도 페르시아고양이, 길고양이 다 다르게생김

 

2.기존 영상 내 물체인식 방법 vs data-driven approach

 1)영상에서 edge/corner 를 찾아내서 하드코딩 조합하여 물체를 인식 >> 성능이 매우 낮음

 2)빅데이터를 모아서 classifier 를 기계학습시킨 후, 새로운 이미지로 평가한다

 기본적인 input > function > output 프로세스에서

 function 을 사람이 직관적으로 만드냐, 기계학습을 시키냐의 차이

 

 

3.Classifer - 어떻게 분류하는가, 분류방식

1)k-Nearest Neighbor 방식

#작동방식

[1]모든 이미지/레이블을 전부 저장한 후, [2] 한 장의 사진을 넣으면, 가장 유사한 사진을 출력한다

#유사도 측정 방법 / 단점

: L1 distance(pixel-wise absolute value difference), 학습된 사진과 추론할 사진의 모든픽셀의 차이의 절대값의 총합

: L1 distance 총합이 작을수록 유사한 이미지라고 판단

: 아래 분류된 이미지들을 봐도 배경의 색 등에 크게 영향을 받아보인다.

 

 

2)

'AIFFEL 대전 > CS231N' 카테고리의 다른 글

K-NearestNeighbor  (0) 2021.01.05
lecture2 linear classifier  (0) 2021.01.03
lecture2 분류와 유사성  (0) 2021.01.03
lecture2 preview, keyword  (0) 2021.01.02
lecture3 preview, keyword  (0) 2021.01.02