본문 바로가기

전체 글

(61)
6-6 Non Maximum Suppression Object Detection 모델을 이용하여 객체를 찾아내고나면 동일한 타겟에 대한 결과가 다수 겹쳐서 나오게 됩니다. 이를 해결하기 위해서 non-maximum suppression (NMS) 알고리즘을 사용해야 합니다. NMS를 간단히 설명하면 먼저 IoU값으로 proposals을 모두 정렬시켜놓은뒤, RoI점수가 가장 높은 proposal과 다른 proposals에 대해서 overlapping을 비교한뒤 overlapping이 높은 것은 특정 threshold이상이면 지워버리며 이 과정을 iterate돌면서 삭제시킵니다. 직관적으로 설명하면 경계 상자가 물체일 확률을 기준으로 비교하며, 비교 대상이 주변 픽셀이 아니라 자신과 겹친 영역이 일정 값 이상인 경계 상자가 됩니다. . 객체 검출에서는 중..
6-5 인식모델 평가지표(IOU 등) IOU Jaccard index 라고도하는 IoU (Intersection over Union) metric은 기본적으로 target 과 prediction 간의 percent overlap 을 정량화하는 방법입니다. IoU 메트릭은 target 과 prediction 사이의 공통 픽셀 수를 총 픽셀 수로 나눈 값을 측정합니다. 논문의 리포트에 자주 나오는 정확도 n_cl : the number of classes t_i : the total number of pixels in class i n_ij : the number of pixels of class i predicted to belong to class j. So for class i: n_ii : the number of correctly cl..
6-4 Precision and recall 패턴 인식, 정보 검색 및 이진 분류에서 precision (positive predictive value 이라고도 함) 은 검색된 인스턴스 중 관련 인스턴스의 비율이며, recall (sensitivity, 감도라고도 함)은 전체에서 검색된 관련 인스턴스의 비율입니다. 사진에서 개를 인식하기위한 컴퓨터 프로그램이 12 마리의 개와 일부 고양이를 포함하는 그림에서 8 마리의 개를 식별한다고 가정하십시오. 개로 식별 된 8 개 중 5 개는 실제로 개 (true positives)이고 나머지는 고양이 (false positives)입니다. 프로그램의 precision 는 5/8이고 recall 은 5/12입니다. 검색 엔진이 30 페이지를 리턴했는데 그 중 20개는 관련이 있지만 40개의 관련 페이지 반환은..
6-1 Faster RCNN, YOLO, SSD 심플 차이점 Faster RCNN 특징 : Fast RCNN (CNN 후 분류와 BBox 좌표 regression) + RPN (Resion Proposal Network) 가장 큰 장점 : 정확하다. 겹쳐지거나 작은 사물에 대한 인식률이 높다. 간과할 수 없는 단점 : 느리다. 애초에 실시간을 생각하고 만든 네트워크는 아니었다. YOLO (You Only Look Once) 특징 : 최초의 Real Time Object Detection Joseph Redmon 의 darknet 사이트를 보자 : https://pjreddie.com/darknet/yolo/?utm_source=next.36kr.com 장점 : 빠르다. 사용이 쉽다. v3 의 경우 비교적 정확하다. cuDNN 사용의 결정판. 단점 : 겹쳐진 사물의..
4-1 고급 Optimization Gradient Decent 네트워크의 parameter들을 θ라고 했을 때, 네트워크에서 내놓는 결과값과 실제 결과값 사이의 차이를 정의하는 함수 Loss function J(θ)의 값을 최소화하기 위해 기울기(gradient) ∇θJ(θ)를 이용하는 방법이다. Gradient Descent에서는 θ 에 대해 gradient의 반대 방향으로 일정 크기만큼 이동해내는 것을 반복하여 Loss function J(θ) 의 값을 최소화하는 θ 의 값을 찾는다. 한 iteration에서의 변화 식은 다음과 같다. 네트워크의 parameter들: θ Loss function : J(θ) gradient : ∇θJ(θ) 이 때 Loss Function을 계산할 때 전체 train set을 사용하는 것을 Batch ..
2-2 Loss Function 일단 Lost 함수, Cost 함수, 손실 함수는 모두 같은 말입니다. 목적은 무조건 모델의 불만족을 수치화하는 것인데, 다시 말하면 내 모델에서 계산한 결과와 실제 결과의 차이를 나타내는 것입니다. 조금 구체적으로 말해보겠습니다. 데이터가 다음과 같고 추정치가 다음과 같을 때 이 때 데이터와 추정치의 괴리도를 나타내는 스칼라 함수를 손실 함수라 한다. 손실 함수는 학습을 통해 얻은 데이터의 추정치가 실제 데이터와 얼마나 차이나는지 평가하는 지표로 쓰인다. 이 값이 크면 클수록 많이 틀렸다는 의미고, 이 값이 0 이라는 것은 '무손실' 즉 완벽하게 추정할 수 있다는 의미가 된다. L 은 때때로 비용 함수 Cost Function라고 불리기도 한다. MSE(Mean of Squared Error) def ..
3-4. MNIST 분석 MNIST 간단한 컴퓨터 비전 데이터 세트로, 아래와 같이 손으로 쓰여진 이미지들로 구성되어 있습니다. 이 데이터는 각 데이터의 숫자가 무엇인가에 대한 라벨이 함께 붙어 있습니다. 예를 들어 위의 이미지에는 각각 5, 0, 4, 1 이라는 라벨이 붙어 있습니다. MNIST 데이터 MNIST 데이터는 Yann LeCun의 웹사이트에서 제공합니다. 다운로드한 데이터는 55000개의 학습 데이터 (mnist.train), 10000개의 테스트 데이터 (mnist.test) 및 5000개의 검증 데이터 (mnist.validation) 세 부분으로 나누어져 있습니다. 다운로드한 데이터는 55000개의 학습 데이터 (mnist.train), 10000개의 테스트 데이터 (mnist.test) 및 5000개의 검증..
1. 딥러닝 영상분석 3총사를 구분하시나요 딥러닝으로 할 수 있는 영상분석은 참으로 많습니다. 특정 인물의 얼굴을 인지하고 행동 패턴을 인지하여 신분증처럼 identity 로 사용될 수도 있고 반대로 가짜 인물에게 얼굴과 행동 패턴을 주어 특정 인물로 인지되도록 할 수 도 있습니다. 하지만 항상 이러한 딥러닝 영상분석의 가장 첫단추는 의외로 이미지 분류 (Image Classification) 입니다. 그리고 (2017~2019년까지 보았을때) 딥러닝을 적용하고 싶은 대부분의 개발자들이 원하는 기능은 사물 인식 (Object Detection) 입니다. 마지막으로 딥러닝 사물 인식을 원하는 분야에서 여력이 있다면 한번 쯤은 도입해보고자 하는 궁극의 분석 방법은 이미지 세그멘테이션인 듯 합니다. (image segmentation) 1-1 이미지 ..