AI시작 (22) 썸네일형 리스트형 3-4. MNIST 분석 MNIST 간단한 컴퓨터 비전 데이터 세트로, 아래와 같이 손으로 쓰여진 이미지들로 구성되어 있습니다. 이 데이터는 각 데이터의 숫자가 무엇인가에 대한 라벨이 함께 붙어 있습니다. 예를 들어 위의 이미지에는 각각 5, 0, 4, 1 이라는 라벨이 붙어 있습니다. MNIST 데이터 MNIST 데이터는 Yann LeCun의 웹사이트에서 제공합니다. 다운로드한 데이터는 55000개의 학습 데이터 (mnist.train), 10000개의 테스트 데이터 (mnist.test) 및 5000개의 검증 데이터 (mnist.validation) 세 부분으로 나누어져 있습니다. 다운로드한 데이터는 55000개의 학습 데이터 (mnist.train), 10000개의 테스트 데이터 (mnist.test) 및 5000개의 검증.. 1. 딥러닝 영상분석 3총사를 구분하시나요 딥러닝으로 할 수 있는 영상분석은 참으로 많습니다. 특정 인물의 얼굴을 인지하고 행동 패턴을 인지하여 신분증처럼 identity 로 사용될 수도 있고 반대로 가짜 인물에게 얼굴과 행동 패턴을 주어 특정 인물로 인지되도록 할 수 도 있습니다. 하지만 항상 이러한 딥러닝 영상분석의 가장 첫단추는 의외로 이미지 분류 (Image Classification) 입니다. 그리고 (2017~2019년까지 보았을때) 딥러닝을 적용하고 싶은 대부분의 개발자들이 원하는 기능은 사물 인식 (Object Detection) 입니다. 마지막으로 딥러닝 사물 인식을 원하는 분야에서 여력이 있다면 한번 쯤은 도입해보고자 하는 궁극의 분석 방법은 이미지 세그멘테이션인 듯 합니다. (image segmentation) 1-1 이미지 .. 3-3 활성화 함수 정의 : 입력 신호의 총합을 출력신호로 변환하는 함수 가중치를 곱한 입력 신호의 총합을 활성화 함수로 결과를 내는 처리이다. 가중치를 곱한 입력 신호의 총합을 활성화 함수로 결과를 내는 처리이다. 가중치가 달린 입력 신호와 바이어스의 총합을 계산한 것이 바로 a 이고 이것을 활성화 함수 h() 에 넣어 y 를 출력한다. (뉴런 == 노드 : 같은 의미) 시그모이드 함수 활성화 함수에서 자주 이용하는 시그모이드 함수는 다음과 같다. 여기서 e : 자연상수로 2.7182.. 의 값을 갖는 실수이다. 시그모이드 함수에 1.0과 2.0 을 넣어면 0.731, 0.880 과 같이 특정값을 출력한다. 신경망에서는 활성화 함수로 시그모이드 함수를 이용하여 신호를 변환하고, 그 변환된 신호를 다음 뉴런에 전달한다. 마.. 내가 보려고 정리한 AI 용어와 개념 설명 AI 시작할때 용어랑 개념 짚어보기, 혹은 프로젝트 하기 전 리마인드하기. 완성 하려면 드래프트 버전도 석달은 걸릴 것 같은 불길한 기분 ㅠㅠ 1. 딥러닝 영상분석 3총사를 구분하시나요 1-1 Image Classification 1-2 Object Detection 1-3 Image Segmentation 2. 딥러닝 이미지 분류에 필요한 개념들 2-1 Weight 초기화 2-2 Loss Function 2-3 Softmax Function 3. CNN 기본 개념과 MNIST 3-1 Back Propagation 3-2 CNN 용어들 (Kernel, Stride, Pooling..) 3-3 활성화 함수 3-4 Hello MNIST 4. CNN 관련해서 좀 더 들여다보기 4-1 고급 Optimizatio.. 잠시 KNN, k-최근접 이웃 알고리즘 생각해보면 상당히 괜챦은 데이터 분류 알고리즘. ANN 으로까지 분류할 상황이 아니라면 사실 KNN 상당히 괜챦은 결과가 나옵니다. 자세한 정리는 나중에 하고 일단 관련 사이트 부터 정리해놓습니다. 간단한 개념 : https://kkokkilkon.tistory.com/14 KNN 등의 거리 계산 방법 분류해놓은 사이트 : https://ratsgo.github.io/machine%20learning/2017/04/17/KNN/ 파이썬 코드 설명 : http://blog.naver.com/nonamed0000/220976767692 3.1 Back Propagation 역전파는 신경망 훈련의 본질입니다. 이전 에포크 (즉, 반복)에서 얻은 오류율 (즉, 손실)을 기반으로 신경망의 가중치를 미세 조정하는 방법입니다. 가중치를 적절하게 조정하면 오류율이 낮아지고 일반화를 통해 모델을 신뢰할 수 있습니다. 우선 우리는 Forward Propagation 에서 오차율이 최소화되는 W 값을 찾는 과정을 Gradient Descent 라고 합니다. 짚고 넘어가는 사전 지식 참고 1 : 미분으로 function 의 변화량을 알 수 있다 참고 2 편미분이란? 하나 이상의 변수를 갖는 함수 f 가 주어졌다고 가정하자. 예를 들어, 이 함수의 그래프는 유클리드 공간 속 곡면을 정의한다. 곡면 속 점마다 무한히 많은 접선이 존재한다. 편미분은 이런 접선 가운데 하나를 골라, 그 기울기를 .. 이전 1 2 3 다음