본문 바로가기

전체 글

(61)
3-3 활성화 함수 정의 : 입력 신호의 총합을 출력신호로 변환하는 함수 가중치를 곱한 입력 신호의 총합을 활성화 함수로 결과를 내는 처리이다. 가중치를 곱한 입력 신호의 총합을 활성화 함수로 결과를 내는 처리이다. 가중치가 달린 입력 신호와 바이어스의 총합을 계산한 것이 바로 a 이고 이것을 활성화 함수 h() 에 넣어 y 를 출력한다. (뉴런 == 노드 : 같은 의미) 시그모이드 함수 활성화 함수에서 자주 이용하는 시그모이드 함수는 다음과 같다. 여기서 e : 자연상수로 2.7182.. 의 값을 갖는 실수이다. 시그모이드 함수에 1.0과 2.0 을 넣어면 0.731, 0.880 과 같이 특정값을 출력한다. 신경망에서는 활성화 함수로 시그모이드 함수를 이용하여 신호를 변환하고, 그 변환된 신호를 다음 뉴런에 전달한다. 마..
내가 보려고 정리한 AI 용어와 개념 설명 AI 시작할때 용어랑 개념 짚어보기, 혹은 프로젝트 하기 전 리마인드하기. 완성 하려면 드래프트 버전도 석달은 걸릴 것 같은 불길한 기분 ㅠㅠ 1. 딥러닝 영상분석 3총사를 구분하시나요 1-1 Image Classification 1-2 Object Detection 1-3 Image Segmentation 2. 딥러닝 이미지 분류에 필요한 개념들 2-1 Weight 초기화 2-2 Loss Function 2-3 Softmax Function 3. CNN 기본 개념과 MNIST 3-1 Back Propagation 3-2 CNN 용어들 (Kernel, Stride, Pooling..) 3-3 활성화 함수 3-4 Hello MNIST 4. CNN 관련해서 좀 더 들여다보기 4-1 고급 Optimizatio..
잠시 KNN, k-최근접 이웃 알고리즘 생각해보면 상당히 괜챦은 데이터 분류 알고리즘. ANN 으로까지 분류할 상황이 아니라면 사실 KNN 상당히 괜챦은 결과가 나옵니다. 자세한 정리는 나중에 하고 일단 관련 사이트 부터 정리해놓습니다. 간단한 개념 : https://kkokkilkon.tistory.com/14 KNN 등의 거리 계산 방법 분류해놓은 사이트 : https://ratsgo.github.io/machine%20learning/2017/04/17/KNN/ 파이썬 코드 설명 : http://blog.naver.com/nonamed0000/220976767692
3.1 Back Propagation 역전파는 신경망 훈련의 본질입니다. 이전 에포크 (즉, 반복)에서 얻은 오류율 (즉, 손실)을 기반으로 신경망의 가중치를 미세 조정하는 방법입니다. 가중치를 적절하게 조정하면 오류율이 낮아지고 일반화를 통해 모델을 신뢰할 수 있습니다. 우선 우리는 Forward Propagation 에서 오차율이 최소화되는 W 값을 찾는 과정을 Gradient Descent 라고 합니다. 짚고 넘어가는 사전 지식 참고 1 : 미분으로 function 의 변화량을 알 수 있다 참고 2 편미분이란? 하나 이상의 변수를 갖는 함수 f 가 주어졌다고 가정하자. 예를 들어, 이 함수의 그래프는 유클리드 공간 속 곡면을 정의한다. 곡면 속 점마다 무한히 많은 접선이 존재한다. 편미분은 이런 접선 가운데 하나를 골라, 그 기울기를 ..
Jetson AI Car 블로그를 시작하기. 오늘부터 블로그 시작. 테마는 Nvidia Jetson 으로 만드는 인공지능 기반 자율주행 모형차이고 올해 말까지 아마 3가지 종류의 모형차를 다루게 될 예정입니다. 그리고 인공지능 기초 내용이나 자동차 공학 기초, ROS/SLAM, Jetson 보드 관련 자잘한 얘기도 자주 쓰려고 합니다. 제 마음에 들 만큼 자료가 완성될때까지 써보려고 합니다.