본문 바로가기

book

(60)
밑바닥부터 시작하는 딥러닝.1 (chap5 : 오차역전파법) 신경망의 가중치 매개변수의 기울기(손실 함수에 대한 기울기)는 수치 미분을 사용 수치미분 : 단순하지만, 계산이 오래 걸리는 단점 오차 역전파법 = 역전파법 = 역전파 (오차를 반대 방향으로 전파하는 원리) 오차 역전파법 학습 하는 방법 - 수식을 통하는 방법 - 계산 그래프를 통하는 방법 계산그래프 복수의 노드 에지 (노드 사이에 직선) 국소적 계산 자신과 직접 관계된 작은 범위부터 계산해서 진행 순전파, 역전파 : 계산의 진행 방향 연쇄법칙 연쇄법직에 대한 역전파로 진행 처리 합성 함수 여러 함수로 구성된 함수 합성 함수의 미분은 합성 함수를 구성하는 각 함수의 미분의 곱으로 나타낼 수 있다. 활성화 함수 계층 구현 ReLU 계층 전기회로의 스위치로 비유할수 있음 Sigmoid 계층 신경망 학습 전체..
밑바닥부터 시작하는 딥러닝.1 (chap4 : 신경망 학습) 학습 : 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는것 손실함수에 대해서 학습!! 손실함수의 결과값을 가장 작게 만드는 것이 목표 → 손실함수의 값을 가장 작게 만드는 기법 : 기울기를 이용한 경사법 학습 데이터를 학습 신경망의 특징 : 데이터를 보고 학습할수 있음 실제 신경망에서 매개변수를 수작업으로 정하는 것은 불가능!! 기계학습 : 데이터 중심, 데이터에서 패턴을 발견하고 진행 (사람중심 → 데이터 중심) 사람이 인위적으로 판단하는 안좋은 패턴 이미지 데이터를 벡터로 변환하고 → SVM, KNN등으로 학습 데이터로 부터 규칙 → 기계가 담당 사람 → 데이터를 잘 분리하여서 잘 학습하도록 구성하는것이 매우 중요 데이터 훈련 데이터, 시험 데이터로 구분 오버피팅 : 한 데이터 셋에만 ..
밑바닥부터 시작하는 딥러닝.1 (chap2 : 퍼셉트론) 퍼셉트론 알고리즘 - 신경망(딥러닝)의 기원이 되는 알고리즘 - 1957년 프랑크 로젠블라트 고안 퍼셉트론이란? 다수의 신호를 입력 받아 하나의 신호로 출력 당연히 컴퓨터에서는 0/1값으로 처리 로직 : 뉴런에서 보내온 신호의 총합이 정해진 한계를 넘는경우, 1을 출력 → "뉴런을 활성화 한다" 라고 표현 → 정해진 한계 -> "임계값" 이라고 표현 이런 조건에 따라서 신경망을 활성화 할지 말지를 정하는것이다. w1, w2 : 입력 신호가 결과에 주는 영향력(중요도)를 조절하는 매개변수 θ : 얼마나 쉽게 활성화(결과 1)출력을 하느냐 조정하는 매개변수 수식으로 표현 θ 값(임계값) 보다 크면 1을 반환 θ 값(임계값) 보다 작으면 0을 반환 위에 식에서 θ 값만 편향시키면 같은 로직의 식이 구성된다. ..
밑바닥부터 시작하는 딥러닝.1 (intro) 해당 "밑바닥부터 시작하는 딥러닝은 총 3개의 시리지로 되어 있다. 1권에서는 외부 인공지능 라이브러리를 사용하지 않고 순수 딥러닝을 이해하도록 관점을 잡았고 2권,3권은 좀더 확장하여서, 다양한 주제를 다룬다. Git 소스 위치 https://github.com/WegraLee/deep-learning-from-scratch 책은 장수는 총 P. 299 이다. chapter는 아래와 같이 구성되어 있다. 1. 헬로 파이선 2. 퍼셉트론 3. 신경망 4. 신경망 학습 5. 오차역전파법 6. 학습 관련 기술들 7. 합성곱 신경망 (CNN) 8. 딥러닝