본문 바로가기

questionet

검색하기
questionet
프로필사진 orthanc

  • 분류 전체보기
    • Deep learning
      • NLP 모델 설명
      • NLP 주요 논문
      • 딥러닝 학습기법
      • 강화학습
      • 논문 abstract
    • Learning questions
      • 자료구조 - 알고리즘
      • 기초 개념
      • 헷갈리는 것들
      • 쉽게 이해되지 않는 것들
    • Deep questions
      • 수학적 바탕
      • 시간을 두고 답해 볼 문제들
    • Idea
      • diary
      • 무엇을 개발할까?
      • 급진적인 혹은 극단적인
Guestbook
Recent Posts
Recent Comments
Link
  • 저의 깃허브입니다
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록backpropagation (1)

questionet

Backpropagation 요약 (sigmoid 함수와 tanh 함수의 미분)

사용된 그래프 그림과 수식 이미지 출처는 다음과 같습니다 github.com/WegraLee/deep-learning-from-scratch-2 www.youtube.com/watch?v=dB-u77Y5a6A&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=6 1. backpropagation Deep Neural Network에서 경사하강법( W ← w - a*dL/dw )을 써서 optimization을 한다는 것은 모든 레이어의 각 노드에 있는 가중치들이 최종 Loss 값에 미치는 영향력을 알아냄으로써 손실함수의 결과값을 가장 작게 만드는 가중치 행렬을 구한다는 것이다. 이를 위해서는 각 가중치 w에 대해 최종 Loss값을 미분한 값을 구해야 한다. backprop..

Deep learning/딥러닝 학습기법 2021. 2. 2. 00:59
Prev 1 Next

Blog is powered by kakao / Designed by Tistory

티스토리툴바