본문 바로가기

questionet

검색하기
questionet
프로필사진 orthanc

  • 분류 전체보기
    • Deep learning
      • NLP 모델 설명
      • NLP 주요 논문
      • 딥러닝 학습기법
      • 강화학습
      • 논문 abstract
    • Learning questions
      • 자료구조 - 알고리즘
      • 기초 개념
      • 헷갈리는 것들
      • 쉽게 이해되지 않는 것들
    • Deep questions
      • 수학적 바탕
      • 시간을 두고 답해 볼 문제들
    • Idea
      • diary
      • 무엇을 개발할까?
      • 급진적인 혹은 극단적인
Guestbook
Recent Posts
Recent Comments
Link
  • 저의 깃허브입니다
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록Linear combination (1)

questionet

선형변환과 linear layer 의 관계

PyTorch (또는 다른 딥러닝 프레임워크)에서, nn.linear(in_features, out_features) # 입력특성, 출력특성 코드를 사용해 nn.Linear(20, 30)를 실행하면 파이토치는 내부적으로 30×20 shape의 가중치 행렬 A를 초기화합니다. 한편 입력 데이터 X는 일반적으로 (batch_size x 20)의 형태를 가집니다. PyTorch에서 이 두 객체의 행렬곱을 수행할 때 실제 수행되는 연산은 X @ A.T 이고 이 연산의 결과는 (batch_size x 30) 형태의 출력입니다. 왜 x @ A.T 와 같은 꼴로 행렬곱을 할까요? (애초에 왜 가중치 행렬을 전치된 형태로 초기화하고 실제로 연산할 땐 다시 전치시켜 계산하는 걸까요?) 이 방식은 딥러닝에서 배치 처리를 ..

Deep questions/수학적 바탕 2024. 2. 20. 23:00
Prev 1 Next

Blog is powered by kakao / Designed by Tistory

티스토리툴바