questionet

Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning 본문

Deep learning/논문 abstract

Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning

orthanc 2021. 4. 12. 20:07


레이어를 깊이 쌓는 CNN은 최근 몇년새 이미지 인식 문제해결방법에 많은 진전을 보였다
특히 인셉션 기법은 상대적으로 적은 계산비용으로 좋은 성능을 내고 있다.
최근 residual connection 잔차 연결 기법도 SOTA 성능을 내고 있는데 이 기법은 인셉셥-v3네트워크의 성능과 유사하다.

그럼 잔차연결과 인셉션 기법을 합치면 더 좋은 성능을 낼 수 있을까? 

우리는 잔차연결기법이 인셉션 네트워크의 훈련을 상당히 가속화 해준다는 경험적인
증거를 제시하고자 한다. 학습속도 개선이 가능했다. 성능에 개선이 있는 건 아니다.

아주 와이드한 잔차 인셉션 네트워크(레지듀얼을 더 추가한 인셉션 네트워크)에서 
학습이 안정화될 수 있게 하는 방법을 보여주려 한다.

Comments