questionet

normalization, standardization, regularization 본문

Learning questions/쉽게 이해되지 않는 것들

normalization, standardization, regularization

orthanc 2021. 2. 2. 00:55

normalization
값의 범위(scale)을 0~1 사이 값으로 바꾸는 것 = scaling
scaling이란 표현도 여기저기서 조금씩 다른 뜻으로 많이 쓰여 헷갈린다


standardization
값의 범위(scale)을 평균이 0, 분산이 1이 되도록 바꾸는 것
정규분포를 표준정규분포로 변환하는 것과 같음
이렇게 하면 무슨 효과를 보는 거지?


regularization
weight를 조정하는데 규제(제약)를 거는 기법
정확히 이해하지 못했다
over fitting 을 막기 위해 사용


normalization, standardization의 공통점
1 학습전에 scaling

2 오버피팅을 방지 
어떻게?

3 머신러닝에서 scale이 큰 feature의 영향이 비대해지는 걸 방지

4 딥러닝에서 local minima에 빠질 위험 감소(학습속도향상)
어떻게?


Comments