728x90 NEURAL_NETWORKS1 [PYTHON] 가중치 초기화(Weight Initialization) 전략 2가지 : Xavier와 He가 수렴 속도에 미치는 영향과 해결 방법 딥러닝 모델을 설계할 때 층(Layer)을 깊게 쌓는 것만큼 중요한 것이 바로 초기 상태 설정입니다. 많은 초보 개발자들이 모델의 구조나 옵티마이저 선택에는 공을 들이지만, 정작 가중치 초기값(Weight Initialization)이 학습의 성패를 가른다는 사실을 간과하곤 합니다. 가중치를 단순히 0이나 무작위 상수로 초기화하면, 층이 깊어질수록 그래디언트 소실(Vanishing Gradient) 혹은 폭주(Exploding Gradient) 현상이 발생하여 학습이 아예 시작되지 않을 수도 있습니다. 본 포스팅에서는 현대 딥러닝의 표준인 Xavier(Glorot)와 He(Kaiming) 초기화 전략의 수학적 차이를 분석하고, 활성화 함수와의 상관관계를 통해 초기 수렴 속도를 극대화하는 7가지 실전 구현.. 2026. 4. 18. 이전 1 다음 728x90