딥러닝 기초 - 3 딥러닝의 문제점 (기울기 소실 문제(Vanishing Gradient))
2022. 1. 16. 17:06ㆍ머신러닝/딥러닝
기울기 소실 문제(Vanishing Gradient) 확인하기
역전파(back propagation) 알고리즘이란 우리의 목푯값과 실제 모델이 예측한 예측값이 얼마나 차이 나는지 구한 후, 오차값을 다시 뒤로 전파해가며 가중치(weight)들을 업데이트하는 과정이라고 배웠습니다.
그러나 깊은 층의 모델에선 역전파시에 전달되는 손실 함수(loss function)의 gradient 값에 활성화 함수인 sigmoid 함수의 0에 가까운 기울기 값이 계속해서 곱해지면서 결국 가중치 업데이트가 잘 안되는 문제가 생기는데, 이것이 바로 기울기 소실 문제(Vanishing Gradient)입니다.
모델의 층이 깊은 경우 히든층의 활성화 함수로 'relu'를 주로 사용하며 최근에는 활성화 함수로 sigmoid를 잘 쓰지 않는다.
728x90
'머신러닝 > 딥러닝' 카테고리의 다른 글
딥러닝 기초3 - 딥러닝의 문제점 (초기값 설정 문제) (0) | 2022.01.16 |
---|---|
딥러닝 기초 3 - 딥러닝의 문제점 (Quiz) (0) | 2022.01.16 |
딥러닝 기초 -3 딥러닝의 문제점 (Adagrad, RMSprop, Adam 최적화(optimize) 알고리즘) (0) | 2022.01.16 |
딥러닝 기초 -3 딥러닝의 문제점(모멘텀(Momentum)) (0) | 2022.01.16 |
딥러닝 기초 -3 딥러닝 학습의 문제점 (GD vs SGD) (0) | 2022.01.16 |