기울기 소실 편집하기

IT위키

경고: 로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다. 로그인하거나 계정을 생성하면 편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.

편집을 취소할 수 있습니다. 이 편집을 되돌리려면 아래의 바뀐 내용을 확인한 후 게시해주세요.

최신판 당신의 편집
1번째 줄: 1번째 줄:
[[분류:인공지능]]
== 기울기 소실(Gradient Vanishing)과 폭주(Exploding) ==
;Gradient Vanishing
 
== 기울기 소실과 폭주(Exploding) ==


역전파 과정에서 입력층으로 갈 수록 기울기(Gradient)가 점차적으로 작져 입력층에 가까운 층들에서 가중치들이 업데이트가 제대로 되지 않는 현상
역전파 과정에서 입력층으로 갈 수록 기울기(Gradient)가 점차적으로 작져 입력층에 가까운 층들에서 가중치들이 업데이트가 제대로 되지 않는 현상
반대로 [[RNN]]에서 기울기가 점차 커지더니 가중치들이 비정상적으로 큰 값이 되면서 결국 발산하는기울기 폭주(Gradient Exploding)도 존재
반대로 [[RNN]]에서 기울기가 점차 커지더니 가중치들이 비정상적으로 큰 값이 되면서 결국 발산하는기울기 폭주(Gradient Exploding)도 존재


== 기울기 소실 해결방안 ==
== 기울기 소실(Gradient Vanishing) 해결방안 ==


# [[ReLU]]와 ReLU의 변형(Leaky ReLU 등)을 은닉층의 Activation 함수로 사용  
# [[ReLU]]와 ReLU의 변형(Leaky ReLU 등)을 은닉층의 Activation 함수로 사용  
15번째 줄: 12번째 줄:
# 층 정규화(Layer Normalization) : 배치정규화는 Feature별로 층정규화는 Layer별로
# 층 정규화(Layer Normalization) : 배치정규화는 Feature별로 층정규화는 Layer별로


== 참고 문헌 ==
참조 https://wikidocs.net/61375
* [https://wikidocs.net/61375 위키독스]
IT위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는 IT위키:저작권 문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다. 저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소 편집 도움말 (새 창에서 열림)