LSTM: Difference between revisions
From IT Wiki
No edit summary |
No edit summary |
||
Line 2: | Line 2: | ||
;Long Short Term Memory | ;Long Short Term Memory | ||
h<sub>t</sub> = f<sub>W</sub>(h<sub>t-1</sub>, x<sub>t</sub>) | == RNN의 문제 == | ||
* 문장 구성 수 만큼 Hidden Layer 형성하여 매우 Deep한 구조 | |||
* Recurrent에 따른 동일한 가중치(f<sub>W</sub>)가 곱해지게 되므로 아래 문제 발생 | |||
;RNN의 수식 표현: h<sub>t</sub> = f<sub>W</sub>(h<sub>t-1</sub>, x<sub>t</sub>) | |||
* h<sub>t</sub> = 새로운 상태 | * h<sub>t</sub> = 새로운 상태 | ||
* f<sub>W</sub> = 파라미터 W에 대한 활성화 함수 | * f<sub>W</sub> = 파라미터 W에 대한 활성화 함수 | ||
* h<sub>t-1</sub> = 예전 상태 | * h<sub>t-1</sub> = 예전 상태 | ||
* x<sub>t</sub> = 현재 상태의 입력 벡터 | * x<sub>t</sub> = 현재 상태의 입력 벡터 | ||
* f<sub>W</sub> < 1 = Vanishing Gradient | * f<sub>W</sub> < 1 = Vanishing Gradient | ||
* f<sub>W</sub> > 1 = Exploding Gradient | * f<sub>W</sub> > 1 = Exploding Gradient | ||
;즉, 관련 정보와 그 정보를 사용하는 지점이 먼 경우 학습 능력 저하 | |||
** 장기 기억을 사용하지 못하고 단기 기억만을 사용 | |||
** '''LSTM(Long Short Term Memory)는 이 문제를 해결''' | |||
== 구성 요소 == | == 구성 요소 == |
Revision as of 11:54, 26 January 2020
- Long Short Term Memory
RNN의 문제
- 문장 구성 수 만큼 Hidden Layer 형성하여 매우 Deep한 구조
- Recurrent에 따른 동일한 가중치(fW)가 곱해지게 되므로 아래 문제 발생
- RNN의 수식 표현
- ht = fW(ht-1, xt)
- ht = 새로운 상태
- fW = 파라미터 W에 대한 활성화 함수
- ht-1 = 예전 상태
- xt = 현재 상태의 입력 벡터
- fW < 1 = Vanishing Gradient
- fW > 1 = Exploding Gradient
- 즉, 관련 정보와 그 정보를 사용하는 지점이 먼 경우 학습 능력 저하
- 장기 기억을 사용하지 못하고 단기 기억만을 사용
- LSTM(Long Short Term Memory)는 이 문제를 해결
구성 요소
구성 요소 | 설명 |
---|---|
Forget Gate Layer |
|
Input Gate Layer |
|
Update Cell State |
|
Output Gate Layer |
|