BERT: Difference between revisions
From IT Wiki
No edit summary |
No edit summary |
||
Line 3: | Line 3: | ||
;[[자연어 처리]] 언어 모델 | ;[[자연어 처리]] 언어 모델 | ||
[[파일:BERT 아키텍처.jpeg]] | |||
== 특징 == | |||
* RNN을 사용하지 않는 Attention 모델 | * RNN을 사용하지 않는 Attention 모델 | ||
* 계산 cost가 매우 큰 모델 | |||
== 주요 기술 == | == 주요 기술 == |
Revision as of 16:09, 30 December 2019
- Bidirectional Encoder Representations from Transformers
- 자연어 처리 언어 모델
특징
- RNN을 사용하지 않는 Attention 모델
- 계산 cost가 매우 큰 모델
주요 기술
- WordPiece tokenizing
- 접두사, 접미사를 구분
- ex) playing, coming, loving → ##ing
- ex) 서울특별시, 세종특별시, 성남시, 안양시 → ##특별시, ##시