코버트
From IT Wiki
- KorBERT; Korean Bidirectional Encoder Representations from Transformers
- 구글의 BERT를 기반으로 한국어에 최적화시킨 자연어 처리 모델
- 한국전자통신연구원(ETRI)의 엑소브레인 사업에서 개발
- 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능
- 23기가(GB)에 달하는 지난 10년간의 신문기사와 백과사전 정보 더해 45억개의 형태소 학습