코버트

IT위키
KorBERT; Korean Bidirectional Encoder Representations from Transformers
구글의 BERT를 기반으로 한국어에 최적화시킨 자연어 처리 모델
  • 한국전자통신연구원(ETRI)엑소브레인 사업에서 개발
  • 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능
  • 23기가(GB)에 달하는 지난 10년간의 신문기사와 백과사전 정보 더해 45억개의 형태소 학습

코버트.jpg

참고 문헌[편집 | 원본 편집]