코버트

IT위키
인쇄용 판은 더 이상 지원되지 않으며 렌더링 오류가 있을 수 있습니다. 브라우저 북마크를 업데이트해 주시고 기본 브라우저 인쇄 기능을 대신 사용해 주십시오.
KorBERT; Korean Bidirectional Encoder Representations from Transformers
구글의 BERT를 기반으로 한국어에 최적화시킨 자연어 처리 모델
  • 한국전자통신연구원(ETRI)엑소브레인 사업에서 개발
  • 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능
  • 23기가(GB)에 달하는 지난 10년간의 신문기사와 백과사전 정보 더해 45억개의 형태소 학습

코버트.jpg

참고 문헌