가리키는 글의 최근 바뀜
IT 위키
해당 문서에 연결된 문서의 변경사항을 확인하려면 문서 이름을 입력하십시오. (분류에 들어있는 문서를 보려면 분류:분류명으로 입력하십시오). 내 주시문서 목록에 있는 문서의 변경사항은 굵게 나타납니다.
약어 목록:
- 새글
- 새 문서 (새 문서 목록도 보세요)
- 잔글
- 사소한 편집
- 봇
- 봇이 수행한 편집
- (±123)
- 바이트 수로 표현한 문서 크기의 차이
2025년 10월 30일 (목)
|  | 새글 06:11 | 지식 증류 2개 바뀜 역사 +5,427 [인공무능 (2×)] | |||
|  | 06:11 (최신 | 이전) +30 인공무능 토론 기여 태그: 시각 편집: 전환됨 | ||||
| 새글 |  | 05:23 (최신 | 이전) +5,397 인공무능 토론 기여 (새 문서: '''지식 증류'''(Knowledge Distillation, KD)는 대형 신경망(Teacher Model)이 학습한 지식을 작은 신경망(Student Model)에 전이(distill)하여 효율적 성능을 달성하는 모델 압축 기법이다.<ref>Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. "Distilling the knowledge in a neural network." arXiv:1503.02531 (2015).</ref> 대형 모델이 가진 복잡한 표현과 분류 경계 정보를 소형 모델이 간접적으로 학습하게 함으로써,...) 태그: 시각 편집 | |||

