익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
도움말
지식 증류: 편집 역사
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
이 문서의 기록 보기
특정판 필터링
펼치기
접기
끝 날짜:
태그
필터:
wikieditor (숨긴 태그)
넘겨주기 대상 변경
넘겨주기 제거
대체됨
되돌려진 기여
비우기
새 넘겨주기
수동 되돌리기
시각 편집
시각 편집: 전환됨
일괄 되돌리기
편집 취소
판 보이기
차이 선택: 비교하려는 판의 라디오 버튼을 선택한 다음 엔터나 아래의 버튼을 누르세요.
설명:
(최신)
= 최신 판과 비교,
(이전)
= 이전 판과 비교,
잔글
= 사소한 편집
2025년 10월 30일 (목)
최신
이전
06:11
2025년 10월 30일 (목) 06:11
인공무능
토론
기여
5,427 바이트
+30
편집 요약 없음
편집 취소
태그
:
시각 편집: 전환됨
최신
이전
05:23
2025년 10월 30일 (목) 05:23
인공무능
토론
기여
5,397 바이트
+5,397
새 문서: '''지식 증류'''(Knowledge Distillation, KD)는 대형 신경망(Teacher Model)이 학습한 지식을 작은 신경망(Student Model)에 전이(distill)하여 효율적 성능을 달성하는 모델 압축 기법이다.<ref>Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. "Distilling the knowledge in a neural network." arXiv:1503.02531 (2015).</ref> 대형 모델이 가진 복잡한 표현과 분류 경계 정보를 소형 모델이 간접적으로 학습하게 함으로써,...
태그
:
시각 편집
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
Atom
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록