익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
도움말
Mixture of Experts (인공지능): 편집 역사
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
이 문서의 기록 보기
특정판 필터링
펼치기
접기
끝 날짜:
태그
필터:
wikieditor (숨긴 태그)
넘겨주기 대상 변경
넘겨주기 제거
대체됨
되돌려진 기여
비우기
새 넘겨주기
수동 되돌리기
시각 편집
시각 편집: 전환됨
일괄 되돌리기
편집 취소
판 보이기
차이 선택: 비교하려는 판의 라디오 버튼을 선택한 다음 엔터나 아래의 버튼을 누르세요.
설명:
(최신)
= 최신 판과 비교,
(이전)
= 이전 판과 비교,
잔글
= 사소한 편집
2025년 9월 25일 (목)
최신
이전
07:08
2025년 9월 25일 (목) 07:08
인공무능
토론
기여
4,688 바이트
+1,777
편집 요약 없음
편집 취소
최신
이전
07:05
2025년 9월 25일 (목) 07:05
인공무능
토론
기여
2,911 바이트
+87
편집 요약 없음
편집 취소
태그
:
시각 편집
최신
이전
07:01
2025년 9월 25일 (목) 07:01
인공무능
토론
기여
2,824 바이트
+2,824
새 문서: Mixture of Experts(줄여서 MoE)는 여러 개의 전문가 모델(expert model)과 게이트(gating) 또는 라우터(router) 메커니즘을 결합하여 입력에 따라 적절한 전문가를 선택하거나 가중합하여 출력을 내는 기계학습 기법이다. 주로 딥러닝에서 모델의 효율적 확장과 성능 향상을 위해 사용된다. ==개요== Mixture of Experts는 입력 공간을 분할하여 각 부분에 대해 특화된 모델이 학습되도록...
태그
:
시각 편집
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
Atom
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록