가리키는 글의 최근 바뀜

IT 위키

해당 문서에 연결된 문서의 변경사항을 확인하려면 문서 이름을 입력하십시오. (분류에 들어있는 문서를 보려면 분류:분류명으로 입력하십시오). 내 주시문서 목록에 있는 문서의 변경사항은 굵게 나타납니다.

최근 바뀜 설정 최근 1 | 3 | 7 | 14 | 30일간의 50 | 100 | 250 | 500개 바뀐 문서 보기
등록된 사용자 숨기기 | 익명 사용자를 숨기기 | 내 편집 숨기기 | 보이기 | 사소한 편집 숨기기
2025년 10월 26일 (일) 20:25부터 시작하는 새로 바뀐 문서 보기
   
문서 이름:
약어 목록:
새글
새 문서 (새 문서 목록도 보세요)
잔글
사소한 편집
봇이 수행한 편집
(±123)
바이트 수로 표현한 문서 크기의 차이

2025년 10월 24일 (금)

새글    11:47  전문가 조합 (인공지능) 차이역사 +4,688 인공무능 토론 기여 (새 문서: 섬네일|혼합 전문가 모델 예시 Mixture of Experts(줄여서 MoE)는 여러 개의 전문가 모델(expert model)과 게이트(gating) 또는 라우터(router) 메커니즘을 결합하여 입력에 따라 적절한 전문가를 선택하거나 가중합하여 출력을 내는 기계학습 기법이다. 주로 딥러닝에서 모델의 효율적 확장과 성능 향상을 위해 사용된다. ==개요== Mixture of Experts는...)