가리키는 글의 최근 바뀜

IT 위키

해당 문서에 연결된 문서의 변경사항을 확인하려면 문서 이름을 입력하십시오. (분류에 들어있는 문서를 보려면 분류:분류명으로 입력하십시오). 내 주시문서 목록에 있는 문서의 변경사항은 굵게 나타납니다.

최근 바뀜 설정 최근 1 | 3 | 7 | 14 | 30일간의 50 | 100 | 250 | 500개 바뀐 문서 보기
등록된 사용자 숨기기 | 익명 사용자를 숨기기 | 내 편집 숨기기 | 보이기 | 사소한 편집 숨기기
2025년 9월 25일 (목) 17:25부터 시작하는 새로 바뀐 문서 보기
   
문서 이름:
약어 목록:
새글
새 문서 (새 문서 목록도 보세요)
잔글
사소한 편집
봇이 수행한 편집
(±123)
바이트 수로 표현한 문서 크기의 차이

2025년 9월 25일 (목)

2025년 9월 24일 (수)

새글    12:37  위치 인코딩 차이역사 +2,795 인공무능 토론 기여 (새 문서: 위치 인코딩(位置encoding, Positional Encoding)은 트랜스포머(Transformer) 아키텍처에서 입력 시퀀스의 토큰 순서를 모델이 인식할 수 있도록 추가하는 벡터 표현이다. 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리, 트랜스포머의 어텐션 메커니즘은 토큰 간의 순서를 직접적으로 고려하지 않기 때문에 위치 정보를 별도로 주입해야 한다. ==개요== 트랜스포머는 입력 시퀀...) 태그: 시각 편집
새글    12:00  시퀀스-투-시퀀스 구조 차이역사 +2,637 인공무능 토론 기여 (새 문서: 섬네일|인코더와 디코더를 사용한 구조 시퀀스-투-시퀀스 구조(Sequence-to-Sequence, Seq2Seq)는 입력 시퀀스(예: 문장)를 받아 출력 시퀀스(예: 번역된 문장)를 생성하는 신경망 아키텍처이다. 주로 인코더와 디코더 두 부분으로 구성되며, 기계 번역을 비롯한 다양한 자연어 처리 작업에서 활용된다. * 짧게 Seq2Seq이라고 쓰기도 한다. ==개...) 태그: 시각 편집
새글    11:17  어텐션 메커니즘 차이역사 +3,458 인공무능 토론 기여 (새 문서: 섬네일|어텐션 예시 어텐션 메커니즘(Attention mechanism)은 인공신경망에서 입력 시퀀스의 각 요소가 출력에 기여하는 중요도를 동적으로 계산하여 반영하는 기법이다. 원래는 신경망 기계번역(NMT)에서 제안되었으며, 이후 다양한 자연어 처리와 컴퓨터 비전 분야에서 널리 활용되고 있다. ==개요== 전통적인 시퀀스-투-시퀀스(seq2seq) 구조에서는...) 태그: 시각 편집
새글    11:09  셀프 어텐션‎‎ 2개 바뀜 역사 +2,648 [인공무능‎ (2×)]
     
11:09 (최신 | 이전) +97 인공무능 토론 기여 태그: 시각 편집
새글    
11:00 (최신 | 이전) +2,551 인공무능 토론 기여 (새 문서: 셀프 어탠션(Self-Attention)은 딥러닝에서 입력 시퀀스의 각 요소가 동일 시퀀스 내 다른 요소들과 어떤 관계를 갖는지를 스스로 학습하는 어탠션(Attention) 메커니즘의 한 종류이다. 문장 내 단어들 간 상호 연관성을 반영하여 문맥 정보를 효과적으로 포착할 수 있게 하며, 트랜스포머(Transformer) 구조의 핵심 구성 요소이다. ==개요== 셀프 어탠션은 주어진 입력 시퀀스 전...)