인공무능의 사용자 기여
IT 위키
2025년 10월 2일 (목)
- 07:432025년 10월 2일 (목) 07:43 차이 역사 +2,714 새글 KV 캐시 새 문서: KV 캐시(Key-Value Cache)는 트랜스포머 기반 오토리그레시브 언어 모델에서, 이전 토큰의 정보를 저장하여 추론 시 반복 계산을 줄이기 위해 사용하는 캐시 구조이다. ==개념== *트랜스포머 디코더는 각 층에서 self-attention을 계산할 때, 이전 토큰의 key와 value 벡터를 반복적으로 참조한다. *이를 효율화하기 위해 한 번 계산한 key와 value를 캐시에 저장해 두고, 이후 토큰 생... 최신 태그: 시각 편집
- 07:312025년 10월 2일 (목) 07:31 차이 역사 +40 새글 제로샷 프루닝 제로샷 가지치기 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
- 07:302025년 10월 2일 (목) 07:30 차이 역사 +64 KV 캐시 가지치기 편집 요약 없음 최신 태그: 시각 편집
- 07:302025년 10월 2일 (목) 07:30 차이 역사 +3,437 새글 KV 캐시 가지치기 새 문서: KV 캐시 가지치기(KV Cache Pruning)는 트랜스포머 기반 언어 모델의 추론 단계에서 사용하는 '''Key-Value 캐시'''의 크기를 줄이기 위해 일부 K/V 쌍을 제거하거나 압축하는 기법이다. ==개념 및 배경== *트랜스포머 기반의 자기 회귀 모델에서는 이전 토큰의 Key와 Value를 캐시(KV 캐시)해 두고, 이후 토큰 생성 시 재사용한다. *이 방식은 중복 계산을 피하게 해주지만, 문맥... 태그: 시각 편집
- 07:282025년 10월 2일 (목) 07:28 차이 역사 +5 신경망 가지치기 편집 요약 없음 태그: 시각 편집
- 07:262025년 10월 2일 (목) 07:26 차이 역사 +4,502 새글 신경망 가지치기 새 문서: 가지치기(영어: Pruning)는 딥 러닝에서 신경망의 불필요한 파라미터(가중치나 뉴런 연결)를 제거하여 모델의 크기를 줄이고 연산 효율을 높이는 기법이다. 이는 나무의 불필요한 가지를 잘라내는 원예 작업에서 유래한 용어로, 신경망의 성능은 유지하면서도 경량화를 달성하기 위해 사용된다. ==개요== *딥 러닝 모델은 수백만~수십억 개의 파라미터를 가지며, 이 중...
- 07:262025년 10월 2일 (목) 07:26 차이 역사 −4,462 가지치기 (딥 러닝) 신경망 가지치기 문서로 넘겨주기 최신 태그: 새 넘겨주기
- 07:252025년 10월 2일 (목) 07:25 차이 역사 +2,525 새글 반복적 가지치기 새 문서: 반복적 가지치기(Iterative Pruning)는 신경망 모델의 불필요한 가중치를 점진적으로 제거하고, 각 단계마다 재학습(fine‑tuning)을 통해 성능 손실을 보정하는 방식이다. ==개념== *한 번에 많은 가중치를 제거하면 모델 성능이 급격히 저하될 수 있기 때문에, 반복적으로 조금씩 제거하는 전략을 사용한다. *각 반복 주기마다: **중요도가 낮은 가중치 또는 구조를 제거 **제... 최신 태그: 시각 편집
- 07:202025년 10월 2일 (목) 07:20 차이 역사 +46 제로샷 가지치기 편집 요약 없음 최신 태그: 시각 편집
- 07:202025년 10월 2일 (목) 07:20 차이 역사 +3,444 새글 제로샷 가지치기 새 문서: 제로샷 가지치기 또는 제로샷 프루닝(Zero-Shot Pruning)은 사전 학습된 신경망 모델을 추가 학습 없이 곧바로 가지치기(pruning)하는 기법으로, 재학습(fine-tuning)이나 반복 최적화 없이 모델의 구조를 경량화하는 데 목적이 있다. ==개념== *전통적인 프루닝은 모델 학습 중간 또는 이후에 반복적으로 가중치를 제거하고 재학습하는 절차를 필요로 한다. *... 태그: 시각 편집
- 07:152025년 10월 2일 (목) 07:15 차이 역사 +7 에너지 기반 모델 편집 요약 없음 최신 태그: 시각 편집
- 07:152025년 10월 2일 (목) 07:15 차이 역사 +56 새글 파일:에너지 기반 모델 학습 과정 예시.gif 편집 요약 없음 최신
- 07:132025년 10월 2일 (목) 07:13 차이 역사 +54 에너지 기반 모델 편집 요약 없음 태그: 시각 편집
- 07:132025년 10월 2일 (목) 07:13 차이 역사 +23 새글 파일:에너지 기반 모델 학습 과정.png 편집 요약 없음 최신
- 07:082025년 10월 2일 (목) 07:08 차이 역사 +3,626 새글 에너지 기반 모델 새 문서: 섬네일|에너지 기반 모델 학습 과정 개념도 에너지 기반 모델(Energy-Based Model, EBM)은 입력과 출력 구성(configuration)에 대해 스칼라 에너지 함수를 정의하고, 낮은 에너지를 갖는 구성일수록 더 가능성 있는 상태로 간주하는 기계 학습 모델이다. ==개념== *EBM은 통계 물리학의 개념을 차용하여, 가능한 구성들에 대해 에너지... 태그: 시각 편집
- 07:062025년 10월 2일 (목) 07:06 차이 역사 +35 새글 파일:에너지 기반 모델 학습 과정 개념도.png 편집 요약 없음 최신
- 06:542025년 10월 2일 (목) 06:54 차이 역사 +63 희소 행렬 압축 편집 요약 없음 최신 태그: 시각 편집
- 06:542025년 10월 2일 (목) 06:54 차이 역사 +4,386 새글 희소 행렬 압축 새 문서: 희소 행렬 압축(sparse matrix compression)은 요소의 대부분이 0인 희소 행렬을 저장 및 계산할 때, 0이 아닌 원소만을 효율적으로 표현하여 메모리와 연산 효율을 높이는 기술이다. ==개념 및 필요성== *희소 행렬(sparse matrix)이란 행렬 원소 중 0이 아닌 값(nonzero)이 전체 원소 대비 매우 적은 비율을 차지하는 행렬이다. *밀집 행렬(dense matrix) 방식으로 저장하면 많은 0 값도 공... 태그: 시각 편집
- 06:522025년 10월 2일 (목) 06:52 차이 역사 +2,300 새글 COO (압축) 새 문서: COO (Coordinate, 또는 triplet 형식)은 희소 행렬을 저장할 때 가장 직관적이고 간단한 방식 중 하나이다. ==개념== COO 방식은 비제로(nonzero) 원소 각각을 (행 인덱스, 열 인덱스, 값) 튜플로 표현하는 방식이다. 즉, 세 개의 배열(행 인덱스 배열, 열 인덱스 배열, 값 배열)을 병렬로 유지하며, 배열의 같은 위치에서 대응되는 원소들이 하나의 비제로 항목을 나타낸다. ==구성... 태그: 시각 편집
- 06:502025년 10월 2일 (목) 06:50 차이 역사 +18 CSR (압축) 편집 요약 없음 최신 태그: 시각 편집
- 06:502025년 10월 2일 (목) 06:50 차이 역사 +2,606 새글 CSR (압축) 새 문서: CSR (Compressed Sparse Row, 압축 행 기준)은 희소 행렬을 저장하고 연산할 때 행 중심 접근을 빠르게 지원하는 압축 저장 방식이다. ==개념== CSR은 행렬의 각 행(row)에 대해, 0이 아닌 원소(nonzero)들만 순차적으로 저장하고, 각 행이 시작하는 지점을 인덱스로 관리하는 방식이다. 이 방식은 행 접근(row slicing)이나 행 단위 연산(예: 행‑벡터 곱셈)에 효율적이다. ==구성 요소==... 태그: 시각 편집
- 06:172025년 10월 2일 (목) 06:17 차이 역사 +2,974 새글 복권 가설 (인공지능) 새 문서: 복권 가설(Lottery Ticket Hypothesis)은 딥 뉴럴 네트워크 내에 상대적으로 적은 수의 파라미터만을 가진 부분 신경망이 전체 네트워크와 동등한 성능을 달성할 수 있다는 가설이다. ==개요== *본 가설은 조나단 프랭클(Jonathan Frankle)과 동료들이 제안하였다. *무작위 초기화된 밀집(Dense) 신경망 안에는, 일정 부분의 “당첨 복권(winning ticket)”이라 불리는 부분 신경망이 존재... 최신 태그: 시각 편집
- 06:162025년 10월 2일 (목) 06:16 차이 역사 +46 새글 복권 가설 복권 가설 (인공지능) 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
- 03:032025년 10월 2일 (목) 03:03 차이 역사 −61 합성곱 신경망 편집 요약 없음 태그: 시각 편집
- 02:562025년 10월 2일 (목) 02:56 차이 역사 +3,130 합성곱 신경망 편집 요약 없음
- 02:502025년 10월 2일 (목) 02:50 차이 역사 +7 합성곱 신경망 편집 요약 없음 태그: 시각 편집
2025년 10월 1일 (수)
2025년 9월 25일 (목)
- 09:552025년 9월 25일 (목) 09:55 차이 역사 +2,080 새글 합성곱 신경망 새 문서: 분류:인공지능분류:딥 러닝 ;Convolutional Neural Network; 합성곱 인공 신경망; 합성곱신경망 * CNN 처리 과정 도식화 600px * 실제 이미지 CNN 처리 과정 예시 600px == 구성 및 절차 == ;대상을 채널별로 나누고, 정보 손실 방지를 위해 패딩을 적용한 후, 필터를 이용해 스트라이드 단위로 합성곱을 해서 피처 맵을 만들어냄. 빠른 처리를 위...
- 09:552025년 9월 25일 (목) 09:55 차이 역사 −2,022 CNN 합성곱 신경망 문서로 넘겨주기 최신 태그: 새 넘겨주기
- 09:542025년 9월 25일 (목) 09:54 차이 역사 +2,575 새글 배치 정규화 새 문서: 배치 정규화(영어: Batch Normalization, 줄여서 BN)는 딥 러닝에서 학습을 안정화하고 속도를 향상시키기 위해 사용되는 정규화 기법이다. 각 층의 입력을 정규화하여 내부 공변량 변화(Internal Covariate Shift)를 줄이는 것을 목적으로 한다. ==개요== *딥러닝 모델은 층이 깊어질수록 학습이 불안정해지고, 기울기 소실/폭주 문제로 인해 학습 속도가 느려진다. *배치 정규화는... 태그: 시각 편집
- 09:532025년 9월 25일 (목) 09:53 차이 역사 −146 가지치기 (딥 러닝) 편집 요약 없음 태그: 시각 편집
- 09:182025년 9월 25일 (목) 09:18 차이 역사 +2,052 가지치기 (딥 러닝) 편집 요약 없음 태그: 시각 편집
- 08:542025년 9월 25일 (목) 08:54 차이 역사 +2,596 새글 가지치기 (딥 러닝) 새 문서: 가지치기(영어: Pruning)는 딥 러닝에서 신경망의 불필요한 파라미터(가중치나 뉴런 연결)를 제거하여 모델의 크기를 줄이고 연산 효율을 높이는 기법이다. 이는 나무의 불필요한 가지를 잘라내는 원예 작업에서 유래한 용어로, 신경망의 성능은 유지하면서도 경량화를 달성하기 위해 사용된다. ==개요== *딥 러닝 모델은 수백만~수십억 개의 파라미터를 가지며, 이 중... 태그: 시각 편집
- 08:512025년 9월 25일 (목) 08:51 차이 역사 +2,321 새글 런렝스 인코딩 새 문서: 런렝스 인코딩(영어: Run-Length Encoding, RLE)은 동일한 값이 연속적으로 반복되는(run) 구간을 압축하여, 데이터 크기를 줄이는 단순한 무손실 압축 기법이다. 주로 데이터에 반복 구간이 많거나 희소 데이터(sparse data)에서 효과적이다. ==개요== *연속된 동일 값을 (값, 반복 길이) 쌍으로 표현한다. *예: [0, 0, 0, 3, 3, 1, 0, 0] → [(0,3), (3,2), (1,1), (0,2)] *일반적으로 흑백 이미지,... 최신 태그: 시각 편집
- 08:492025년 9월 25일 (목) 08:49 차이 역사 +2,815 새글 희소 데이터 새 문서: 섬네일|대부분의 값이 0인 희소 데이터 희소 데이터(稀疏-, 영어: Sparse data)는 데이터의 대부분이 0 또는 비어 있는 값으로 이루어진 데이터를 말한다. 반대로, 대부분의 값이 유효한 값을 가지는 데이터는 조밀 데이터(密-, Dense data)라고 한다. 희소 데이터는 수학, 통계학, 데이터 과학, 인공지능 등 다양한 분야에서 다루어지며, 저장 및 연... 태그: 시각 편집
- 08:482025년 9월 25일 (목) 08:48 차이 역사 +82 새글 파일:희소 매트릭스.png 편집 요약 없음 최신
- 08:442025년 9월 25일 (목) 08:44 차이 역사 +18 스내피 (압축) 편집 요약 없음 최신 태그: 시각 편집
- 08:432025년 9월 25일 (목) 08:43 차이 역사 +39 비트맵 인코딩 (압축) 편집 요약 없음 최신 태그: 시각 편집
- 08:432025년 9월 25일 (목) 08:43 차이 역사 +2,069 새글 비트맵 인코딩 (압축) 새 문서: 비트맵 인코딩(영어: Bitmap encoding)은 데이터 압축 기법 가운데 하나로, 주어진 데이터에서 특정 값의 존재 여부를 비트 벡터(bitmap)로 표현하는 방식이다. 주로 0과 같이 반복되는 값이 많거나, 데이터가 희소(sparse)한 경우에 효율적이다. ==개요== *비트맵 인코딩은 값들의 위치 정보를 비트열로 표시하여 원본 데이터를 재현할 수 있도록 한다. *각 원소가 특정 값에 해... 태그: 시각 편집
- 08:292025년 9월 25일 (목) 08:29 차이 역사 +1,955 새글 부동소수점 연산 새 문서: 단위로써의 부동소수점 연산(FLOP, Floating Point Operation)은 컴퓨터가 수행하는 단일 부동소수점 연산을 의미한다. 보통 곱셈, 덧셈, 나눗셈, 제곱근 계산 등이 이에 포함된다. 인공지능, 과학 계산, 고성능 컴퓨팅(HPC)에서는 알고리즘이나 모델의 연산 복잡도를 나타내는 단위로 사용된다. ==정의== *'''FLOP'''은 한 번의 부동소수점 연산을 뜻한다. *'''FLOPs'''는 초당 수행할... 최신 태그: 시각 편집
- 08:282025년 9월 25일 (목) 08:28 차이 역사 +1,998 새글 곱셈-누산 연산 새 문서: 곱셈-누산 연산(MAC, Multiply–Accumulate operation)은 인공지능 및 딥러닝 모델의 연산량을 측정하는 지표로, 곱셈(multiplication)과 덧셈(accumulation)이 결합된 기본 연산 단위를 의미한다. 주로 합성곱 신경망(CNN)이나 완전연결층(Dense layer)과 같이 대규모 연산이 필요한 구조에서 모델의 연산 복잡도를 비교하는 데 사용된다. ==정의== *'''MAC(Multiply–Accumulate operation)'''은 하나의... 최신 태그: 시각 편집
- 07:472025년 9월 25일 (목) 07:47 차이 역사 −6 비전 트랜스포머 편집 요약 없음 최신
- 07:342025년 9월 25일 (목) 07:34 차이 역사 +2,259 새글 기울기 폭주 새 문서: 기울기 폭주(영어: Exploding gradient)는 인공 신경망 학습 과정에서 역전파(backpropagation)를 통해 전달되는 기울기(gradient)가 지수적으로 커지면서 학습이 불안정해지는 현상이다. 이 문제는 특히 순환 신경망(RNN)이나 깊은 신경망에서 흔히 발생한다. ==개요== 신경망은 손실 함수(loss function)를 최소화하기 위해 경사하강법(gradient descent)을 사용한다. 이 과정에서 기울기가... 최신 태그: 시각 편집
- 07:322025년 9월 25일 (목) 07:32 차이 역사 0 LSTM 편집 요약 없음 최신 태그: 시각 편집
- 07:312025년 9월 25일 (목) 07:31 차이 역사 +42 LSTM 편집 요약 없음 태그: 시각 편집
- 07:312025년 9월 25일 (목) 07:31 차이 역사 +2,352 LSTM 편집 요약 없음
- 07:292025년 9월 25일 (목) 07:29 차이 역사 +1,652 RNN 편집 요약 없음 최신
- 07:272025년 9월 25일 (목) 07:27 차이 역사 +1,778 새글 합성곱 새 문서: 합성곱(合成곱, 영어: Convolution)은 두 함수의 형태를 겹쳐 적분(또는 합)하여 새로운 함수를 만드는 연산으로, 신호 처리, 영상 처리, 확률론, 미분방정식 등 수학과 공학 전반에 걸쳐 널리 사용된다. 특히 딥러닝에서는 합성곱 신경망(CNN)의 핵심 연산으로 잘 알려져 있다. ==정의== 연속 함수 f, g에 대한 합성곱은 다음과 같이 정의된다. *(f * g)(t) = ∫ f(τ) g(t - τ) dτ 이... 최신 태그: 시각 편집
- 07:172025년 9월 25일 (목) 07:17 차이 역사 +3,148 새글 야코비안 행렬 새 문서: 야코비안 행렬(영어: Jacobian matrix)은 다변수 벡터값 함수의 국소적 선형 근사를 나타내는 행렬로, 함수의 도함수 정보를 모아놓은 것이다. 미분학과 벡터 해석학에서 중요한 역할을 하며, 특히 변수 변환, 최적화, 비선형 방정식 해석, 기계학습 등에서 널리 사용된다. == 이름 == 한편, 독일 수학자 카를 구스타프 야코비(Carl Gustav Jacob Jacobi)의 이름에서 유래하였기 때... 최신 태그: 시각 편집
- 07:082025년 9월 25일 (목) 07:08 차이 역사 +1,777 Mixture of Experts (인공지능) 편집 요약 없음