인공무능의 사용자 기여
IT 위키
2025년 10월 30일 (목)
- 07:112025년 10월 30일 (목) 07:11 차이 역사 +8 컴퓨터시스템응용기술사 110회 편집 요약 없음 최신 태그: 시각 편집
- 07:112025년 10월 30일 (목) 07:11 차이 역사 +39 컴퓨터시스템응용기술사 110회 편집 요약 없음 태그: 시각 편집
- 07:002025년 10월 30일 (목) 07:00 차이 역사 +48 새글 트랜스포머 트랜스포머 (인공지능) 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
- 06:592025년 10월 30일 (목) 06:59 차이 역사 +2,626 드롭아웃 편집 요약 없음 최신
- 06:552025년 10월 30일 (목) 06:55 차이 역사 +2,154 새글 선형 변환 새 문서: 선형 변환(英: linear transformation, 漢: 線形變換)은 벡터 공간 V에서 또 다른 벡터 공간 W로의 함수 T:V→W로서, 덧셈과 스칼라 곱이라는 벡터 공간의 구조를 보존하는 변환이다. ==정의== 벡터 공간 V와 W가 동일한 스칼라 체(예: 실수, 복소수) 위에 있을 때, 함수 T:V→W가 다음 두 조건을 만족하면 이를 선형 변환이라 한다. #모든 벡터 u, v ∈ V에 대해 T(u + v) = T(u) + T(v) #모... 최신 태그: 시각 편집
- 06:432025년 10월 30일 (목) 06:43 차이 역사 0 쿨백-라이블러 발산 편집 요약 없음 최신
- 06:412025년 10월 30일 (목) 06:41 차이 역사 +3,590 새글 쿨백-라이블러 발산 새 문서: '''쿨백-라이블러 발산''' (Kullback–Leibler Divergence, 약칭 '''KL Divergence''')은 두 확률 분포 간의 차이를 측정하는 통계적 척도이다. 주로 확률 모델의 예측 분포와 실제 분포의 불일치 정도를 정량화하는 데 사용되며, 정보이론, 기계학습, 언어모델(LLM) 등에서 광범위하게 활용된다. ==정의== KL 발산은 두 개의 확률분포 \( P(x) \) (참값 분포)와 \( Q(x) \) (모델 분포)가 있을... 태그: 시각 편집
- 06:112025년 10월 30일 (목) 06:11 차이 역사 +30 지식 증류 편집 요약 없음 최신 태그: 시각 편집: 전환됨
- 05:232025년 10월 30일 (목) 05:23 차이 역사 +5,397 새글 지식 증류 새 문서: '''지식 증류'''(Knowledge Distillation, KD)는 대형 신경망(Teacher Model)이 학습한 지식을 작은 신경망(Student Model)에 전이(distill)하여 효율적 성능을 달성하는 모델 압축 기법이다.<ref>Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. "Distilling the knowledge in a neural network." arXiv:1503.02531 (2015).</ref> 대형 모델이 가진 복잡한 표현과 분류 경계 정보를 소형 모델이 간접적으로 학습하게 함으로써,... 태그: 시각 편집
- 05:182025년 10월 30일 (목) 05:18 차이 역사 +4,694 새글 LoRA (인공지능) 새 문서: '''LoRA'''(Low-Rank Adaptation)는 대형 언어모델(LLM) 등 초거대 신경망의 선형층(linear layer)을 효율적으로 미세조정(fine-tuning)하기 위한 '''저차원 보정'''(low-rank adaptation) 기법이다.<ref name="lora2022">[https://arxiv.org/abs/2106.09685 Hu, Edward J., et al. "LoRA: Low-Rank Adaptation of Large Language Models." ICLR (2022).]</ref> 전체 파라미터를 재학습하지 않고, 각 선형변환 가중치 행렬에 작은 저랭크(rank-... 최신 태그: 시각 편집
- 05:172025년 10월 30일 (목) 05:17 차이 역사 +14 파라미터 효율적 미세조정 편집 요약 없음 최신 태그: 시각 편집
- 04:532025년 10월 30일 (목) 04:53 차이 역사 +4,558 새글 파라미터 효율적 미세조정 새 문서: '''파라미터 효율적 미세조정'''(Parameter-Efficient Fine-Tuning, '''PEFT''')은 대형 언어모델(LLM) 등 초거대 신경망의 모든 파라미터를 다시 학습시키는 대신, 일부 파라미터만 선택적으로 학습하여 특정 다운스트림(downstream) 태스크에 효율적으로 적응시키는 기법이다.<ref name="lora2022">[https://arxiv.org/abs/2106.09685 Hu, Edward J., et al. "LoRA: Low-Rank Adaptation of Large Language Models." ICLR (2022)... 태그: 시각 편집
- 04:402025년 10월 30일 (목) 04:40 차이 역사 +5,394 새글 블록별 자기지도 학습 새 문서: '''블록별 자기지도 학습'''(Block-Wise Self-Supervised Learning)은 심층신경망(Deep Neural Network)의 전역 역전파(global backpropagation)로 인한 메모리 병목 문제를 해결하기 위해, 모델을 여러 블록(block) 단위로 나누고 각 블록에 자기지도 손실(self-supervised loss)을 도입하여 독립적으로 표현 학습을 수행하는 기법이다.<ref name="bim2023">[https://arxiv.org/abs/2311.17218 Luo, Yuxuan, Mengye Ren, and Sai... 최신 태그: 시각 편집
- 04:122025년 10월 30일 (목) 04:12 차이 역사 +3,482 새글 DoReFa-Net 새 문서: '''DoReFa-Net'''은 저정밀도 신경망 학습을 가능하게 하는 기법으로, 가중치(weight), 활성값(activation), 그리고 그래디언트(gradient)를 모두 저비트 정밀도에서 표현하여 연산 효율과 메모리 사용량을 크게 줄이는 방법이다.<ref name="zhou2016">[https://arxiv.org/abs/1606.06160 Zhou, Shuchang, et al. "DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients." arXiv preprint arXiv:1606.... 최신 태그: 시각 편집
- 02:472025년 10월 30일 (목) 02:47 차이 역사 +690 대형 언어 모델 효율화 편집 요약 없음 최신 태그: 시각 편집
- 02:402025년 10월 30일 (목) 02:40 차이 역사 +434 대형 언어 모델 효율화 편집 요약 없음 태그: 시각 편집
- 02:382025년 10월 30일 (목) 02:38 차이 역사 +3,376 대형 언어 모델 효율화 편집 요약 없음
- 02:302025년 10월 30일 (목) 02:30 차이 역사 −455 대형 언어 모델 효율화 편집 요약 없음 태그: 시각 편집
- 02:172025년 10월 30일 (목) 02:17 차이 역사 +36 대형 언어 모델 채널별 이상치 편집 요약 없음 최신 태그: 시각 편집
- 02:112025년 10월 30일 (목) 02:11 차이 역사 +6,269 새글 대형 언어 모델 채널별 이상치 새 문서: '''대형 언어 모델 채널별 이상치 (Channelwise Outlier in Large Language Models)'''는 트랜스포머(Transformer) 기반 신경망 내부에서 특정 채널(hidden dimension)들이 다른 채널보다 훨씬 큰 활성값을 갖는 현상을 의미한다. 이러한 현상은 대형 언어 모델(LLM)의 Layer Normalization과 Scaling 과정에서 반복적으로 관찰되며, 수치적 이상치(outlier)라기보다 모델 구조상 필연적으로 발생하는 활... 태그: 시각 편집
- 02:102025년 10월 30일 (목) 02:10 차이 역사 +66 새글 파일:채널별 이상치.png 편집 요약 없음 최신
- 02:012025년 10월 30일 (목) 02:01 차이 역사 +809 과도한 활성값 편집 요약 없음 최신 태그: 시각 편집
2025년 10월 28일 (화)
- 15:292025년 10월 28일 (화) 15:29 차이 역사 +34 새글 표준 합성곱 일반 합성곱 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
- 15:272025년 10월 28일 (화) 15:27 차이 역사 −227 합성곱 신경망 편집 요약 없음 최신 태그: 시각 편집
- 13:142025년 10월 28일 (화) 13:14 차이 역사 +173 일반 합성곱 편집 요약 없음 최신
- 13:122025년 10월 28일 (화) 13:12 차이 역사 +3,382 새글 일반 합성곱 새 문서: 일반 합성곱(standard convolution, 일반的 合成곱)은 인공신경망, 특히 합성곱 신경망(CNN)에서 입력 특징맵과 학습 가능한 필터 간의 연산을 통해 출력 특징맵을 생성하는 가장 기본적인 형태의 합성곱 연산이다. ==정의== <nowiki>일반 합성곱은 입력 텐서 \(X \in \mathbb{R}^{H \times W \times C_{in}}\)과 필터 텐서 \(K \in \mathbb{R}^{k_H \times k_W \times C_{in} \times C_{out}}\)를 사용하여 출력... 태그: 시각 편집
2025년 10월 26일 (일)
- 13:202025년 10월 26일 (일) 13:20 차이 역사 +5,093 새글 텐서 압축 새 문서: 텐서 압축(Tensor Compression)은 고차원 배열(텐서)을 저장·처리할 때 메모리 사용량과 계산 복잡도를 줄이기 위해 희소성(sparsity) 또는 저차(rank) 구조를 이용하여 데이터를 압축하는 기법이다. ==개념== 고차원 텐서란 3차원 이상(예: 3‑way, 4‑way…) 배열을 의미하며, 텐서 압축은 이러한 배열에서 대부분이 0이거나 중요도가 낮은 원소를 효율적으로 표현하는 방식이다.... 최신 태그: 시각 편집
- 13:192025년 10월 26일 (일) 13:19 차이 역사 −16 CSC (압축) 편집 요약 없음 최신 태그: 시각 편집
- 13:182025년 10월 26일 (일) 13:18 차이 역사 +4,672 새글 CSC (압축) 새 문서: CSC(Compressed Sparse Column, 압축된 희소 열 형식)은 희소 행렬을 저장할 때 열 중심(column‑oriented)으로 비제로(non‑zero) 원소를 압축하는 방식이다. ==개념== CSC 방식은 비제로 원소들을 열 단위로 순서대로 저장하며, 각 열의 시작 위치를 나타내는 포인터 배열을 함께 유지한다. 구체적으로 세 개의 배열을 사용한다: * ‘data’ — 비제로 원소들의 값 배열 * ‘indices... 태그: 시각 편집
- 13:172025년 10월 26일 (일) 13:17 차이 역사 +1,190 COO (압축) 편집 요약 없음 최신 태그: 시각 편집
2025년 10월 25일 (토)
- 12:152025년 10월 25일 (토) 12:15 차이 역사 +292 새글 프루닝 새 문서: 프루닝은 컴퓨터 과학 측면에선 계산 효율 및 성능 개선등을 위해 상대적으로 불필요한 경로나 수치를 잘라내는 것을 의미한다. 아래 중 하나의 문서를 선택할 수 있다. * 의사결정 나무의 프루닝 * 신경망 가지치기 최신 태그: 시각 편집
- 11:332025년 10월 25일 (토) 11:33 차이 역사 +3,018 새글 깊이별 합성곱 새 문서: 깊이별 합성곱(Depthwise Convolution)은 합성곱 신경망(CNN)에서 연산 효율성을 높이기 위해 제안된 구조로, 표준 합성곱(Standard Convolution)을 채널 단위로 분리하여 수행하는 방식이다. 이 방식은 MobileNet 등 경량 신경망의 핵심 구성 요소로 사용되며, 모델의 파라미터 수와 연산량을 크게 줄인다. ==개요== 일반적인 합성곱 연산은 입력의 모든 채널에 대해 동일한 필터를 적... 최신 태그: 시각 편집
- 11:172025년 10월 25일 (토) 11:17 차이 역사 +3,013 새글 ShiftNet 새 문서: ShiftNet은 2018년에 제안된 초경량 합성곱 신경망(CNN) 구조로, 합성곱 연산(convolution) 자체를 제거하고 단순한 픽셀 이동(shift) 연산으로 공간 정보를 처리하는 혁신적인 접근 방식을 제시하였다. ==개요== ShiftNet은 전통적인 합성곱 계층의 연산량과 파라미터 수를 극단적으로 줄이기 위해 설계되었다. 기존의 표준 합성곱이나 깊이별 합성곱(depthwise convolution)조차도 상... 최신 태그: 시각 편집
- 11:152025년 10월 25일 (토) 11:15 차이 역사 +2,596 새글 ConvNeXt 새 문서: ConvNeXt(Convolutional Network for the 2020s)는 2022년에 제안된 현대적 합성곱 신경망(CNN) 구조로, 비전 트랜스포머(Vision Transformer)의 설계 철학을 결합하여 기존 CNN의 성능과 효율성을 극대화한 모델이다. ==개요== ConvNeXt는 기존 ResNet 구조를 기반으로 하지만, 트랜스포머의 설계 원칙을 도입하여 단순한 CNN 구조로도 최신 비전 모델과 경쟁 가능한 성능을 달성하였다. 주요 목... 최신 태그: 시각 편집
- 11:112025년 10월 25일 (토) 11:11 차이 역사 +4,376 합성곱 신경망 편집 요약 없음 태그: 시각 편집
- 05:382025년 10월 25일 (토) 05:38 차이 역사 +4,216 새글 EfficientNet 새 문서: EfficientNet(영어: EfficientNet)은 컨볼루션 신경망(CNN) 아키텍처의 효율적인 확장을 위한 모델 계열로, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks” 논문에서 제안되었다. ==개요== EfficientNet은 네트워크의 깊이(depth), 폭(width), 입력 해상도(resolution)를 균형 있게 확장하는 '''복합 계수(compound coefficient)''' 기반 스케일링 기법을 도입하였다. 기존 모델들은 깊이... 최신 태그: 시각 편집
- 05:342025년 10월 25일 (토) 05:34 차이 역사 +4,121 새글 DenseNet 새 문서: DenseNet(영어: Dense Convolutional Network, 덴스넷)은 층(layer) 간의 연결을 극대화하여 특징 재사용(feature reuse)과 기울기 흐름(gradient flow)을 개선한 컨볼루션 신경망(CNN) 구조이다. ==개요== DenseNet은 각 층이 이전 모든 층의 출력(feature map)을 입력으로 받아들이고, 자신의 출력을 이후 모든 층이 다시 입력으로 전달하는 구조를 가진다. 즉, 하나의 Dense Block 내부에서 l번째 층... 최신 태그: 시각 편집
- 05:322025년 10월 25일 (토) 05:32 차이 역사 +3,509 새글 SqueezeNet 새 문서: SqueezeNet(영어: SqueezeNet)은 모바일 및 임베디드 환경에서 매우 적은 파라미터 수로도 높은 정확도를 달성하도록 설계된 경량 컨볼루션 신경망(CNN) 구조이다. ==개요== SqueezeNet은 2016년 발표된 모델로, AlexNet과 비슷한 수준의 이미지 분류 성능을 유지하면서도 파라미터 수를 약 50배 줄이는 것을 목표로 설계되었다. 모델 크기가 매우 작아(최소 0.5MB 수준) 모바일 및 임... 최신 태그: 시각 편집
- 05:292025년 10월 25일 (토) 05:29 차이 역사 +4,678 새글 ShuffleNet 새 문서: ShuffleNet(영어: ShuffleNet)은 모바일 및 임베디드 디바이스 환경에서 매우 제한된 연산 자원 하에서도 고성능 이미지 인식이 가능하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처이다. ==개요== ShuffleNet은 연산량이 극히 적은 환경(수십 MFLOPs 수준)에서도 동작하도록 설계되었다. 핵심은 두 가지 연산 기법인 포인트와이즈 그룹 컨볼루션(pointwise group convolution)과 채널... 최신 태그: 시각 편집
- 05:232025년 10월 25일 (토) 05:23 차이 역사 +4,623 새글 MobileNet 새 문서: MobileNet(영어: MobileNet)은 모바일 및 임베디드 디바이스 환경에서 낮은 지연(latency)과 적은 연산량으로 이미지 인식, 객체 검출 등의 컴퓨터 비전 과제를 수행하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처 계열이다. ==개요== MobileNet은 일반적인 컨볼루션 연산을 깊이별 분리된 컨볼루션(depthwise separable convolution) 방식으로 대체하여 연산량과 파라미터 수를 크게 줄... 최신 태그: 시각 편집
- 05:192025년 10월 25일 (토) 05:19 차이 역사 +5,035 새글 Wide ResNet 새 문서: Wide ResNet(영어: Wide Residual Network, 축약 WRN)은 ResNet 구조의 “깊이(Depth)”를 늘리는 대신 “폭(Width)”을 확장하여 성능을 향상시킨 변형 아키텍처로, 세르게이 자고루이코(Sergey Zagoruyko)와 니코스 코모다키스(Nikos Komodakis)가 2016년에 제안하였다. ==개요== Wide ResNet은 기존 ResNet이 층을 깊게 쌓을수록 학습 효율이 떨어지고, 특징 재사용(feature reuse)이 감소하는 문제를 해... 최신 태그: 시각 편집
- 05:182025년 10월 25일 (토) 05:18 차이 역사 +17 ResNet 편집 요약 없음 최신 태그: 시각 편집
- 05:112025년 10월 25일 (토) 05:11 차이 역사 +4,668 새글 AlexNet 새 문서: AlexNet(영어: AlexNet)은 2012년 ImageNet 대회(ILSVRC 2012)에서 우승하며 딥러닝 기반 이미지 인식의 시대를 연 컨볼루션 신경망(CNN) 모델이다. 토론토 대학교의 알렉스 크리제브스키(Alex Krizhevsky), 일야 서츠케버(Ilya Sutskever), 제프리 힌턴(Geoffrey Hinton)에 의해 개발되었다. ==개요== AlexNet은 대규모 이미지 데이터셋(ImageNet)을 학습하여 객체 분류 문제를 해결한 모델로, 당시 기... 최신 태그: 시각 편집
- 05:092025년 10월 25일 (토) 05:09 차이 역사 +3,032 새글 LeNet 새 문서: LeNet(영어: LeNet)은 손글씨 숫자 인식 등 문서 이미지 인식을 위해 설계된 초기 컨볼루션 신경망(CNN) 계열 모델로, 특히 1998년에 제안된 LeNet-5가 가장 널리 알려져 있다. ==개요== LeNet은 컨볼루션과 서브샘플링(당시 평균 풀링)을 반복해 공간 정보를 보존하며 특징을 추출하고, 마지막에 완전연결층으로 분류를 수행하는 구조를 갖는다. 원래 목적은 우편번호나 수표의... 최신 태그: 시각 편집
- 05:082025년 10월 25일 (토) 05:08 차이 역사 +23 새글 르넷 LeNet 문서로 넘겨주기 최신 태그: 새 넘겨주기
- 01:362025년 10월 25일 (토) 01:36 차이 역사 +607 배치 정규화 편집 요약 없음 최신 태그: 시각 편집
- 01:362025년 10월 25일 (토) 01:36 차이 역사 +58 새글 파일:배치 정규화 전후 분포.png 편집 요약 없음 최신
2025년 10월 24일 (금)
- 11:472025년 10월 24일 (금) 11:47 차이 역사 +4,688 새글 전문가 조합 (인공지능) 새 문서: 섬네일|혼합 전문가 모델 예시 Mixture of Experts(줄여서 MoE)는 여러 개의 전문가 모델(expert model)과 게이트(gating) 또는 라우터(router) 메커니즘을 결합하여 입력에 따라 적절한 전문가를 선택하거나 가중합하여 출력을 내는 기계학습 기법이다. 주로 딥러닝에서 모델의 효율적 확장과 성능 향상을 위해 사용된다. ==개요== Mixture of Experts는... 최신
- 11:462025년 10월 24일 (금) 11:46 차이 역사 −4,639 Mixture of Experts (인공지능) 전문가 조합 (인공지능) 문서로 넘겨주기 최신 태그: 새 넘겨주기
- 07:082025년 10월 24일 (금) 07:08 차이 역사 +5,206 새글 엔비디아 GPU 모델 새 문서: '''엔비디아 GPU 모델'''은 NVIDIA가 출시한 주요 GPU 제품들을 모델 중심으로 정리한 문서이다. 본 문서는 각 모델의 아키텍처, 특징, 성능, 출시 당시의 소비자 가격 등을 포함한다. ==개요== 엔비디아의 GPU 라인업은 크게 소비자용(GeForce), 전문가용(Quadro/RTX PRO), 데이터센터용(Tesla, A100 등)으로 나뉜다. 모델명에 따라 성능과 용도가 명확히 구분되며, 각 세대의 아키텍처... 최신 태그: 시각 편집