인공무능의 사용자 기여
IT 위키
2025년 11월 20일 (목)
- 01:572025년 11월 20일 (목) 01:57 차이 역사 +4,136 새글 딥 러닝 프레임워크 새 문서: '''딥 러닝 프레임워크(Deep Learning Frameworks)'''는 인공 신경망 모델을 정의하고 학습하며 배포하기 위한 소프트웨어 도구와 라이브러리의 집합이다. 이러한 프레임워크는 자동 미분(autograd), 텐서 연산, GPU 가속, 모델 구조화, 데이터 파이프라인 구성 등 복잡한 과정을 추상화하여 연구자와 개발자가 효율적으로 딥러닝 모델을 개발할 수 있도록 돕는다. 딥러닝 프레임... 최신 태그: 시각 편집
2025년 11월 13일 (목)
- 08:512025년 11월 13일 (목) 08:51 차이 역사 +3,739 새글 MoDNN 새 문서: MoDNN(Mobile Distributed Deep Neural Network, 2017년)은 여러 모바일 디바이스의 연산 자원을 결합하여 하나의 딥러닝 모델을 분산 추론하도록 설계된 기법이다. 단일 스마트폰이나 IoT 기기에서 처리하기 어려운 신경망 연산을 여러 노드가 협력하여 나누어 수행함으로써 추론 속도를 향상시키는 것을 목표로 한다. ==개요== MoDNN은 모바일 디바이스들이 서로 연결된 환경에서,... 최신 태그: 시각 편집
- 08:152025년 11월 13일 (목) 08:15 차이 역사 +3,581 새글 ADCNN 새 문서: ADCNN(Adaptive Distributed Convolutional Neural Network, 2020년)은 여러 엣지(edge) 디바이스에 신경망의 연산을 적응적으로 분산시켜 추론 지연(latency)과 통신량을 줄이기 위한 딥러닝 분산추론(distributed inference) 기법이다. ==개요== ADCNN은 딥러닝 추론을 위해 하나의 중앙 서버나 클라우드에 모든 연산을 맡기는 대신, 여러 엣지 디바이스 클러스터에 연산을 적절히 분할해서 배치함... 최신 태그: 시각 편집
- 08:092025년 11월 13일 (목) 08:09 차이 역사 +3,667 새글 DDNN (신경망, 2017년) 새 문서: DDNN(Distributed Deep Neural Network, 2017년)은 단일 기기에서 실행되는 신경망을 클라우드, 엣지, 디바이스 계층에 분산하여 협력적으로 추론을 수행하는 구조로, 입력 데이터의 특성에 따라 로컬 또는 클라우드에서 단계적으로 계산을 수행함으로써 지연(latency)과 통신 비용을 줄이는 것을 목표로 한다. ==개요== DDNN은 분산 환경에서 신경망 일부를 로컬 디바이스에 배치하... 최신 태그: 시각 편집
- 07:482025년 11월 13일 (목) 07:48 차이 역사 +3,268 새글 브랜치넷 새 문서: BranchyNet(브랜치넷)은 신경망의 중간 계층에 여러 개의 조기 종료 지점(exit branch)을 추가하여, 입력 데이터의 난이도에 따라 계산량을 동적으로 조절하는 신경망 구조이다. 이를 통해 쉬운 입력은 빠르게 처리하고, 어려운 입력만 전체 모델을 통과시키는 방식으로 추론 속도를 크게 향상시킨다. ==개요== BranchyNet은 입력 샘플의 난이도가 서로 다르다는 점에 착안하여... 최신 태그: 시각 편집
- 06:302025년 11월 13일 (목) 06:30 차이 역사 +4,637 새글 GPipe 새 문서: 섬네일|Bubble을 줄이는 것을 목표로 한다. GPipe(지파이프, 영어: GPipe)는 대규모 신경망 모델을 여러 장치에 나누어 학습시키기 위해 제안된 파이프라인 병렬(pipeline parallelism) 기법으로, 마이크로배치를 활용해 파이프라인의 유휴 시간(bubble)을 줄이고 장치 활용률을 높이는 것을 목표로 한다. ==개요== GPipe는 모델을 여러 스테이지(stage)로 분... 최신 태그: 시각 편집
- 06:302025년 11월 13일 (목) 06:30 차이 역사 +121 새글 파일:GPipe 병렬 학습.png 편집 요약 없음 최신
- 06:252025년 11월 13일 (목) 06:25 차이 역사 +4,165 새글 파이프드림 새 문서: 섬네일|파이프드림 사용 전의 학습 순서 섬네일|파이프드림 사용 시 학습 파이프드림(PipeDream)은 대규모 신경망 모델을 여러 장치에 나누어 학습하는 파이프라인 병렬(pipeline parallelism) 방식의 비효율성을 개선하기 위해 제안된 분산 학습 기법이다. 특히 순전파와 역전파의 파이프라인 스케... 최신 태그: 시각 편집
- 06:252025년 11월 13일 (목) 06:25 차이 역사 +52 새글 파일:파이프드림 사용 시 학습 과정.png 편집 요약 없음 최신
- 06:242025년 11월 13일 (목) 06:24 차이 역사 +60 새글 파일:멀티 코어 학습 순서.png 편집 요약 없음 최신
- 06:042025년 11월 13일 (목) 06:04 차이 역사 +70 신경망 분산 학습 편집 요약 없음 최신 태그: 시각 편집
- 06:022025년 11월 13일 (목) 06:02 차이 역사 +8,032 새글 신경망 분산 학습 새 문서: 신경망 분산 학습(영어: distributed training of neural networks)은 인공신경망 모델을 여러 컴퓨팅 노드(예: GPU, 서버)에 분산시켜 동시에 학습함으로써 학습 속도를 높이고 더 큰 모델과 데이터셋을 다루기 위한 기술이다. ==개요== 신경망 분산 학습은 단일 장치의 메모리와 연산 능력으로 처리하기 어려운 대규모 데이터셋과 딥러닝 모델을 효율적으로 학습하기 위해 등장하... 태그: 시각 편집
- 05:522025년 11월 13일 (목) 05:52 차이 역사 +3,998 새글 링 올 리듀스 새 문서: 링 올 리듀스(Ring All-Reduce)는 분산 딥러닝 및 고성능 컴퓨팅(HPC) 환경에서 다수의 노드(주로 GPU) 간에 데이터를 효율적으로 집계하고 공유하기 위해 사용되는 올 리듀스(All-Reduce) 알고리즘의 한 형태이다. ==개요== 링 올 리듀스는 모든 노드를 링(Ring) 형태로 연결하여, 각 노드가 자신의 텐서를 여러 조각(chunk)으로 분할한 뒤 인접한 노드와 데이터를 교환하며 기울기(g... 최신 태그: 시각 편집
- 05:512025년 11월 13일 (목) 05:51 차이 역사 +98 새글 파일:링 올 리듀스 동작 순서 4.png 편집 요약 없음 최신
- 05:502025년 11월 13일 (목) 05:50 차이 역사 +98 새글 파일:링 올 리듀스 동작 순서 3.png 편집 요약 없음 최신
- 05:492025년 11월 13일 (목) 05:49 차이 역사 +98 새글 파일:링 올 리듀스 동작 순서 2.png 편집 요약 없음 최신
- 05:482025년 11월 13일 (목) 05:48 차이 역사 +98 새글 파일:링 올 리듀스 동작 순서 1.png 편집 요약 없음 최신
- 05:452025년 11월 13일 (목) 05:45 차이 역사 0 파라미터 서버 편집 요약 없음 최신 태그: 시각 편집
- 05:442025년 11월 13일 (목) 05:44 차이 역사 +4,273 새글 올 리듀스 새 문서: 섬네일|올 리듀스 방식 작동 구조 올 리듀스(All-Reduce)는 분산 딥러닝 및 고성능 컴퓨팅(HPC) 환경에서 여러 노드(예: GPU)가 계산한 데이터를 집계하고, 그 결과를 모든 노드에 다시 배포하는 집합 통신 연산이다. ==개요== 올 리듀스는 각 노드가 독립적으로 계산한 기울기(gradient) 또는 텐서 값을 서로 공유하고 합산 또는 평균한 뒤, 그 결과를 모든... 최신 태그: 시각 편집
- 05:432025년 11월 13일 (목) 05:43 차이 역사 +98 새글 파일:올 리듀스.png 편집 요약 없음 최신
- 05:382025년 11월 13일 (목) 05:38 차이 역사 +3,469 새글 파라미터 서버 새 문서: 섬네일|파라미터 서버(싱글과 멀티 서버 방식) 파라미터 서버(Parameter Server)는 대규모 분산 머신러닝에서 모델 파라미터(가중치)를 관리하고 동기화하기 위해 사용되는 분산 시스템 구조이다. ==개요== 파라미터 서버 아키텍처는 여러 개의 워커(worker) 노드가 각자 데이터 샘플을 사용해 기울기(gradient)를 계산하고, 중앙 또는 분산된 서버(serv... 태그: 시각 편집
- 05:362025년 11월 13일 (목) 05:36 차이 역사 +77 새글 파일:파라미터 서버.png 편집 요약 없음 최신
- 05:132025년 11월 13일 (목) 05:13 차이 역사 +1,158 Medusa (인공지능) 편집 요약 없음 최신 태그: 시각 편집
- 05:112025년 11월 13일 (목) 05:11 차이 역사 +32 추측 디코딩 편집 요약 없음 최신 태그: 시각 편집
- 05:102025년 11월 13일 (목) 05:10 차이 역사 +66 Medusa (인공지능) 편집 요약 없음 태그: 시각 편집
- 05:092025년 11월 13일 (목) 05:09 차이 역사 +147 새글 파일:Medusa Framework.png 편집 요약 없음 최신
- 05:062025년 11월 13일 (목) 05:06 차이 역사 +2,922 새글 Medusa (인공지능) 새 문서: Medusa(영어: Medusa)는 대형 언어모델(LLM) 기반 생성 모델의 추론 속도를 가속화하기 위해 제안된 프레임워크이다. ==개요== Medusa는 기존 언어모델이 토큰을 순차적으로 하나씩 생성하는 방식의 병목을 해결하기 위해 고안된 방식이다. 기존 방식에서는 출력할 토큰 K개에 대해 모델이 K번의 연산을 실행해야 하지만, Medusa는 여러 개의 디코딩 헤드를 추가해 후속 토큰을... 태그: 시각 편집
2025년 11월 6일 (목)
- 09:392025년 11월 6일 (목) 09:39 차이 역사 −95 추측 디코딩 편집 요약 없음 태그: 시각 편집
- 09:382025년 11월 6일 (목) 09:38 차이 역사 +4,677 새글 추측 디코딩 새 문서: 섬네일|추측적(예측적) 디코딩 방법 추측 디코딩(영어: Speculative Decoding)은 거대 언어 모델(LLM)의 자동회귀 디코딩 과정에서 지연(latency)과 처리량(throughput)을 개선하기 위해 고안된 방법으로, 작은 초안 모델이 여러 개의 미래 토큰을 제안하고, 이후 고성능 대상 모델이 이를 병렬로 검증하는 방식이다. ==개요== 기존의 자동회귀 디코딩 방식... 태그: 시각 편집
- 09:372025년 11월 6일 (목) 09:37 차이 역사 +56 새글 파일:추측적 디코딩.png 편집 요약 없음 최신
2025년 10월 30일 (목)
- 07:532025년 10월 30일 (목) 07:53 차이 역사 +17 희소 데이터 편집 요약 없음 최신 태그: 시각 편집
- 07:532025년 10월 30일 (목) 07:53 차이 역사 +1,477 희소 데이터 편집 요약 없음
- 07:352025년 10월 30일 (목) 07:35 차이 역사 0 딥 러닝 옵티마이저 편집 요약 없음 최신 태그: 시각 편집
- 07:322025년 10월 30일 (목) 07:32 차이 역사 +3,585 새글 가중치 감쇠 새 문서: 가중치 감소(Weight Decay)는 머신러닝 및 딥러닝에서 과적합(overfitting)을 방지하기 위한 정규화(regularization) 기법이다. 학습 과정에서 모델의 가중치(weight)가 지나치게 커지는 것을 억제하여, 일반화(generalization) 능력을 향상시키는 역할을 한다. ==개요== 가중치 감소는 손실 함수(loss function)에 '''가중치의 크기(weight magnitudes)''' 에 대한 '''페널티(penalty)''' 를 추가함으로... 최신
- 07:322025년 10월 30일 (목) 07:32 차이 역사 −3,551 가중치 감소 가중치 감쇠 문서로 넘겨주기 최신 태그: 새 넘겨주기
- 07:322025년 10월 30일 (목) 07:32 차이 역사 +3,487 새글 L2 정규화 새 문서: '''L2 정규화'''(L2 Regularization)는 머신러닝과 딥러닝에서 모델의 복잡도를 억제하고 과적합(overfitting)을 방지하기 위해 손실 함수에 가중치의 제곱합을 추가하는 정규화 기법이다. 일반적으로 가'''중치 감쇠(weight decay)''' 또는 '''릿지 정규화(Ridge Regularization)''' 라고도 불린다. ==개념== L2 정규화는 모델의 파라미터(가중치)가 지나치게 커지지 않도록 제약을 부여한... 최신 태그: 시각 편집
- 07:302025년 10월 30일 (목) 07:30 차이 역사 +35 가중치 감소 편집 요약 없음 태그: 시각 편집
- 07:282025년 10월 30일 (목) 07:28 차이 역사 +3,221 새글 AdaGrad 옵티마이저 새 문서: '''AdaGrad'''(Adaptive Gradient Algorithm)은 각 파라미터마다 학습률(learning rate)을 다르게 적용하여, 파라미터별로 변화량을 자동 조정하는 적응형(Adaptive) 옵티마이저 알고리즘이다. 2011년 John Duchi, Elad Hazan, Yoram Singer가 제안했으며, 희소(sparse) 데이터나 자연어 처리와 같은 영역에서 특히 효과적이다. ==개념== 기존 경사 하강법(Gradient Descent)은 모든 파라미터에 동일한 학... 최신 태그: 시각 편집
- 07:262025년 10월 30일 (목) 07:26 차이 역사 +2,900 새글 RMSProp 새 문서: '''RMSProp'''(Root Mean Square Propagation)은 신경망 학습 시 기울기(gradient)의 크기를 제곱평균제곱근(Root Mean Square)으로 정규화하여, 학습률(learning rate)을 파라미터별로 자동 조정하는 적응형(Adaptive) 옵티마이저 알고리즘이다. 2012년 Geoffrey Hinton이 제안했으며, 딥러닝의 대표적인 적응형 경사 하강법 중 하나로 꼽힌다. ==개념== RMSProp은 AdaGrad의 변형 알고리즘으로, AdaGrad... 최신 태그: 시각 편집
- 07:192025년 10월 30일 (목) 07:19 차이 역사 −1 딥 러닝 옵티마이저 편집 요약 없음 태그: 시각 편집
- 07:142025년 10월 30일 (목) 07:14 차이 역사 +156 옵티마이저 데이터베이스 옵티마이저에 대한 넘겨주기를 제거함 최신 태그: 넘겨주기 제거 시각 편집
- 07:112025년 10월 30일 (목) 07:11 차이 역사 +4,242 새글 딥 러닝 옵티마이저 새 문서: '''딥 러닝 옵티마이저(Deep Learning Optimizer)'''는 딥러닝 모델의 학습 과정에서 손실 함수(loss function)를 최소화하기 위해 신경망의 가중치 및 편향 등의 파라미터를 반복적으로 갱신하는 알고리즘이다. 이러한 최적화 알고리즘은 고차원, 비선형, 대규모 파라미터 공간을 가진 신경망에서 효율적이고 안정적으로 학습이 이루어지도록 하는 핵심 구성 요소이다. ==개념... 태그: 시각 편집
- 07:112025년 10월 30일 (목) 07:11 차이 역사 +8 컴퓨터시스템응용기술사 110회 편집 요약 없음 최신 태그: 시각 편집
- 07:112025년 10월 30일 (목) 07:11 차이 역사 +39 컴퓨터시스템응용기술사 110회 편집 요약 없음 태그: 시각 편집
- 07:002025년 10월 30일 (목) 07:00 차이 역사 +48 새글 트랜스포머 트랜스포머 (인공지능) 문서로 넘겨주기 최신 태그: 새 넘겨주기 시각 편집
- 06:592025년 10월 30일 (목) 06:59 차이 역사 +2,626 드롭아웃 편집 요약 없음 최신
- 06:552025년 10월 30일 (목) 06:55 차이 역사 +2,154 새글 선형 변환 새 문서: 선형 변환(英: linear transformation, 漢: 線形變換)은 벡터 공간 V에서 또 다른 벡터 공간 W로의 함수 T:V→W로서, 덧셈과 스칼라 곱이라는 벡터 공간의 구조를 보존하는 변환이다. ==정의== 벡터 공간 V와 W가 동일한 스칼라 체(예: 실수, 복소수) 위에 있을 때, 함수 T:V→W가 다음 두 조건을 만족하면 이를 선형 변환이라 한다. #모든 벡터 u, v ∈ V에 대해 T(u + v) = T(u) + T(v) #모... 최신 태그: 시각 편집
- 06:432025년 10월 30일 (목) 06:43 차이 역사 0 쿨백-라이블러 발산 편집 요약 없음 최신
- 06:412025년 10월 30일 (목) 06:41 차이 역사 +3,590 새글 쿨백-라이블러 발산 새 문서: '''쿨백-라이블러 발산''' (Kullback–Leibler Divergence, 약칭 '''KL Divergence''')은 두 확률 분포 간의 차이를 측정하는 통계적 척도이다. 주로 확률 모델의 예측 분포와 실제 분포의 불일치 정도를 정량화하는 데 사용되며, 정보이론, 기계학습, 언어모델(LLM) 등에서 광범위하게 활용된다. ==정의== KL 발산은 두 개의 확률분포 \( P(x) \) (참값 분포)와 \( Q(x) \) (모델 분포)가 있을... 태그: 시각 편집
- 06:112025년 10월 30일 (목) 06:11 차이 역사 +30 지식 증류 편집 요약 없음 최신 태그: 시각 편집: 전환됨