새 문서 목록
IT 위키
- 2025년 11월 20일 (목) 01:57 딥 러닝 프레임워크 (역사 | 편집) [4,136 바이트] 인공무능 (토론 | 기여) (새 문서: '''딥 러닝 프레임워크(Deep Learning Frameworks)'''는 인공 신경망 모델을 정의하고 학습하며 배포하기 위한 소프트웨어 도구와 라이브러리의 집합이다. 이러한 프레임워크는 자동 미분(autograd), 텐서 연산, GPU 가속, 모델 구조화, 데이터 파이프라인 구성 등 복잡한 과정을 추상화하여 연구자와 개발자가 효율적으로 딥러닝 모델을 개발할 수 있도록 돕는다. 딥러닝 프레임...) 태그: 시각 편집
- 2025년 11월 13일 (목) 08:51 MoDNN (역사 | 편집) [3,739 바이트] 인공무능 (토론 | 기여) (새 문서: MoDNN(Mobile Distributed Deep Neural Network, 2017년)은 여러 모바일 디바이스의 연산 자원을 결합하여 하나의 딥러닝 모델을 분산 추론하도록 설계된 기법이다. 단일 스마트폰이나 IoT 기기에서 처리하기 어려운 신경망 연산을 여러 노드가 협력하여 나누어 수행함으로써 추론 속도를 향상시키는 것을 목표로 한다. ==개요== MoDNN은 모바일 디바이스들이 서로 연결된 환경에서,...) 태그: 시각 편집
- 2025년 11월 13일 (목) 08:15 ADCNN (역사 | 편집) [3,581 바이트] 인공무능 (토론 | 기여) (새 문서: ADCNN(Adaptive Distributed Convolutional Neural Network, 2020년)은 여러 엣지(edge) 디바이스에 신경망의 연산을 적응적으로 분산시켜 추론 지연(latency)과 통신량을 줄이기 위한 딥러닝 분산추론(distributed inference) 기법이다. ==개요== ADCNN은 딥러닝 추론을 위해 하나의 중앙 서버나 클라우드에 모든 연산을 맡기는 대신, 여러 엣지 디바이스 클러스터에 연산을 적절히 분할해서 배치함...) 태그: 시각 편집
- 2025년 11월 13일 (목) 08:09 DDNN (신경망, 2017년) (역사 | 편집) [3,667 바이트] 인공무능 (토론 | 기여) (새 문서: DDNN(Distributed Deep Neural Network, 2017년)은 단일 기기에서 실행되는 신경망을 클라우드, 엣지, 디바이스 계층에 분산하여 협력적으로 추론을 수행하는 구조로, 입력 데이터의 특성에 따라 로컬 또는 클라우드에서 단계적으로 계산을 수행함으로써 지연(latency)과 통신 비용을 줄이는 것을 목표로 한다. ==개요== DDNN은 분산 환경에서 신경망 일부를 로컬 디바이스에 배치하...) 태그: 시각 편집
- 2025년 11월 13일 (목) 07:48 브랜치넷 (역사 | 편집) [3,268 바이트] 인공무능 (토론 | 기여) (새 문서: BranchyNet(브랜치넷)은 신경망의 중간 계층에 여러 개의 조기 종료 지점(exit branch)을 추가하여, 입력 데이터의 난이도에 따라 계산량을 동적으로 조절하는 신경망 구조이다. 이를 통해 쉬운 입력은 빠르게 처리하고, 어려운 입력만 전체 모델을 통과시키는 방식으로 추론 속도를 크게 향상시킨다. ==개요== BranchyNet은 입력 샘플의 난이도가 서로 다르다는 점에 착안하여...) 태그: 시각 편집
- 2025년 11월 13일 (목) 07:31 블루리본 서베이 (역사 | 편집) [2,935 바이트] 백종원화이팅 (토론 | 기여) (새 문서: '''블루리본 서베이(Blue Ribbon Survey)'''는 대한민국의 외식업계 및 미식 문화를 대표하는 맛집 가이드이다. ==개요== 블루리본 서베이는 2005년부터 시작된 대한민국 최초의 본격적인 맛집 평가서로, 독자의 평가를 기반으로 전국의 맛집을 선별하고 있다. 웹사이트에서 식당명·메뉴명·지역 등을 검색할 수 있는 기능을 제공하며, 매년 새 판이 출간된다. ==역사== *2005...) 태그: 시각 편집
- 2025년 11월 13일 (목) 07:29 홍탁집(어머니와 아들) (역사 | 편집) [3,458 바이트] 백종원화이팅 (토론 | 기여) (새 문서: 섬네일|백종원과 홍탁집 홍탁집(어머니와 아들)은 대한민국 서울 마포구 포방터시장 내에 위치한 한국식 닭요리 전문 식당이다. ==개요== 이 식당은 시장 내에서 닭볶음탕과 닭요리를 주력 메뉴로 하며, 방송 출연 이후 주목을 받았다. 2018년 방송 프로그램 ‘백종원의 골목식당’ 포방터시장 편에 출연함으로써 일반에 알려졌고, 이후 매장 운영·...) 태그: 시각 편집
- 2025년 11월 13일 (목) 06:30 GPipe (역사 | 편집) [4,637 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|Bubble을 줄이는 것을 목표로 한다. GPipe(지파이프, 영어: GPipe)는 대규모 신경망 모델을 여러 장치에 나누어 학습시키기 위해 제안된 파이프라인 병렬(pipeline parallelism) 기법으로, 마이크로배치를 활용해 파이프라인의 유휴 시간(bubble)을 줄이고 장치 활용률을 높이는 것을 목표로 한다. ==개요== GPipe는 모델을 여러 스테이지(stage)로 분...) 태그: 시각 편집
- 2025년 11월 13일 (목) 06:25 파이프드림 (역사 | 편집) [4,165 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|파이프드림 사용 전의 학습 순서 섬네일|파이프드림 사용 시 학습 파이프드림(PipeDream)은 대규모 신경망 모델을 여러 장치에 나누어 학습하는 파이프라인 병렬(pipeline parallelism) 방식의 비효율성을 개선하기 위해 제안된 분산 학습 기법이다. 특히 순전파와 역전파의 파이프라인 스케...) 태그: 시각 편집
- 2025년 11월 13일 (목) 06:02 신경망 분산 학습 (역사 | 편집) [8,102 바이트] 인공무능 (토론 | 기여) (새 문서: 신경망 분산 학습(영어: distributed training of neural networks)은 인공신경망 모델을 여러 컴퓨팅 노드(예: GPU, 서버)에 분산시켜 동시에 학습함으로써 학습 속도를 높이고 더 큰 모델과 데이터셋을 다루기 위한 기술이다. ==개요== 신경망 분산 학습은 단일 장치의 메모리와 연산 능력으로 처리하기 어려운 대규모 데이터셋과 딥러닝 모델을 효율적으로 학습하기 위해 등장하...) 태그: 시각 편집
- 2025년 11월 13일 (목) 05:52 링 올 리듀스 (역사 | 편집) [3,998 바이트] 인공무능 (토론 | 기여) (새 문서: 링 올 리듀스(Ring All-Reduce)는 분산 딥러닝 및 고성능 컴퓨팅(HPC) 환경에서 다수의 노드(주로 GPU) 간에 데이터를 효율적으로 집계하고 공유하기 위해 사용되는 올 리듀스(All-Reduce) 알고리즘의 한 형태이다. ==개요== 링 올 리듀스는 모든 노드를 링(Ring) 형태로 연결하여, 각 노드가 자신의 텐서를 여러 조각(chunk)으로 분할한 뒤 인접한 노드와 데이터를 교환하며 기울기(g...) 태그: 시각 편집
- 2025년 11월 13일 (목) 05:44 올 리듀스 (역사 | 편집) [4,273 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|올 리듀스 방식 작동 구조 올 리듀스(All-Reduce)는 분산 딥러닝 및 고성능 컴퓨팅(HPC) 환경에서 여러 노드(예: GPU)가 계산한 데이터를 집계하고, 그 결과를 모든 노드에 다시 배포하는 집합 통신 연산이다. ==개요== 올 리듀스는 각 노드가 독립적으로 계산한 기울기(gradient) 또는 텐서 값을 서로 공유하고 합산 또는 평균한 뒤, 그 결과를 모든...) 태그: 시각 편집
- 2025년 11월 13일 (목) 05:38 파라미터 서버 (역사 | 편집) [3,469 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|파라미터 서버(싱글과 멀티 서버 방식) 파라미터 서버(Parameter Server)는 대규모 분산 머신러닝에서 모델 파라미터(가중치)를 관리하고 동기화하기 위해 사용되는 분산 시스템 구조이다. ==개요== 파라미터 서버 아키텍처는 여러 개의 워커(worker) 노드가 각자 데이터 샘플을 사용해 기울기(gradient)를 계산하고, 중앙 또는 분산된 서버(serv...) 태그: 시각 편집
- 2025년 11월 13일 (목) 05:06 Medusa (인공지능) (역사 | 편집) [4,146 바이트] 인공무능 (토론 | 기여) (새 문서: Medusa(영어: Medusa)는 대형 언어모델(LLM) 기반 생성 모델의 추론 속도를 가속화하기 위해 제안된 프레임워크이다. ==개요== Medusa는 기존 언어모델이 토큰을 순차적으로 하나씩 생성하는 방식의 병목을 해결하기 위해 고안된 방식이다. 기존 방식에서는 출력할 토큰 K개에 대해 모델이 K번의 연산을 실행해야 하지만, Medusa는 여러 개의 디코딩 헤드를 추가해 후속 토큰을...) 태그: 시각 편집
- 2025년 11월 6일 (목) 09:55 남극의 셰프 (예능) (역사 | 편집) [4,210 바이트] 백종원화이팅 (토론 | 기여) (새 문서: '''남극의 셰프'''는 대한민국의 예능 프로그램이다. 극한의 남극 환경 속에서 식사라는 매개를 통해 인간·자연·공존의 의미를 탐구하는 기후환경 프로젝트로 기획되었다. ==기획 배경 및 콘셉트== *이 프로그램은 MBC가 약 13년 만에 남극을 배경으로 다시 선보이는 기획으로서, 2012년 방송된 다큐멘터리 시리즈 남극의 눈물 이후의 연장선으로 기후환경 문제를 다...) 태그: 시각 편집
- 2025년 11월 6일 (목) 09:38 추측 디코딩 (역사 | 편집) [4,614 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|추측적(예측적) 디코딩 방법 추측 디코딩(영어: Speculative Decoding)은 거대 언어 모델(LLM)의 자동회귀 디코딩 과정에서 지연(latency)과 처리량(throughput)을 개선하기 위해 고안된 방법으로, 작은 초안 모델이 여러 개의 미래 토큰을 제안하고, 이후 고성능 대상 모델이 이를 병렬로 검증하는 방식이다. ==개요== 기존의 자동회귀 디코딩 방식...) 태그: 시각 편집
- 2025년 11월 5일 (수) 07:51 5 Whys (역사 | 편집) [4,313 바이트] Agiler (토론 | 기여) (새 문서: 5 Whys(오 왜법)은 문제 발생 시 “왜?”라는 질문을 반복하여 그 문제의 근본원인(root cause)을 탐색하는 기법이다. ==개요== 5 Whys는 문제의 증상이나 표면적 원인에 그치지 않고, 연쇄적 원인을 추적함으로써 본질적 원인에 도달하고자 하는 방법이다. 보통 다섯 번의 “왜?” 질문을 던지는 것이 경험상 적절하다고 해서 ‘5’라는 숫자가 붙었지만, 실제로는 네...) 태그: 시각 편집
- 2025년 11월 5일 (수) 07:50 행동 주도 개발 (역사 | 편집) [5,248 바이트] Agiler (토론 | 기여) (새 문서: 섬네일|행동 주도 개발 사이클 행동 주도 개발(Behavior‑Driven Development, BDD)은 소프트웨어 개발 과정에서 이해관계자들이 자연어 기반의 시나리오를 통해 공동으로 요구사항을 정의하고, 그 요구사항을 자동화된 테스트로 연결하여 구현하는 기법이다. ==개요== BDD는 기존의 테스트 주도 개발(Test‑Driven Development, TDD) 및 인수 테스트 주도...) 태그: 시각 편집
- 2025년 11월 5일 (수) 04:57 PyTorch topk (역사 | 편집) [3,488 바이트] 파이러너 (토론 | 기여) (새 문서: {{Infobox function | name = topk | library = PyTorch | introduced = PyTorch 0.x | signature = torch.topk(input, k, dim=None, largest=True, sorted=True, *, out=None) | description = 주어진 차원을 따라 입력 텐서에서 상위 또는 하위 k개의 원소와 그 인덱스를 반환한다. }} <code>topk</code>은 PyTorch에서 텐서의 주어진 차원(dim)에서 상위 k개의 값을 추출하고 그 인덱스를 함께 반환하는 함수이다.<ref>https://...) 태그: 시각 편집
- 2025년 10월 30일 (목) 13:20 Kademlia (역사 | 편집) [3,419 바이트] Dcn (토론 | 기여) (새 문서: Kademlia는 분산 해시 테이블(DHT, Distributed Hash Table)을 기반으로 하는 피어 투 피어(P2P) 네트워크 프로토콜이다. 800x800픽셀 ==개요== Kademlia는 2002년 Petar Maymounkov과 David Mazières가 제안한 P2P 시스템 설계로, 중앙 서버 없이 자율적인 노드 간의 검색 및 데이터 저장을 가능하게 한다. 주로 파일 공유 시스템, 블록체인, IPFS, BitTorrent 등에서 사용된다. Kademlia...) 태그: 시각 편집
- 2025년 10월 30일 (목) 07:32 가중치 감쇠 (역사 | 편집) [3,585 바이트] 인공무능 (토론 | 기여) (새 문서: 가중치 감소(Weight Decay)는 머신러닝 및 딥러닝에서 과적합(overfitting)을 방지하기 위한 정규화(regularization) 기법이다. 학습 과정에서 모델의 가중치(weight)가 지나치게 커지는 것을 억제하여, 일반화(generalization) 능력을 향상시키는 역할을 한다. ==개요== 가중치 감소는 손실 함수(loss function)에 '''가중치의 크기(weight magnitudes)''' 에 대한 '''페널티(penalty)''' 를 추가함으로...)
- 2025년 10월 30일 (목) 07:32 L2 정규화 (역사 | 편집) [3,487 바이트] 인공무능 (토론 | 기여) (새 문서: '''L2 정규화'''(L2 Regularization)는 머신러닝과 딥러닝에서 모델의 복잡도를 억제하고 과적합(overfitting)을 방지하기 위해 손실 함수에 가중치의 제곱합을 추가하는 정규화 기법이다. 일반적으로 가'''중치 감쇠(weight decay)''' 또는 '''릿지 정규화(Ridge Regularization)''' 라고도 불린다. ==개념== L2 정규화는 모델의 파라미터(가중치)가 지나치게 커지지 않도록 제약을 부여한...) 태그: 시각 편집
- 2025년 10월 30일 (목) 07:28 AdaGrad 옵티마이저 (역사 | 편집) [3,221 바이트] 인공무능 (토론 | 기여) (새 문서: '''AdaGrad'''(Adaptive Gradient Algorithm)은 각 파라미터마다 학습률(learning rate)을 다르게 적용하여, 파라미터별로 변화량을 자동 조정하는 적응형(Adaptive) 옵티마이저 알고리즘이다. 2011년 John Duchi, Elad Hazan, Yoram Singer가 제안했으며, 희소(sparse) 데이터나 자연어 처리와 같은 영역에서 특히 효과적이다. ==개념== 기존 경사 하강법(Gradient Descent)은 모든 파라미터에 동일한 학...) 태그: 시각 편집
- 2025년 10월 30일 (목) 07:26 RMSProp (역사 | 편집) [2,900 바이트] 인공무능 (토론 | 기여) (새 문서: '''RMSProp'''(Root Mean Square Propagation)은 신경망 학습 시 기울기(gradient)의 크기를 제곱평균제곱근(Root Mean Square)으로 정규화하여, 학습률(learning rate)을 파라미터별로 자동 조정하는 적응형(Adaptive) 옵티마이저 알고리즘이다. 2012년 Geoffrey Hinton이 제안했으며, 딥러닝의 대표적인 적응형 경사 하강법 중 하나로 꼽힌다. ==개념== RMSProp은 AdaGrad의 변형 알고리즘으로, AdaGrad...) 태그: 시각 편집
- 2025년 10월 30일 (목) 07:11 딥 러닝 옵티마이저 (역사 | 편집) [4,241 바이트] 인공무능 (토론 | 기여) (새 문서: '''딥 러닝 옵티마이저(Deep Learning Optimizer)'''는 딥러닝 모델의 학습 과정에서 손실 함수(loss function)를 최소화하기 위해 신경망의 가중치 및 편향 등의 파라미터를 반복적으로 갱신하는 알고리즘이다. 이러한 최적화 알고리즘은 고차원, 비선형, 대규모 파라미터 공간을 가진 신경망에서 효율적이고 안정적으로 학습이 이루어지도록 하는 핵심 구성 요소이다. ==개념...) 태그: 시각 편집
- 2025년 10월 30일 (목) 06:55 선형 변환 (역사 | 편집) [2,154 바이트] 인공무능 (토론 | 기여) (새 문서: 선형 변환(英: linear transformation, 漢: 線形變換)은 벡터 공간 V에서 또 다른 벡터 공간 W로의 함수 T:V→W로서, 덧셈과 스칼라 곱이라는 벡터 공간의 구조를 보존하는 변환이다. ==정의== 벡터 공간 V와 W가 동일한 스칼라 체(예: 실수, 복소수) 위에 있을 때, 함수 T:V→W가 다음 두 조건을 만족하면 이를 선형 변환이라 한다. #모든 벡터 u, v ∈ V에 대해 T(u + v) = T(u) + T(v) #모...) 태그: 시각 편집
- 2025년 10월 30일 (목) 06:41 쿨백-라이블러 발산 (역사 | 편집) [3,590 바이트] 인공무능 (토론 | 기여) (새 문서: '''쿨백-라이블러 발산''' (Kullback–Leibler Divergence, 약칭 '''KL Divergence''')은 두 확률 분포 간의 차이를 측정하는 통계적 척도이다. 주로 확률 모델의 예측 분포와 실제 분포의 불일치 정도를 정량화하는 데 사용되며, 정보이론, 기계학습, 언어모델(LLM) 등에서 광범위하게 활용된다. ==정의== KL 발산은 두 개의 확률분포 \( P(x) \) (참값 분포)와 \( Q(x) \) (모델 분포)가 있을...) 태그: 시각 편집
- 2025년 10월 30일 (목) 05:23 지식 증류 (역사 | 편집) [5,427 바이트] 인공무능 (토론 | 기여) (새 문서: '''지식 증류'''(Knowledge Distillation, KD)는 대형 신경망(Teacher Model)이 학습한 지식을 작은 신경망(Student Model)에 전이(distill)하여 효율적 성능을 달성하는 모델 압축 기법이다.<ref>Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. "Distilling the knowledge in a neural network." arXiv:1503.02531 (2015).</ref> 대형 모델이 가진 복잡한 표현과 분류 경계 정보를 소형 모델이 간접적으로 학습하게 함으로써,...) 태그: 시각 편집
- 2025년 10월 30일 (목) 05:18 LoRA (인공지능) (역사 | 편집) [4,694 바이트] 인공무능 (토론 | 기여) (새 문서: '''LoRA'''(Low-Rank Adaptation)는 대형 언어모델(LLM) 등 초거대 신경망의 선형층(linear layer)을 효율적으로 미세조정(fine-tuning)하기 위한 '''저차원 보정'''(low-rank adaptation) 기법이다.<ref name="lora2022">[https://arxiv.org/abs/2106.09685 Hu, Edward J., et al. "LoRA: Low-Rank Adaptation of Large Language Models." ICLR (2022).]</ref> 전체 파라미터를 재학습하지 않고, 각 선형변환 가중치 행렬에 작은 저랭크(rank-...) 태그: 시각 편집
- 2025년 10월 30일 (목) 04:53 파라미터 효율적 미세조정 (역사 | 편집) [4,572 바이트] 인공무능 (토론 | 기여) (새 문서: '''파라미터 효율적 미세조정'''(Parameter-Efficient Fine-Tuning, '''PEFT''')은 대형 언어모델(LLM) 등 초거대 신경망의 모든 파라미터를 다시 학습시키는 대신, 일부 파라미터만 선택적으로 학습하여 특정 다운스트림(downstream) 태스크에 효율적으로 적응시키는 기법이다.<ref name="lora2022">[https://arxiv.org/abs/2106.09685 Hu, Edward J., et al. "LoRA: Low-Rank Adaptation of Large Language Models." ICLR (2022)...) 태그: 시각 편집
- 2025년 10월 30일 (목) 04:40 블록별 자기지도 학습 (역사 | 편집) [5,394 바이트] 인공무능 (토론 | 기여) (새 문서: '''블록별 자기지도 학습'''(Block-Wise Self-Supervised Learning)은 심층신경망(Deep Neural Network)의 전역 역전파(global backpropagation)로 인한 메모리 병목 문제를 해결하기 위해, 모델을 여러 블록(block) 단위로 나누고 각 블록에 자기지도 손실(self-supervised loss)을 도입하여 독립적으로 표현 학습을 수행하는 기법이다.<ref name="bim2023">[https://arxiv.org/abs/2311.17218 Luo, Yuxuan, Mengye Ren, and Sai...) 태그: 시각 편집
- 2025년 10월 30일 (목) 04:12 DoReFa-Net (역사 | 편집) [3,482 바이트] 인공무능 (토론 | 기여) (새 문서: '''DoReFa-Net'''은 저정밀도 신경망 학습을 가능하게 하는 기법으로, 가중치(weight), 활성값(activation), 그리고 그래디언트(gradient)를 모두 저비트 정밀도에서 표현하여 연산 효율과 메모리 사용량을 크게 줄이는 방법이다.<ref name="zhou2016">[https://arxiv.org/abs/1606.06160 Zhou, Shuchang, et al. "DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients." arXiv preprint arXiv:1606....) 태그: 시각 편집
- 2025년 10월 30일 (목) 02:11 대형 언어 모델 채널별 이상치 (역사 | 편집) [6,305 바이트] 인공무능 (토론 | 기여) (새 문서: '''대형 언어 모델 채널별 이상치 (Channelwise Outlier in Large Language Models)'''는 트랜스포머(Transformer) 기반 신경망 내부에서 특정 채널(hidden dimension)들이 다른 채널보다 훨씬 큰 활성값을 갖는 현상을 의미한다. 이러한 현상은 대형 언어 모델(LLM)의 Layer Normalization과 Scaling 과정에서 반복적으로 관찰되며, 수치적 이상치(outlier)라기보다 모델 구조상 필연적으로 발생하는 활...) 태그: 시각 편집
- 2025년 10월 28일 (화) 13:12 일반 합성곱 (역사 | 편집) [3,555 바이트] 인공무능 (토론 | 기여) (새 문서: 일반 합성곱(standard convolution, 일반的 合成곱)은 인공신경망, 특히 합성곱 신경망(CNN)에서 입력 특징맵과 학습 가능한 필터 간의 연산을 통해 출력 특징맵을 생성하는 가장 기본적인 형태의 합성곱 연산이다. ==정의== <nowiki>일반 합성곱은 입력 텐서 \(X \in \mathbb{R}^{H \times W \times C_{in}}\)과 필터 텐서 \(K \in \mathbb{R}^{k_H \times k_W \times C_{in} \times C_{out}}\)를 사용하여 출력...) 태그: 시각 편집
- 2025년 10월 26일 (일) 13:20 텐서 압축 (역사 | 편집) [5,093 바이트] 인공무능 (토론 | 기여) (새 문서: 텐서 압축(Tensor Compression)은 고차원 배열(텐서)을 저장·처리할 때 메모리 사용량과 계산 복잡도를 줄이기 위해 희소성(sparsity) 또는 저차(rank) 구조를 이용하여 데이터를 압축하는 기법이다. ==개념== 고차원 텐서란 3차원 이상(예: 3‑way, 4‑way…) 배열을 의미하며, 텐서 압축은 이러한 배열에서 대부분이 0이거나 중요도가 낮은 원소를 효율적으로 표현하는 방식이다....) 태그: 시각 편집
- 2025년 10월 26일 (일) 13:18 CSC (압축) (역사 | 편집) [4,656 바이트] 인공무능 (토론 | 기여) (새 문서: CSC(Compressed Sparse Column, 압축된 희소 열 형식)은 희소 행렬을 저장할 때 열 중심(column‑oriented)으로 비제로(non‑zero) 원소를 압축하는 방식이다. ==개념== CSC 방식은 비제로 원소들을 열 단위로 순서대로 저장하며, 각 열의 시작 위치를 나타내는 포인터 배열을 함께 유지한다. 구체적으로 세 개의 배열을 사용한다: * ‘data’ — 비제로 원소들의 값 배열 * ‘indices...) 태그: 시각 편집
- 2025년 10월 25일 (토) 12:15 프루닝 (역사 | 편집) [292 바이트] 인공무능 (토론 | 기여) (새 문서: 프루닝은 컴퓨터 과학 측면에선 계산 효율 및 성능 개선등을 위해 상대적으로 불필요한 경로나 수치를 잘라내는 것을 의미한다. 아래 중 하나의 문서를 선택할 수 있다. * 의사결정 나무의 프루닝 * 신경망 가지치기) 태그: 시각 편집
- 2025년 10월 25일 (토) 11:33 깊이별 합성곱 (역사 | 편집) [3,018 바이트] 인공무능 (토론 | 기여) (새 문서: 깊이별 합성곱(Depthwise Convolution)은 합성곱 신경망(CNN)에서 연산 효율성을 높이기 위해 제안된 구조로, 표준 합성곱(Standard Convolution)을 채널 단위로 분리하여 수행하는 방식이다. 이 방식은 MobileNet 등 경량 신경망의 핵심 구성 요소로 사용되며, 모델의 파라미터 수와 연산량을 크게 줄인다. ==개요== 일반적인 합성곱 연산은 입력의 모든 채널에 대해 동일한 필터를 적...) 태그: 시각 편집
- 2025년 10월 25일 (토) 11:17 ShiftNet (역사 | 편집) [3,013 바이트] 인공무능 (토론 | 기여) (새 문서: ShiftNet은 2018년에 제안된 초경량 합성곱 신경망(CNN) 구조로, 합성곱 연산(convolution) 자체를 제거하고 단순한 픽셀 이동(shift) 연산으로 공간 정보를 처리하는 혁신적인 접근 방식을 제시하였다. ==개요== ShiftNet은 전통적인 합성곱 계층의 연산량과 파라미터 수를 극단적으로 줄이기 위해 설계되었다. 기존의 표준 합성곱이나 깊이별 합성곱(depthwise convolution)조차도 상...) 태그: 시각 편집
- 2025년 10월 25일 (토) 11:15 ConvNeXt (역사 | 편집) [2,596 바이트] 인공무능 (토론 | 기여) (새 문서: ConvNeXt(Convolutional Network for the 2020s)는 2022년에 제안된 현대적 합성곱 신경망(CNN) 구조로, 비전 트랜스포머(Vision Transformer)의 설계 철학을 결합하여 기존 CNN의 성능과 효율성을 극대화한 모델이다. ==개요== ConvNeXt는 기존 ResNet 구조를 기반으로 하지만, 트랜스포머의 설계 원칙을 도입하여 단순한 CNN 구조로도 최신 비전 모델과 경쟁 가능한 성능을 달성하였다. 주요 목...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:38 EfficientNet (역사 | 편집) [4,216 바이트] 인공무능 (토론 | 기여) (새 문서: EfficientNet(영어: EfficientNet)은 컨볼루션 신경망(CNN) 아키텍처의 효율적인 확장을 위한 모델 계열로, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks” 논문에서 제안되었다. ==개요== EfficientNet은 네트워크의 깊이(depth), 폭(width), 입력 해상도(resolution)를 균형 있게 확장하는 '''복합 계수(compound coefficient)''' 기반 스케일링 기법을 도입하였다. 기존 모델들은 깊이...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:34 DenseNet (역사 | 편집) [4,121 바이트] 인공무능 (토론 | 기여) (새 문서: DenseNet(영어: Dense Convolutional Network, 덴스넷)은 층(layer) 간의 연결을 극대화하여 특징 재사용(feature reuse)과 기울기 흐름(gradient flow)을 개선한 컨볼루션 신경망(CNN) 구조이다. ==개요== DenseNet은 각 층이 이전 모든 층의 출력(feature map)을 입력으로 받아들이고, 자신의 출력을 이후 모든 층이 다시 입력으로 전달하는 구조를 가진다. 즉, 하나의 Dense Block 내부에서 l번째 층...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:32 SqueezeNet (역사 | 편집) [3,509 바이트] 인공무능 (토론 | 기여) (새 문서: SqueezeNet(영어: SqueezeNet)은 모바일 및 임베디드 환경에서 매우 적은 파라미터 수로도 높은 정확도를 달성하도록 설계된 경량 컨볼루션 신경망(CNN) 구조이다. ==개요== SqueezeNet은 2016년 발표된 모델로, AlexNet과 비슷한 수준의 이미지 분류 성능을 유지하면서도 파라미터 수를 약 50배 줄이는 것을 목표로 설계되었다. 모델 크기가 매우 작아(최소 0.5MB 수준) 모바일 및 임...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:29 ShuffleNet (역사 | 편집) [4,678 바이트] 인공무능 (토론 | 기여) (새 문서: ShuffleNet(영어: ShuffleNet)은 모바일 및 임베디드 디바이스 환경에서 매우 제한된 연산 자원 하에서도 고성능 이미지 인식이 가능하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처이다. ==개요== ShuffleNet은 연산량이 극히 적은 환경(수십 MFLOPs 수준)에서도 동작하도록 설계되었다. 핵심은 두 가지 연산 기법인 포인트와이즈 그룹 컨볼루션(pointwise group convolution)과 채널...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:23 MobileNet (역사 | 편집) [4,623 바이트] 인공무능 (토론 | 기여) (새 문서: MobileNet(영어: MobileNet)은 모바일 및 임베디드 디바이스 환경에서 낮은 지연(latency)과 적은 연산량으로 이미지 인식, 객체 검출 등의 컴퓨터 비전 과제를 수행하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처 계열이다. ==개요== MobileNet은 일반적인 컨볼루션 연산을 깊이별 분리된 컨볼루션(depthwise separable convolution) 방식으로 대체하여 연산량과 파라미터 수를 크게 줄...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:19 Wide ResNet (역사 | 편집) [5,035 바이트] 인공무능 (토론 | 기여) (새 문서: Wide ResNet(영어: Wide Residual Network, 축약 WRN)은 ResNet 구조의 “깊이(Depth)”를 늘리는 대신 “폭(Width)”을 확장하여 성능을 향상시킨 변형 아키텍처로, 세르게이 자고루이코(Sergey Zagoruyko)와 니코스 코모다키스(Nikos Komodakis)가 2016년에 제안하였다. ==개요== Wide ResNet은 기존 ResNet이 층을 깊게 쌓을수록 학습 효율이 떨어지고, 특징 재사용(feature reuse)이 감소하는 문제를 해...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:11 AlexNet (역사 | 편집) [4,668 바이트] 인공무능 (토론 | 기여) (새 문서: AlexNet(영어: AlexNet)은 2012년 ImageNet 대회(ILSVRC 2012)에서 우승하며 딥러닝 기반 이미지 인식의 시대를 연 컨볼루션 신경망(CNN) 모델이다. 토론토 대학교의 알렉스 크리제브스키(Alex Krizhevsky), 일야 서츠케버(Ilya Sutskever), 제프리 힌턴(Geoffrey Hinton)에 의해 개발되었다. ==개요== AlexNet은 대규모 이미지 데이터셋(ImageNet)을 학습하여 객체 분류 문제를 해결한 모델로, 당시 기...) 태그: 시각 편집
- 2025년 10월 25일 (토) 05:09 LeNet (역사 | 편집) [3,032 바이트] 인공무능 (토론 | 기여) (새 문서: LeNet(영어: LeNet)은 손글씨 숫자 인식 등 문서 이미지 인식을 위해 설계된 초기 컨볼루션 신경망(CNN) 계열 모델로, 특히 1998년에 제안된 LeNet-5가 가장 널리 알려져 있다. ==개요== LeNet은 컨볼루션과 서브샘플링(당시 평균 풀링)을 반복해 공간 정보를 보존하며 특징을 추출하고, 마지막에 완전연결층으로 분류를 수행하는 구조를 갖는다. 원래 목적은 우편번호나 수표의...) 태그: 시각 편집
- 2025년 10월 24일 (금) 11:47 전문가 조합 (인공지능) (역사 | 편집) [4,688 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|혼합 전문가 모델 예시 Mixture of Experts(줄여서 MoE)는 여러 개의 전문가 모델(expert model)과 게이트(gating) 또는 라우터(router) 메커니즘을 결합하여 입력에 따라 적절한 전문가를 선택하거나 가중합하여 출력을 내는 기계학습 기법이다. 주로 딥러닝에서 모델의 효율적 확장과 성능 향상을 위해 사용된다. ==개요== Mixture of Experts는...)
- 2025년 10월 24일 (금) 07:08 엔비디아 GPU 모델 (역사 | 편집) [5,206 바이트] 인공무능 (토론 | 기여) (새 문서: '''엔비디아 GPU 모델'''은 NVIDIA가 출시한 주요 GPU 제품들을 모델 중심으로 정리한 문서이다. 본 문서는 각 모델의 아키텍처, 특징, 성능, 출시 당시의 소비자 가격 등을 포함한다. ==개요== 엔비디아의 GPU 라인업은 크게 소비자용(GeForce), 전문가용(Quadro/RTX PRO), 데이터센터용(Tesla, A100 등)으로 나뉜다. 모델명에 따라 성능과 용도가 명확히 구분되며, 각 세대의 아키텍처...) 태그: 시각 편집