최근 바뀜
IT 위키
이 페이지에서 위키의 최근 바뀜을 추적합니다.
약어 목록:
- 새글
- 새 문서 (새 문서 목록도 보세요)
- 잔글
- 사소한 편집
- 봇
- 봇이 수행한 편집
- (±123)
- 바이트 수로 표현한 문서 크기의 차이
2025년 10월 25일 (토)
| 새글 13:05 | Оксана Салдыркина 차이역사 +1,661 169.150.196.200 토론 (새 문서: == Оксана Салдыркина == Недавно мне посчастливилось узнать об Оксане Салдыркиной – удивительном человеке, посвятившем себя изучению и сохранению древних знаний о травах и природных лекарствах. Её подход к целительству основан на глубоком понимании традиционной...) | ||||
| 13:04 | 사용자 만들기 기록 Umuky 토론 기여 계정이 생성되었습니다 | ||||
| 새글 12:15 | 프루닝 차이역사 +292 인공무능 토론 기여 (새 문서: 프루닝은 컴퓨터 과학 측면에선 계산 효율 및 성능 개선등을 위해 상대적으로 불필요한 경로나 수치를 잘라내는 것을 의미한다. 아래 중 하나의 문서를 선택할 수 있다. * 의사결정 나무의 프루닝 * 신경망 가지치기) | ||||
| 새글 11:33 | 깊이별 합성곱 차이역사 +3,018 인공무능 토론 기여 (새 문서: 깊이별 합성곱(Depthwise Convolution)은 합성곱 신경망(CNN)에서 연산 효율성을 높이기 위해 제안된 구조로, 표준 합성곱(Standard Convolution)을 채널 단위로 분리하여 수행하는 방식이다. 이 방식은 MobileNet 등 경량 신경망의 핵심 구성 요소로 사용되며, 모델의 파라미터 수와 연산량을 크게 줄인다. ==개요== 일반적인 합성곱 연산은 입력의 모든 채널에 대해 동일한 필터를 적...) | ||||
| 새글 11:17 | ShiftNet 차이역사 +3,013 인공무능 토론 기여 (새 문서: ShiftNet은 2018년에 제안된 초경량 합성곱 신경망(CNN) 구조로, 합성곱 연산(convolution) 자체를 제거하고 단순한 픽셀 이동(shift) 연산으로 공간 정보를 처리하는 혁신적인 접근 방식을 제시하였다. ==개요== ShiftNet은 전통적인 합성곱 계층의 연산량과 파라미터 수를 극단적으로 줄이기 위해 설계되었다. 기존의 표준 합성곱이나 깊이별 합성곱(depthwise convolution)조차도 상...) | ||||
| 새글 11:15 | ConvNeXt 차이역사 +2,596 인공무능 토론 기여 (새 문서: ConvNeXt(Convolutional Network for the 2020s)는 2022년에 제안된 현대적 합성곱 신경망(CNN) 구조로, 비전 트랜스포머(Vision Transformer)의 설계 철학을 결합하여 기존 CNN의 성능과 효율성을 극대화한 모델이다. ==개요== ConvNeXt는 기존 ResNet 구조를 기반으로 하지만, 트랜스포머의 설계 원칙을 도입하여 단순한 CNN 구조로도 최신 비전 모델과 경쟁 가능한 성능을 달성하였다. 주요 목...) | ||||
| 11:11 | 합성곱 신경망 차이역사 +4,376 인공무능 토론 기여 | ||||
|
|
10:58 | (차단 기록) [Itwiki (6×)] | |||
|
|
10:58 Itwiki 토론 기여님이 162.158.158.86 토론님의 차단을 해제했습니다 | ||||
|
|
10:58 Itwiki 토론 기여님이 141.101.76.16 토론님의 차단을 해제했습니다 | ||||
|
|
05:05 Itwiki 토론 기여님이 141.101.76.16 토론님을 무기한 차단했습니다 (계정 만들기 금지됨) | ||||
|
|
01:20 Itwiki 토론 기여님이 84.233.195.57 토론님을 무기한 차단했습니다 (계정 만들기 금지됨) | ||||
|
|
00:27 Itwiki 토론 기여님이 162.158.158.86 토론님을 무기한 차단했습니다 (계정 만들기 금지됨) | ||||
|
|
00:27 Itwiki 토론 기여님이 104.244.210.58 토론님을 무기한 차단했습니다 (계정 만들기 금지됨) | ||||
|
|
10:57 | (삭제 기록) [Itwiki (7×)] | |||
|
|
10:57 Itwiki 토론 기여님이 Раскраски объемные поделки 문서를 삭제했습니다 (108.162.237.82님이 추가한 문서를 대량 삭제함) | ||||
|
|
10:56 Itwiki 토론 기여님이 Черные полосочки на ногтях 문서를 삭제했습니다 (67.21.32.148님이 추가한 문서를 대량 삭제함) | ||||
|
|
05:05 Itwiki 토론 기여님이 Фото в купальнике Софи Лорен 문서를 삭제했습니다 (141.101.76.16님이 추가한 문서를 대량 삭제함) | ||||
|
|
01:21 Itwiki 토론 기여님이 파일:배치 정규화 전후.png 문서를 삭제했습니다 (중복된 파일) | ||||
|
|
01:20 Itwiki 토론 기여님이 Контуринг волос для круглого лица 문서를 삭제했습니다 (84.233.195.57님이 추가한 문서를 대량 삭제함) | ||||
|
|
00:28 Itwiki 토론 기여님이 Фото в купальнике Stella Cox 문서를 삭제했습니다 (162.158.158.86님이 추가한 문서를 대량 삭제함) | ||||
|
|
00:27 Itwiki 토론 기여님이 Открытка с днем рождения медику 문서를 삭제했습니다 (104.244.210.58님이 추가한 문서를 대량 삭제함) | ||||
| 새글 05:38 | EfficientNet 차이역사 +4,216 인공무능 토론 기여 (새 문서: EfficientNet(영어: EfficientNet)은 컨볼루션 신경망(CNN) 아키텍처의 효율적인 확장을 위한 모델 계열로, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks” 논문에서 제안되었다. ==개요== EfficientNet은 네트워크의 깊이(depth), 폭(width), 입력 해상도(resolution)를 균형 있게 확장하는 '''복합 계수(compound coefficient)''' 기반 스케일링 기법을 도입하였다. 기존 모델들은 깊이...) | ||||
| 새글 05:34 | DenseNet 차이역사 +4,121 인공무능 토론 기여 (새 문서: DenseNet(영어: Dense Convolutional Network, 덴스넷)은 층(layer) 간의 연결을 극대화하여 특징 재사용(feature reuse)과 기울기 흐름(gradient flow)을 개선한 컨볼루션 신경망(CNN) 구조이다. ==개요== DenseNet은 각 층이 이전 모든 층의 출력(feature map)을 입력으로 받아들이고, 자신의 출력을 이후 모든 층이 다시 입력으로 전달하는 구조를 가진다. 즉, 하나의 Dense Block 내부에서 l번째 층...) | ||||
| 새글 05:32 | SqueezeNet 차이역사 +3,509 인공무능 토론 기여 (새 문서: SqueezeNet(영어: SqueezeNet)은 모바일 및 임베디드 환경에서 매우 적은 파라미터 수로도 높은 정확도를 달성하도록 설계된 경량 컨볼루션 신경망(CNN) 구조이다. ==개요== SqueezeNet은 2016년 발표된 모델로, AlexNet과 비슷한 수준의 이미지 분류 성능을 유지하면서도 파라미터 수를 약 50배 줄이는 것을 목표로 설계되었다. 모델 크기가 매우 작아(최소 0.5MB 수준) 모바일 및 임...) | ||||
| 새글 05:29 | ShuffleNet 차이역사 +4,678 인공무능 토론 기여 (새 문서: ShuffleNet(영어: ShuffleNet)은 모바일 및 임베디드 디바이스 환경에서 매우 제한된 연산 자원 하에서도 고성능 이미지 인식이 가능하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처이다. ==개요== ShuffleNet은 연산량이 극히 적은 환경(수십 MFLOPs 수준)에서도 동작하도록 설계되었다. 핵심은 두 가지 연산 기법인 포인트와이즈 그룹 컨볼루션(pointwise group convolution)과 채널...) | ||||
| 새글 05:23 | MobileNet 차이역사 +4,623 인공무능 토론 기여 (새 문서: MobileNet(영어: MobileNet)은 모바일 및 임베디드 디바이스 환경에서 낮은 지연(latency)과 적은 연산량으로 이미지 인식, 객체 검출 등의 컴퓨터 비전 과제를 수행하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처 계열이다. ==개요== MobileNet은 일반적인 컨볼루션 연산을 깊이별 분리된 컨볼루션(depthwise separable convolution) 방식으로 대체하여 연산량과 파라미터 수를 크게 줄...) | ||||
| 새글 05:19 | Wide ResNet 차이역사 +5,035 인공무능 토론 기여 (새 문서: Wide ResNet(영어: Wide Residual Network, 축약 WRN)은 ResNet 구조의 “깊이(Depth)”를 늘리는 대신 “폭(Width)”을 확장하여 성능을 향상시킨 변형 아키텍처로, 세르게이 자고루이코(Sergey Zagoruyko)와 니코스 코모다키스(Nikos Komodakis)가 2016년에 제안하였다. ==개요== Wide ResNet은 기존 ResNet이 층을 깊게 쌓을수록 학습 효율이 떨어지고, 특징 재사용(feature reuse)이 감소하는 문제를 해...) | ||||
| 05:18 | ResNet 차이역사 +17 인공무능 토론 기여 | ||||
| 새글 05:11 | AlexNet 차이역사 +4,668 인공무능 토론 기여 (새 문서: AlexNet(영어: AlexNet)은 2012년 ImageNet 대회(ILSVRC 2012)에서 우승하며 딥러닝 기반 이미지 인식의 시대를 연 컨볼루션 신경망(CNN) 모델이다. 토론토 대학교의 알렉스 크리제브스키(Alex Krizhevsky), 일야 서츠케버(Ilya Sutskever), 제프리 힌턴(Geoffrey Hinton)에 의해 개발되었다. ==개요== AlexNet은 대규모 이미지 데이터셋(ImageNet)을 학습하여 객체 분류 문제를 해결한 모델로, 당시 기...) | ||||
| 새글 05:09 | LeNet 차이역사 +3,032 인공무능 토론 기여 (새 문서: LeNet(영어: LeNet)은 손글씨 숫자 인식 등 문서 이미지 인식을 위해 설계된 초기 컨볼루션 신경망(CNN) 계열 모델로, 특히 1998년에 제안된 LeNet-5가 가장 널리 알려져 있다. ==개요== LeNet은 컨볼루션과 서브샘플링(당시 평균 풀링)을 반복해 공간 정보를 보존하며 특징을 추출하고, 마지막에 완전연결층으로 분류를 수행하는 구조를 갖는다. 원래 목적은 우편번호나 수표의...) | ||||
| 새글 05:08 | 르넷 차이역사 +23 인공무능 토론 기여 (LeNet 문서로 넘겨주기) | ||||
| 01:36 | 배치 정규화 차이역사 +607 인공무능 토론 기여 | ||||
|
|
01:36 | (올리기 기록) [Itwiki; 인공무능] | |||
|
|
01:36 인공무능 토론 기여님이 파일:배치 정규화 전후 분포.png 파일을 올렸습니다 | ||||
|
|
01:20 Itwiki 토론 기여님이 파일:배치 정규화 전후.png 파일을 올렸습니다 | ||||
2025년 10월 24일 (금)
| 새글 11:47 | 전문가 조합 (인공지능) 차이역사 +4,688 인공무능 토론 기여 (새 문서: 섬네일|혼합 전문가 모델 예시 Mixture of Experts(줄여서 MoE)는 여러 개의 전문가 모델(expert model)과 게이트(gating) 또는 라우터(router) 메커니즘을 결합하여 입력에 따라 적절한 전문가를 선택하거나 가중합하여 출력을 내는 기계학습 기법이다. 주로 딥러닝에서 모델의 효율적 확장과 성능 향상을 위해 사용된다. ==개요== Mixture of Experts는...) | ||||
| 11:46 | Mixture of Experts (인공지능) 차이역사 −4,639 인공무능 토론 기여 (전문가 조합 (인공지능) 문서로 넘겨주기) | ||||
|
|
09:58 | (사용자 만들기 기록) [Yperiqija; Arufihic] | |||
|
|
09:58 Arufihic 토론 기여 계정이 생성되었습니다 | ||||
|
|
03:18 Yperiqija 토론 기여 계정이 생성되었습니다 | ||||
| 새글 07:08 | 엔비디아 GPU 모델 차이역사 +5,206 인공무능 토론 기여 (새 문서: '''엔비디아 GPU 모델'''은 NVIDIA가 출시한 주요 GPU 제품들을 모델 중심으로 정리한 문서이다. 본 문서는 각 모델의 아키텍처, 특징, 성능, 출시 당시의 소비자 가격 등을 포함한다. ==개요== 엔비디아의 GPU 라인업은 크게 소비자용(GeForce), 전문가용(Quadro/RTX PRO), 데이터센터용(Tesla, A100 등)으로 나뉜다. 모델명에 따라 성능과 용도가 명확히 구분되며, 각 세대의 아키텍처...) | ||||
| 새글 06:59 | 엔비디아 GPU 아키텍처 차이역사 +6,454 인공무능 토론 기여 (새 문서: '''엔비디아 GPU 아키텍처'''는 엔비디아(NVIDIA)가 개발해 온 주요 GPU 마이크로아키텍처의 발전 과정을 다룬 문서이다. ==개요== 엔비디아는 그래픽 처리, 병렬 연산, 인공지능 가속 등 다양한 목적을 위해 GPU(Graphics Processing Unit) 아키텍처를 지속적으로 발전시켜 왔다. 각 세대의 아키텍처는 그래픽 파이프라인, 메모리 기술, 전력 효율, 연산 단위(CUDA Core, Tensor Core, RT Cor...) | ||||
| 새글 06:57 | Google Colab 런타임 차이역사 +5,251 인공무능 토론 기여 (새 문서: '''Colab 런타임'''은 구글이 제공하는 클라우드 기반 노트북 환경인 '''Google Colaboratory(줄여서 Colab)'''에서 코드가 실제로 실행되는 가상 머신(VM) 환경이다. <ref>https://cloud.google.com/colab/docs/runtimes?hl=ko</ref> ==기본 개념== Colab 노트북(.ipynb 형식)은 브라우저에서 실행되지만, 실제로는 원격의 가상 머신에서 파이썬 코드가 동작한다. 이 실행 환경이 바로 ‘런타임’이다....) | ||||
| 새글 06:53 | 엔비디아 GPU 아키텍처 및 모델 차이역사 +5,540 인공무능 토론 기여 (새 문서: 이 문서는 엔비디아가 지금까지 출시해온 주요 GPU 아키텍처와 그에 해당하는 대표 모델들을 정리한 문서이다. 아래 두 문서로 세분화된다. 본 문서는 아래 두 문서에 대한 요약본이나 최신화 및 구체성 측면에선 부족할 수 있다. * 엔비디아 GPU 아키텍처 * 엔비디아 GPU 모델 ==개요== 엔비디아(NVIDIA)는 그래픽 카드, 데이터센터용 가속기, 인공지능용 가속기 등...) | ||||
| 새글 06:49 | 엔비디아 L4 차이역사 +4,436 인공무능 토론 기여 (새 문서: '''NVIDIA L4'''(엔비디아 L4 Tensor Core GPU)은 엔비디아가 데이터센터, 클라우드 및 엣지(edge) 환경을 위해 설계한 에너지 효율 중심의 범용 가속기이다. ==개요== NVIDIA L4는 2023년경 출시된 Ada Lovelace 아키텍처 기반 GPU로, 영상 처리, AI 추론(inference), 가상 워크스테이션 및 그래픽 처리까지 폭넓은 워크로드에 대응할 수 있도록 설계되었다. 저전력(약 72 W) 설계 및 단일 슬롯/...) | ||||
| 새글 06:47 | 엔비디아 A100 차이역사 +4,079 인공무능 토론 기여 (새 문서: '''NVIDIA A100'''(엔비디아 A100 Tensor Core GPU)은 엔비디아가 데이터센터 및 고성능 컴퓨팅(HPC) 및 인공지능(AI) 워크로드를 위해 설계한 최상위급 GPU 가속기이다. ==개요== NVIDIA A100은 2020년에 발표된 Ampere 아키텍처 기반의 데이터센터용 가속기로, 대형 모델 학습(training), 딥러닝 추론(inference), HPC 애플리케이션을 염두에 두고 설계되었다. 특히 대용량 메모리(HBM2/HBM2e), 고대...) | ||||
| 새글 06:46 | 엔비디아 T4 차이역사 +4,204 인공무능 토론 기여 (새 문서: '''NVIDIA Tesla T4'''(엔비디아 T4, 코드명: Tesla T4)는 엔비디아가 데이터센터 및 클라우드 환경을 위해 설계한 저전력 고효율 GPU(그래픽 처리 장치)로, 딥러닝 추론(inference), 머신러닝, 가상화, 영상 처리 등에 사용된다. ==개요== NVIDIA T4는 2018년에 발표된 엔비디아의 Turing 아키텍처 기반 GPU로, 높은 연산 성능과 에너지 효율을 동시에 달성하기 위해 설계되었다. 특히 클라...) | ||||
2025년 10월 23일 (목)
|
|
19:28 | (사용자 만들기 기록) [Upive; Itybawem; Ehody] | |||
|
|
19:28 Itybawem 토론 기여 계정이 생성되었습니다 | ||||
|
|
16:26 Ehody 토론 기여 계정이 생성되었습니다 | ||||
|
|
05:59 Upive 토론 기여 계정이 생성되었습니다 | ||||
| 새글 07:56 | DuQuant 차이역사 +5,336 인공무능 토론 기여 (새 문서: '''DuQuant (Distributing Outliers via Dual Transformation)'''은 대형 언어 모델(LLM: Large Language Model)의 활성화 및 가중치 양자화 과정에서 특히 문제되는 아웃라이어(outlier) 값을 효과적으로 분산시켜 저비트 양자화 시 성능 손실을 최소화하는 회전(rotation) 및 순열(permutation) 기반 포스트 트레이닝 양자화(Post-Training Quantization, PTQ) 기법이다. ==개요== DuQuant는 활성화 내에 존재하는...) | ||||
| 새글 07:53 | QuaRot 차이역사 +6,229 인공무능 토론 기여 (새 문서: '''QuaRot (Quantization via Rotations)'''은 대형 언어 모델(LLM: Large Language Model)의 모든 가중치(weights), 활성화(activations), KV 캐시(KV cache)를 4비트 수준으로 양자화하면서도 성능 저하를 최소화하도록 설계된 회전 기반 포스트 트레이닝 양자화(Post-Training Quantization, PTQ) 기법이다. ==배경 및 필요성== *전통적인 양자화 기법들은 가중치는 낮은 비트로 줄일 수 있어도, 모델의 활성...) | ||||
| 07:51 | 대형 언어 모델 효율화 차이역사 +12 인공무능 토론 기여 | ||||