가리키는 글의 최근 바뀜

IT 위키

해당 문서에 연결된 문서의 변경사항을 확인하려면 문서 이름을 입력하십시오. (분류에 들어있는 문서를 보려면 분류:분류명으로 입력하십시오). 내 주시문서 목록에 있는 문서의 변경사항은 굵게 나타납니다.

최근 바뀜 설정 최근 1 | 3 | 7 | 14 | 30일간의 50 | 100 | 250 | 500개 바뀐 문서 보기
등록된 사용자 숨기기 | 익명 사용자를 숨기기 | 내 편집 숨기기 | 보이기 | 사소한 편집 보이기
2025년 11월 20일 (목) 07:55부터 시작하는 새로 바뀐 문서 보기
   
문서 이름:
약어 목록:
새글
새 문서 (새 문서 목록도 보세요)
잔글
사소한 편집
봇이 수행한 편집
(±123)
바이트 수로 표현한 문서 크기의 차이

2025년 11월 20일 (목)

새글    06:04  자동 미분 차이역사 +4,621 인공무능 토론 기여 (새 문서: '''자동 미분'''(Automatic Differentiation, AD)은 함수의 기울기(도함수)를 연산 그래프를 기반으로 자동으로 계산하는 기술이다. 심볼릭 미분(symbolic differentiation)이나 수치 미분(numerical differentiation)과 달리, 자동 미분은 기계 오차를 최소화하면서 정확한 기울기를 효율적으로 계산할 수 있어 딥러닝과 최적화 알고리즘의 핵심 기술로 사용된다. ==개요== 자동 미분은 함수...) 태그: 시각 편집
새글    06:02  텐서플로 차이역사 +4,481 인공무능 토론 기여 (새 문서: '''TensorFlow'''는 Google Brain 팀에서 개발한 오픈소스 머신러닝 및 딥러닝 프레임워크로, 수치 계산, 모델 학습, 추론, 배포까지 아우르는 종합적인 ML 플랫폼이다. 대규모 분산 학습, 모바일 및 엣지 배포, TPU 통합 등을 강점으로 하며, TensorFlow Extended(TFX), TensorFlow Lite, TensorFlow.js 등 폭넓은 생태계를 제공한다. ==개요== TensorFlow는 2015년 처음 공개된 이후 산업계와 연구계...) 태그: 시각 편집
새글    06:00  JAX 차이역사 +4,777 인공무능 토론 기여 (새 문서: '''JAX'''는 Google Research에서 개발한 고성능 수치 연산 및 머신러닝 라이브러리로, NumPy 스타일의 API를 기반으로 자동 미분(autograd), JIT 컴파일(just-in-time), 벡터화(Vectorization), 병렬 처리 등을 제공한다. XLA(Accelerated Linear Algebra) 컴파일러를 통해 CPU, GPU, TPU에서 모두 효율적으로 실행되며, 대규모 딥러닝 연구와 과학 계산에서 널리 사용된다. ==개요== JAX는 기존 NumPy 스타...) 태그: 시각 편집
새글    05:57  FPGA 차이역사 +4,801 인공무능 토론 기여 (새 문서: '''FPGA'''(Field-Programmable Gate Array)는 사용자가 제작된 이후에도 하드웨어 회로를 직접 구성할 수 있도록 설계된 프로그래머블 집적회로이다. 범용 CPU나 GPU와 달리, FPGA는 하드웨어 레벨에서 병렬 처리 구조를 원하는 형태로 설계할 수 있어 높은 유연성과 맞춤형 가속 기능을 제공한다. ==개요== FPGA는 내부에 구성 가능한 논리 블록(logic block)과 이들을 서로 연결하는 라...) 태그: 시각 편집
새글    05:54  ASIC 차이역사 +4,229 인공무능 토론 기여 (새 문서: '''ASIC'''(Application-Specific Integrated Circuit)은 특정 용도나 알고리즘을 빠르고 효율적으로 수행하기 위해 맞춤 설계된 집적회로이다. 범용 CPU나 GPU와 달리, 특정 작업을 수행하는 회로가 하드웨어 수준에서 고정되어 있어 매우 높은 성능과 전력 효율을 제공한다. ==개요== ASIC은 범용 프로세서와 달리 소프트웨어로 동작을 변경하는 형태가 아니라, '''하드웨어 자체가 특...) 태그: 시각 편집
새글    05:51  GPU 차이역사 +5,034 인공무능 토론 기여 (새 문서: '''GPU'''(Graphics Processing Unit, 그래픽 처리 장치)는 대규모 병렬 연산을 효율적으로 처리하도록 설계된 프로세서로, 본래는 그래픽 렌더링을 위해 개발되었지만 현재는 딥러닝, 과학 계산, 고성능 컴퓨팅(HPC), 데이터 분석 등 다양한 분야에서 핵심 가속기로 사용되고 있다. ==개요== GPU는 수천 개의 연산 유닛을 병렬로 배치해, 동일하거나 유사한 연산을 반복적으로 수...) 태그: 시각 편집
새글    05:33  구글 TPU 차이역사 +4,903 인공무능 토론 기여 (새 문서: '''TPU'''(Tensor Processing Unit)는 Google이 딥러닝 워크로드를 가속하기 위해 설계한 맞춤형 ASIC(Application-Specific Integrated Circuit) 계열의 하드웨어 가속기이다. 내부 Google 서비스(Gmail, Search, Translate 등)와 Google Cloud Platform(GCP)의 AI/ML 워크로드를 위해 개발되었으며, 행렬 연산 및 대규모 딥러닝 연산을 최적화한 아키텍처를 가진다. ==개요== TPU는 딥러닝에서 핵심이 되는...) 태그: 시각 편집
새글    05:30  AI 가속기 차이역사 +5,501 인공무능 토론 기여 (새 문서: '''AI 가속기'''(AI Accelerator)는 인공지능(Artificial Intelligence), 특히 딥러닝(Deep Learning)의 연산을 빠르고 효율적으로 수행하기 위해 설계된 특수 목적 하드웨어이다. 딥러닝 모델의 핵심 연산(행렬 곱, convolution, attention 등)을 가속하기 위해 범용 CPU나 GPU보다 더 높은 성능 또는 전력 효율을 제공한다. AI 가속기는 데이터센터, 클라우드, 엣지 장치(스마트폰·IoT), 로봇, 자...) 태그: 시각 편집
새글    05:13  CuBLAS 차이역사 +4,517 인공무능 토론 기여 (새 문서: '''cuBLAS'''는 NVIDIA가 제공하는 고성능 GPU 가속 선형대수(Liner Algebra) 라이브러리로, BLAS(Basic Linear Algebra Subprograms) 표준을 GPU에서 빠르게 실행할 수 있도록 구현한 라이브러리이다. 행렬-벡터 곱, 행렬-행렬 곱(GEMM), 벡터 연산 등 딥러닝과 과학 계산의 핵심 연산을 효율적으로 처리하기 위해 최고의 성능을 제공한다. ==개요== cuBLAS는 CPU에서 실행되는 BLAS를 GPU로 이식한...) 태그: 시각 편집
새글    05:08  CuDNN 차이역사 +4,411 인공무능 토론 기여 (새 문서: '''cuDNN'''(CUDA Deep Neural Network Library)은 NVIDIA가 제공하는 고성능 GPU 가속 딥러닝 라이브러리로, 합성곱 신경망(Convolutional Neural Networks), 순환 신경망(RNN), 정규화, 활성화 함수 등 딥러닝에서 자주 사용되는 연산을 최적화된 GPU 커널로 제공한다. TensorFlow, PyTorch, JAX 등 대부분의 주요 딥러닝 프레임워크는 cuDNN을 자동으로 사용하여 GPU에서의 학습 및 추론 성능을 크게 향...) 태그: 시각 편집
새글    05:04  파이토치 차이역사 +4,860 인공무능 토론 기여 (새 문서: '''PyTorch'''는 Meta(구 Facebook) AI Research(FAIR)에서 개발한 딥러닝 프레임워크로, 동적 계산 그래프(dynamic computation graph)와 파이썬 친화적 인터페이스를 기반으로 한 고성능 머신 러닝/딥러닝 라이브러리이다. 자연어 처리, 컴퓨터 비전, 대규모 모델 연구 등 다양한 분야에서 사실상 표준적으로 사용되는 프레임워크 중 하나이다. ==개요== PyTorch는 파이썬 문법과 자연스럽...) 태그: 시각 편집
새글    04:51  Triton (인공지능) 차이역사 +4,290 인공무능 토론 기여 (새 문서: '''Triton'''은 Python 기반으로 GPU 커널을 작성할 수 있게 해주는 오픈소스 언어 및 컴파일러로, 고성능 CUDA 수준의 연산을 훨씬 간단한 코드로 구현할 수 있도록 설계되었다. 원래 Harvard 및 OpenAI에서 개발되었으며, 현재는 PyTorch의 컴파일 스택에 통합되어 딥러닝 연산 최적화를 위해 널리 사용되고 있다. ==개요== Triton은 연구자와 개발자가 복잡하고 오류가 발생하기 쉬...) 태그: 시각 편집
새글    01:57  딥 러닝 프레임워크 차이역사 +4,136 인공무능 토론 기여 (새 문서: '''딥 러닝 프레임워크(Deep Learning Frameworks)'''는 인공 신경망 모델을 정의하고 학습하며 배포하기 위한 소프트웨어 도구와 라이브러리의 집합이다. 이러한 프레임워크는 자동 미분(autograd), 텐서 연산, GPU 가속, 모델 구조화, 데이터 파이프라인 구성 등 복잡한 과정을 추상화하여 연구자와 개발자가 효율적으로 딥러닝 모델을 개발할 수 있도록 돕는다. 딥러닝 프레임...) 태그: 시각 편집

2025년 11월 13일 (목)

새글    08:51  MoDNN 차이역사 +3,739 인공무능 토론 기여 (새 문서: MoDNN(Mobile Distributed Deep Neural Network, 2017년)은 여러 모바일 디바이스의 연산 자원을 결합하여 하나의 딥러닝 모델을 분산 추론하도록 설계된 기법이다. 단일 스마트폰이나 IoT 기기에서 처리하기 어려운 신경망 연산을 여러 노드가 협력하여 나누어 수행함으로써 추론 속도를 향상시키는 것을 목표로 한다. ==개요== MoDNN은 모바일 디바이스들이 서로 연결된 환경에서,...) 태그: 시각 편집
새글    08:15  ADCNN 차이역사 +3,581 인공무능 토론 기여 (새 문서: ADCNN(Adaptive Distributed Convolutional Neural Network, 2020년)은 여러 엣지(edge) 디바이스에 신경망의 연산을 적응적으로 분산시켜 추론 지연(latency)과 통신량을 줄이기 위한 딥러닝 분산추론(distributed inference) 기법이다. ==개요== ADCNN은 딥러닝 추론을 위해 하나의 중앙 서버나 클라우드에 모든 연산을 맡기는 대신, 여러 엣지 디바이스 클러스터에 연산을 적절히 분할해서 배치함...) 태그: 시각 편집
새글    08:09  DDNN (신경망, 2017년) 차이역사 +3,667 인공무능 토론 기여 (새 문서: DDNN(Distributed Deep Neural Network, 2017년)은 단일 기기에서 실행되는 신경망을 클라우드, 엣지, 디바이스 계층에 분산하여 협력적으로 추론을 수행하는 구조로, 입력 데이터의 특성에 따라 로컬 또는 클라우드에서 단계적으로 계산을 수행함으로써 지연(latency)과 통신 비용을 줄이는 것을 목표로 한다. ==개요== DDNN은 분산 환경에서 신경망 일부를 로컬 디바이스에 배치하...) 태그: 시각 편집