새 문서 목록

IT 위키
새 문서 목록
등록된 사용자 숨기기 | 봇 숨기기 | 넘겨주기를 보이기
(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기
  • 2025년 10월 7일 (화) 07:14조건부 에너지 기반 모델 (역사 | 편집) ‎[6,940 바이트]인공무능 (토론 | 기여) (새 문서: 조건부 에너지 기반 모델(conditional energy-based model)은 에너지 기반 모델(Energy Based Model, EBM)의 확장 형태로, 입력이나 조건 변수(condition)에 의존하여 출력 분포을 정의하는 모델이다. 즉 일반적인 EBM이 변수 \(x\) 만을 대상으로 에너지 함수를 정의하는 반면, 조건부 EBM은 \((x, y)\) 또는 \((y \mid x)\) 형태에서 에너지를 정의하고, 주어진 조건 하에서의 확률 분포을 암묵적...) 태그: 시각 편집
  • 2025년 10월 6일 (월) 12:09Adam 옵티마이저 (역사 | 편집) ‎[5,399 바이트]인공무능 (토론 | 기여) (새 문서: Adam 옵티마이저는 "Adaptive Moment Estimation"의 약자로, 확률적 경사 하강법(SGD)에 기반하면서 각 파라미터마다 적응적으로 학습률을 조절하는 딥러닝 최적화 알고리즘이다. ==개요== Adam은 2014년 Diederik P. Kingma와 Jimmy Ba가 제안한 알고리즘으로, 모멘텀(Momentum) 기법과 RMSProp 알고리즘의 장점을 결합한 형태다. 기울기의 1차 모멘트(평균)와 2차 모멘트(분산)를 추정하여 파...) 태그: 시각 편집
  • 2025년 10월 6일 (월) 12:05AdamW 옵티마이저 (역사 | 편집) ‎[3,711 바이트]인공무능 (토론 | 기여) (새 문서: AdamW 옵티마이저는 Adam 최적화 알고리즘의 변형으로, 가중치 감쇠(weight decay)를 그래디언트 업데이트로부터 분리(decouple)하여 일반화 성능을 향상시키는 방법이다. ==개요== 딥러닝에서 자주 사용되는 Adam(Adaptive Moment Estimation) 옵티마이저는 1차 및 2차 모멘트를 활용하여 각 파라미터별로 적응적인 학습률을 적용한다. 일반적으로 정규화를 위해 L2 정규화 항을 손실 함...) 태그: 시각 편집
  • 2025년 10월 4일 (토) 06:26단위 행렬 (역사 | 편집) ‎[2,057 바이트]파이러너 (토론 | 기여) (새 문서: 단위 행렬(영어: identity matrix, 일명 단위원행렬)은 정사각 행렬 중 대각 성분이 모두 1이고 나머지 성분이 모두 0인 행렬이다. ==정의== 단위 행렬은 n×n 크기의 행렬로, 대각선 성분은 모두 1이고 그 외 성분은 모두 0으로 정의된다. ==기호와 표기== *보통 I 또는 Iₙ으로 표기하며, 문맥상 크기가 명확하면 단순히 I로 쓰기도 한다. <ref>“Identity matrix”, Encyclopedia of Mathemati...) 태그: 시각 편집
  • 2025년 10월 4일 (토) 06:20PyTorch eye (역사 | 편집) ‎[3,622 바이트]파이러너 (토론 | 기여) (새 문서: torch.eye(영어: eye)은 주대각선이 1이고 나머지가 0인 2차원 텐서(단위 행렬)를 생성하는 PyTorch의 함수이다. ==개요== *<code>torch.eye</code>는 크기 <code>n×m</code>(<code>m</code> 미지정 시 <code>n×n</code>)의 단위 행렬을 반환한다. *반환 텐서는 기본적으로 밀집(dense) 레이아웃이며, 주대각선 원소는 1, 그 외는 0이다. ==시그니처== *<code>torch.eye(n, m=None, *, out=None, dtype=None, layout=torch.st...) 태그: 시각 편집
  • 2025년 10월 4일 (토) 06:14PyTorch sparse (역사 | 편집) ‎[5,348 바이트]파이러너 (토론 | 기여) (새 문서: '''torch.sparse'''은 PyTorch에서 희소 텐서(sparse tensor)를 다루기 위한 기능 집합이다. ==개요== 희소 텐서는 대부분의 원소가 0인 고차원 배열을 효율적으로 표현하기 위한 자료구조이다. PyTorch에서는 여러 희소 표현(layout) 방식을 지원하며, <code>torch.sparse</code> 모듈 및 관련 함수들이 이 기능을 제공한다. ==표현 방식 및 레이아웃== PyTorch는 여러 희소 레이아웃을 지원한다....) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:57N:M 희소성 (역사 | 편집) ‎[2,616 바이트]인공무능 (토론 | 기여) (새 문서: N:M 희소성(N:M sparsity)은 신경망 가중치 행렬에서 연속된 M개의 항목 그룹 중 N개의 항목만 비제로(nonzero) 값으로 유지하는 방식의 구조적 희소성이다. ==개념== *각 그룹(블록) 내 M개의 연속된 가중치 중 N개만 남기고 나머지를 0으로 만든다. *예를 들어 2:4 희소성은 매 4개의 가중치에서 2개만 활성화시키고 나머지를 제거하는 패턴이다. *이 방식은 완전 비구조 희소성(...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:50Wanda 가지치기 (역사 | 편집) ‎[2,523 바이트]인공무능 (토론 | 기여) (새 문서: '''Wanda''' 가지치기(Wanda Pruning, Pruning by '''W'''eights '''and''' '''A'''ctivations)는 대규모 언어 모델(LLM)을 추가 학습 없이도 효과적으로 희소화하는 방법으로, 각 가중치의 중요도를 가중치 크기와 입력 활성화의 크기의 곱으로 평가하는 방식이다. ==개념== *Wanda는 사전 학습된 모델에 대한 제로샷 가지치기 방식이다. *기존의 magnitude pruning은 단순히 가중치 절댓값만 기준...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:45자기 회귀 모델 (역사 | 편집) ‎[2,406 바이트]인공무능 (토론 | 기여) (새 문서: 자기 회귀 모델(Autoregressive Model)은 시계열 데이터 또는 순차적 데이터의 현재 값을 과거 값들의 선형 또는 비선형 결합으로 예측하는 모델이다. ==개념== *자기 회귀(autoregression)란, 변수 자체의 이전 시점 값들을 입력으로 사용하여 현재 값을 예측하는 방식이다. *일반적인 형식은 다음과 같다: Y_t = c + φ₁Y_{t−1} + φ₂Y_{t−2} + ... + φ_pY_{t−p} + ε_t * 여기서 p는...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:43KV 캐시 (역사 | 편집) ‎[2,714 바이트]인공무능 (토론 | 기여) (새 문서: KV 캐시(Key-Value Cache)는 트랜스포머 기반 오토리그레시브 언어 모델에서, 이전 토큰의 정보를 저장하여 추론 시 반복 계산을 줄이기 위해 사용하는 캐시 구조이다. ==개념== *트랜스포머 디코더는 각 층에서 self-attention을 계산할 때, 이전 토큰의 key와 value 벡터를 반복적으로 참조한다. *이를 효율화하기 위해 한 번 계산한 key와 value를 캐시에 저장해 두고, 이후 토큰 생...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:30KV 캐시 가지치기 (역사 | 편집) ‎[3,501 바이트]인공무능 (토론 | 기여) (새 문서: KV 캐시 가지치기(KV Cache Pruning)는 트랜스포머 기반 언어 모델의 추론 단계에서 사용하는 '''Key-Value 캐시'''의 크기를 줄이기 위해 일부 K/V 쌍을 제거하거나 압축하는 기법이다. ==개념 및 배경== *트랜스포머 기반의 자기 회귀 모델에서는 이전 토큰의 Key와 Value를 캐시(KV 캐시)해 두고, 이후 토큰 생성 시 재사용한다. *이 방식은 중복 계산을 피하게 해주지만, 문맥...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:26신경망 가지치기 (역사 | 편집) ‎[4,548 바이트]인공무능 (토론 | 기여) (새 문서: 가지치기(영어: Pruning)는 딥 러닝에서 신경망의 불필요한 파라미터(가중치나 뉴런 연결)를 제거하여 모델의 크기를 줄이고 연산 효율을 높이는 기법이다. 이는 나무의 불필요한 가지를 잘라내는 원예 작업에서 유래한 용어로, 신경망의 성능은 유지하면서도 경량화를 달성하기 위해 사용된다. ==개요== *딥 러닝 모델은 수백만~수십억 개의 파라미터를 가지며, 이 중...)
  • 2025년 10월 2일 (목) 07:25반복적 가지치기 (역사 | 편집) ‎[2,525 바이트]인공무능 (토론 | 기여) (새 문서: 반복적 가지치기(Iterative Pruning)는 신경망 모델의 불필요한 가중치를 점진적으로 제거하고, 각 단계마다 재학습(fine‑tuning)을 통해 성능 손실을 보정하는 방식이다. ==개념== *한 번에 많은 가중치를 제거하면 모델 성능이 급격히 저하될 수 있기 때문에, 반복적으로 조금씩 제거하는 전략을 사용한다. *각 반복 주기마다: **중요도가 낮은 가중치 또는 구조를 제거 **제...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:20제로샷 가지치기 (역사 | 편집) ‎[3,490 바이트]인공무능 (토론 | 기여) (새 문서: 제로샷 가지치기 또는 제로샷 프루닝(Zero-Shot Pruning)은 사전 학습된 신경망 모델을 추가 학습 없이 곧바로 가지치기(pruning)하는 기법으로, 재학습(fine-tuning)이나 반복 최적화 없이 모델의 구조를 경량화하는 데 목적이 있다. ==개념== *전통적인 프루닝은 모델 학습 중간 또는 이후에 반복적으로 가중치를 제거하고 재학습하는 절차를 필요로 한다. *...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 07:08에너지 기반 모델 (역사 | 편집) ‎[3,687 바이트]인공무능 (토론 | 기여) (새 문서: 섬네일|에너지 기반 모델 학습 과정 개념도 에너지 기반 모델(Energy-Based Model, EBM)은 입력과 출력 구성(configuration)에 대해 스칼라 에너지 함수를 정의하고, 낮은 에너지를 갖는 구성일수록 더 가능성 있는 상태로 간주하는 기계 학습 모델이다. ==개념== *EBM은 통계 물리학의 개념을 차용하여, 가능한 구성들에 대해 에너지...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 06:54희소 행렬 압축 (역사 | 편집) ‎[4,449 바이트]인공무능 (토론 | 기여) (새 문서: 희소 행렬 압축(sparse matrix compression)은 요소의 대부분이 0인 희소 행렬을 저장 및 계산할 때, 0이 아닌 원소만을 효율적으로 표현하여 메모리와 연산 효율을 높이는 기술이다. ==개념 및 필요성== *희소 행렬(sparse matrix)이란 행렬 원소 중 0이 아닌 값(nonzero)이 전체 원소 대비 매우 적은 비율을 차지하는 행렬이다. *밀집 행렬(dense matrix) 방식으로 저장하면 많은 0 값도 공...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 06:52COO (압축) (역사 | 편집) ‎[3,490 바이트]인공무능 (토론 | 기여) (새 문서: COO (Coordinate, 또는 triplet 형식)은 희소 행렬을 저장할 때 가장 직관적이고 간단한 방식 중 하나이다. ==개념== COO 방식은 비제로(nonzero) 원소 각각을 (행 인덱스, 열 인덱스, 값) 튜플로 표현하는 방식이다. 즉, 세 개의 배열(행 인덱스 배열, 열 인덱스 배열, 값 배열)을 병렬로 유지하며, 배열의 같은 위치에서 대응되는 원소들이 하나의 비제로 항목을 나타낸다. ==구성...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 06:50CSR (압축) (역사 | 편집) ‎[2,624 바이트]인공무능 (토론 | 기여) (새 문서: CSR (Compressed Sparse Row, 압축 행 기준)은 희소 행렬을 저장하고 연산할 때 행 중심 접근을 빠르게 지원하는 압축 저장 방식이다. ==개념== CSR은 행렬의 각 행(row)에 대해, 0이 아닌 원소(nonzero)들만 순차적으로 저장하고, 각 행이 시작하는 지점을 인덱스로 관리하는 방식이다. 이 방식은 행 접근(row slicing)이나 행 단위 연산(예: 행‑벡터 곱셈)에 효율적이다. ==구성 요소==...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 06:17복권 가설 (인공지능) (역사 | 편집) ‎[2,974 바이트]인공무능 (토론 | 기여) (새 문서: 복권 가설(Lottery Ticket Hypothesis)은 딥 뉴럴 네트워크 내에 상대적으로 적은 수의 파라미터만을 가진 부분 신경망이 전체 네트워크와 동등한 성능을 달성할 수 있다는 가설이다. ==개요== *본 가설은 조나단 프랭클(Jonathan Frankle)과 동료들이 제안하였다. *무작위 초기화된 밀집(Dense) 신경망 안에는, 일정 부분의 “당첨 복권(winning ticket)”이라 불리는 부분 신경망이 존재...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 02:03암호 해시 함수 (역사 | 편집) ‎[3,299 바이트]보안기사 (토론 | 기여) (새 문서: 암호 해시 함수(cryptographic hash function)는 임의 길이의 입력 데이터를 고정 길이의 해시 값으로 매핑하며, 암호학적 보안을 만족하는 여러 특성을 가진 함수이다. ==정의와 기본 개념== *입력: 임의 길이의 비트열 또는 메시지 *출력: 고정 길이의 비트열 (해시 값 또는 다이제스트) *결정론성: 동일한 입력에 대해 항상 동일한 출력이 나와야 한다 *역산 불가능성 (Preimage r...) 태그: 시각 편집
  • 2025년 10월 2일 (목) 02:01키 유도 함수 (역사 | 편집) ‎[5,273 바이트]보안기사 (토론 | 기여) (새 문서: 키 유도 함수(Key Derivation Function, KDF)는 암호학에서 마스터 키, 암호 또는 비밀 값으로부터 필요한 형식의 암호 키(또는 키 재료)를 안전하게 유도해 내는 함수이다. ==개념과 목적== KDF는 다음 목적을 달성하기 위해 설계된다: *비밀 값(비밀번호, 마스터 키, 공유 비밀 등)으로부터 하나 이상의 암호 키를 생성 *출력 키의 길이를 조절하거나 포맷을 맞춤 *동일 입력이...) 태그: 시각 편집
  • 2025년 9월 27일 (토) 00:32퍼지 해시 (역사 | 편집) ‎[5,131 바이트]AlanTuring (토론 | 기여) (새 문서: 퍼지 해시(fuzzy hashing, 또는 similarity hashing)는 입력 데이터가 완전히 일치하지 않더라도 유사한 경우를 감지할 수 있도록 설계된 해시 기법이다. 일반 해시 함수(예: SHA-256, MD5)처럼 입력이 조금만 바뀌어도 해시 값 전체가 완전히 달라지는 성질(아발란체 효과)을 지향하지 않고, 유사한 입력에 대해서는 유사한 해시 값을 만드는 특성을 갖는다. ==정의 및 배경== 퍼지...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 09:55합성곱 신경망 (역사 | 편집) ‎[13,675 바이트]인공무능 (토론 | 기여) (새 문서: 분류:인공지능분류:딥 러닝 ;Convolutional Neural Network; 합성곱 인공 신경망; 합성곱신경망 * CNN 처리 과정 도식화 600px * 실제 이미지 CNN 처리 과정 예시 600px == 구성 및 절차 == ;대상을 채널별로 나누고, 정보 손실 방지를 위해 패딩을 적용한 후, 필터를 이용해 스트라이드 단위로 합성곱을 해서 피처 맵을 만들어냄. 빠른 처리를 위...)
  • 2025년 9월 25일 (목) 09:54배치 정규화 (역사 | 편집) ‎[3,182 바이트]인공무능 (토론 | 기여) (새 문서: 배치 정규화(영어: Batch Normalization, 줄여서 BN)는 딥 러닝에서 학습을 안정화하고 속도를 향상시키기 위해 사용되는 정규화 기법이다. 각 층의 입력을 정규화하여 내부 공변량 변화(Internal Covariate Shift)를 줄이는 것을 목적으로 한다. ==개요== *딥러닝 모델은 층이 깊어질수록 학습이 불안정해지고, 기울기 소실/폭주 문제로 인해 학습 속도가 느려진다. *배치 정규화는...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 08:51런렝스 인코딩 (역사 | 편집) ‎[2,321 바이트]인공무능 (토론 | 기여) (새 문서: 런렝스 인코딩(영어: Run-Length Encoding, RLE)은 동일한 값이 연속적으로 반복되는(run) 구간을 압축하여, 데이터 크기를 줄이는 단순한 무손실 압축 기법이다. 주로 데이터에 반복 구간이 많거나 희소 데이터(sparse data)에서 효과적이다. ==개요== *연속된 동일 값을 (값, 반복 길이) 쌍으로 표현한다. *예: [0, 0, 0, 3, 3, 1, 0, 0] → [(0,3), (3,2), (1,1), (0,2)] *일반적으로 흑백 이미지,...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 08:49희소 데이터 (역사 | 편집) ‎[2,815 바이트]인공무능 (토론 | 기여) (새 문서: 섬네일|대부분의 값이 0인 희소 데이터 희소 데이터(稀疏-, 영어: Sparse data)는 데이터의 대부분이 0 또는 비어 있는 값으로 이루어진 데이터를 말한다. 반대로, 대부분의 값이 유효한 값을 가지는 데이터는 조밀 데이터(密-, Dense data)라고 한다. 희소 데이터는 수학, 통계학, 데이터 과학, 인공지능 등 다양한 분야에서 다루어지며, 저장 및 연...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 08:43비트맵 인코딩 (압축) (역사 | 편집) ‎[2,108 바이트]인공무능 (토론 | 기여) (새 문서: 비트맵 인코딩(영어: Bitmap encoding)은 데이터 압축 기법 가운데 하나로, 주어진 데이터에서 특정 값의 존재 여부를 비트 벡터(bitmap)로 표현하는 방식이다. 주로 0과 같이 반복되는 값이 많거나, 데이터가 희소(sparse)한 경우에 효율적이다. ==개요== *비트맵 인코딩은 값들의 위치 정보를 비트열로 표시하여 원본 데이터를 재현할 수 있도록 한다. *각 원소가 특정 값에 해...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 08:36펨토셀 (역사 | 편집) ‎[3,323 바이트]보안기사 (토론 | 기여) (새 문서: 펨토셀(영어: Femtocell)은 이동통신에서 기지국 신호가 약하거나 혼잡할 때, 가정이나 사무실 같은 소규모 공간에 설치하여 통신 품질을 개선하는 초소형 셀룰러 기지국이다. 기존의 이동통신망(Macrocell)과 인터넷(IP 네트워크)을 연결하여 음성 및 데이터 서비스를 제공한다. ==개요== *펨토셀은 이동통신사에서 제공하는 초소형 기지국 장치로, 유선 인터넷망(예: 광랜,...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 08:29부동소수점 연산 (역사 | 편집) ‎[1,955 바이트]인공무능 (토론 | 기여) (새 문서: 단위로써의 부동소수점 연산(FLOP, Floating Point Operation)은 컴퓨터가 수행하는 단일 부동소수점 연산을 의미한다. 보통 곱셈, 덧셈, 나눗셈, 제곱근 계산 등이 이에 포함된다. 인공지능, 과학 계산, 고성능 컴퓨팅(HPC)에서는 알고리즘이나 모델의 연산 복잡도를 나타내는 단위로 사용된다. ==정의== *'''FLOP'''은 한 번의 부동소수점 연산을 뜻한다. *'''FLOPs'''는 초당 수행할...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 08:28곱셈-누산 연산 (역사 | 편집) ‎[1,998 바이트]인공무능 (토론 | 기여) (새 문서: 곱셈-누산 연산(MAC, Multiply–Accumulate operation)은 인공지능 및 딥러닝 모델의 연산량을 측정하는 지표로, 곱셈(multiplication)과 덧셈(accumulation)이 결합된 기본 연산 단위를 의미한다. 주로 합성곱 신경망(CNN)이나 완전연결층(Dense layer)과 같이 대규모 연산이 필요한 구조에서 모델의 연산 복잡도를 비교하는 데 사용된다. ==정의== *'''MAC(Multiply–Accumulate operation)'''은 하나의...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 07:34기울기 폭주 (역사 | 편집) ‎[2,259 바이트]인공무능 (토론 | 기여) (새 문서: 기울기 폭주(영어: Exploding gradient)는 인공 신경망 학습 과정에서 역전파(backpropagation)를 통해 전달되는 기울기(gradient)가 지수적으로 커지면서 학습이 불안정해지는 현상이다. 이 문제는 특히 순환 신경망(RNN)이나 깊은 신경망에서 흔히 발생한다. ==개요== 신경망은 손실 함수(loss function)를 최소화하기 위해 경사하강법(gradient descent)을 사용한다. 이 과정에서 기울기가...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 07:27합성곱 (역사 | 편집) ‎[1,778 바이트]인공무능 (토론 | 기여) (새 문서: 합성곱(合成곱, 영어: Convolution)은 두 함수의 형태를 겹쳐 적분(또는 합)하여 새로운 함수를 만드는 연산으로, 신호 처리, 영상 처리, 확률론, 미분방정식 등 수학과 공학 전반에 걸쳐 널리 사용된다. 특히 딥러닝에서는 합성곱 신경망(CNN)의 핵심 연산으로 잘 알려져 있다. ==정의== 연속 함수 f, g에 대한 합성곱은 다음과 같이 정의된다. *(f * g)(t) = ∫ f(τ) g(t - τ) dτ 이...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 07:17야코비안 행렬 (역사 | 편집) ‎[3,148 바이트]인공무능 (토론 | 기여) (새 문서: 야코비안 행렬(영어: Jacobian matrix)은 다변수 벡터값 함수의 국소적 선형 근사를 나타내는 행렬로, 함수의 도함수 정보를 모아놓은 것이다. 미분학과 벡터 해석학에서 중요한 역할을 하며, 특히 변수 변환, 최적화, 비선형 방정식 해석, 기계학습 등에서 널리 사용된다. == 이름 == 한편, 독일 수학자 카를 구스타프 야코비(Carl Gustav Jacob Jacobi)의 이름에서 유래하였기 때...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 06:57텐서 (인공지능) (역사 | 편집) ‎[3,431 바이트]인공무능 (토론 | 기여) (새 문서: 텐서(英: Tensor)는 스칼라, 벡터, 행렬 개념을 고차원으로 확장한 수학적 구조로서, 인공지능(머신러닝/딥러닝) 분야에서는 다차원 배열(multi-dimensional array)로 주로 사용된다. ==정의 및 개념== 텐서는 순서(order) 또는 차원(rank)을 가지며, *0차 텐서는 스칼라(scalar) *1차 텐서는 벡터(vector) *2차 텐서는 행렬(matrix) *3차 이상 텐서는 다차원 배열 형태로 일반화된다. 수학적으...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 06:52고유값 문제 (역사 | 편집) ‎[2,297 바이트]인공무능 (토론 | 기여) (새 문서: 내적 공간(內積空間, 영어: Inner product space)은 벡터 공간에 내적이 정의되어 있는 구조로, 벡터 사이의 길이와 각도를 정의할 수 있게 해준다. 이는 유클리드 공간을 일반화한 개념으로, 해석학, 기하학, 물리학 등 다양한 분야에서 중요한 역할을 한다. ==정의== 체(주로 실수체 또는 복소수체) 위의 벡터 공간 V가 주어졌을 때, 내적 공간은 다음 조건을 만족하는 함수...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 06:50내적 공간 (역사 | 편집) ‎[2,318 바이트]인공무능 (토론 | 기여) (새 문서: 내적 공간(內積空間, 영어: Inner product space)은 벡터 공간에 내적이 정의되어 있는 구조로, 벡터 사이의 길이와 각도를 정의할 수 있게 해준다. 이는 유클리드 공간을 일반화한 개념으로, 해석학, 기하학, 물리학 등 다양한 분야에서 중요한 역할을 한다. ==정의== 체(주로 실수체 또는 복소수체) 위의 벡터 공간 V가 주어졌을 때, 내적 공간은 다음 조건을 만족하는 함수...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 06:50벡터 공간 (역사 | 편집) ‎[5,174 바이트]인공무능 (토론 | 기여) (새 문서: 벡터 공간(영어: Vector space)은 벡터라 불리는 원소들의 집합으로, 벡터 덧셈과 스칼라 곱이 정의되어 있으며 특정 공리들을 만족하는 대수적 구조이다. 선형대수학에서 핵심적인 개념으로, 다양한 수학적 구조와 응용 분야에서 기본적인 틀을 제공한다. ==정의== 체(field) F 위의 벡터 공간 V는 다음 조건을 만족하는 집합과 두 연산(벡터 덧셈, 스칼라 곱)으로 정의된다....) 태그: 시각 편집
  • 2025년 9월 25일 (목) 06:48행렬 (역사 | 편집) ‎[2,523 바이트]인공무능 (토론 | 기여) (새 문서: 행렬(行列, 영어: Matrix)은 수나 기호를 직사각형 모양으로 배열한 표로, 선형대수학의 기본적인 대상 중 하나이다. 주로 선형 변환을 나타내거나 연립방정식을 다루는 데 사용된다. ==개요== 행렬은 가로 줄을 '''행''', 세로 줄을 '''열'''이라 하며, 특정한 크기(차원)의 수들을 사각형 형태로 배열한 것이다. 행렬의 크기는 행의 수와 열의 수로 표시한다. 예를 들어, 3행...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 06:44선형대수학 (역사 | 편집) ‎[2,691 바이트]인공무능 (토론 | 기여) (새 문서: 선형대수학(線形代數學, 영어: Linear algebra)은 벡터, 행렬, 선형사상 등 선형적인 구조와 그 성질을 다루는 수학의 한 분야이다. 현대 수학과 공학, 물리학, 통계학, 컴퓨터 과학 등 다양한 학문 분야에서 기초적이면서도 핵심적인 역할을 한다. == 개요 == 선형대수학은 주로 선형 방정식의 해법, 벡터 공간의 구조, 행렬 연산, 고유값과 고유벡터, 내적과 직교성 등의...)
  • 2025년 9월 25일 (목) 06:38행렬 계산 (역사 | 편집) ‎[2,668 바이트]인공무능 (토론 | 기여) (새 문서: {{제목|행렬 계산}} ==개요== '''행렬 계산'''(matrix calculation)은 선형대수학에서 행렬과 벡터를 대상으로 하는 다양한 연산을 말한다. 기본적인 연산으로는 덧셈, 뺄셈, 곱셈, 전치, 역행렬 등이 있으며, 응용 수학과 공학, 물리학, 컴퓨터 과학 전반에서 중요한 도구로 사용된다. ==주요 연산== ;행렬 덧셈과 뺄셈 :같은 크기의 행렬끼리 대응하는 원소를 더하거나 빼는 연...) 태그: 시각 편집
  • 2025년 9월 25일 (목) 04:40Советские открытки с днем рождения (역사 | 편집) ‎[1,849 바이트]107.6.254.54 (토론) (새 문서: == Советские открытки с днем рождения == В детстве, наверное, у каждого из нас были дни рождения, которые отмечали с особым трепетом и радостью. И часто поздравления приходили в виде красочных советских открыток – с забавными зверушками, сказочными персонажами или...)
  • 2025년 9월 24일 (수) 12:37위치 인코딩 (역사 | 편집) ‎[2,795 바이트]인공무능 (토론 | 기여) (새 문서: 위치 인코딩(位置encoding, Positional Encoding)은 트랜스포머(Transformer) 아키텍처에서 입력 시퀀스의 토큰 순서를 모델이 인식할 수 있도록 추가하는 벡터 표현이다. 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리, 트랜스포머의 어텐션 메커니즘은 토큰 간의 순서를 직접적으로 고려하지 않기 때문에 위치 정보를 별도로 주입해야 한다. ==개요== 트랜스포머는 입력 시퀀...) 태그: 시각 편집
  • 2025년 9월 24일 (수) 12:09피드포워드 신경망 (역사 | 편집) ‎[2,541 바이트]인공무능 (토론 | 기여) (새 문서: 피드포워드 신경망(Feed-Forward Neural Network, FFNN)은 입력에서 출력으로 정보가 한 방향으로만 흐르는 인공신경망 구조이다. 순환이나 피드백 연결이 없으며, 가장 기본적인 형태의 신경망으로 분류된다. ==개요== 피드포워드 신경망은 인공신경망의 가장 단순한 구조로, 입력층(Input layer), 은닉층(Hidden layer), 출력층(Output layer)으로 구성된다. 각 층은 완전연결층(fully connec...) 태그: 시각 편집
  • 2025년 9월 24일 (수) 12:07트랜스포머 블록 (역사 | 편집) ‎[4,299 바이트]인공무능 (토론 | 기여) (새 문서: 트랜스포머 블록(Transformer block)은 자연어 처리 및 기타 시퀀스 모델링에서 사용되는 트랜스포머 아키텍처의 기본 구성 요소이다. 트랜스포머 블록은 입력 벡터를 받아 내부적으로 self-attention 연산과 피드포워드 신경망을 거쳐 출력 벡터로 변환한다. ==구성 요소== 트랜스포머 블록은 일반적으로 다음 구성 요소들로 이루어...) 태그: 시각 편집
  • 2025년 9월 24일 (수) 12:00시퀀스-투-시퀀스 구조 (역사 | 편집) ‎[2,637 바이트]인공무능 (토론 | 기여) (새 문서: 섬네일|인코더와 디코더를 사용한 구조 시퀀스-투-시퀀스 구조(Sequence-to-Sequence, Seq2Seq)는 입력 시퀀스(예: 문장)를 받아 출력 시퀀스(예: 번역된 문장)를 생성하는 신경망 아키텍처이다. 주로 인코더와 디코더 두 부분으로 구성되며, 기계 번역을 비롯한 다양한 자연어 처리 작업에서 활용된다. * 짧게 Seq2Seq이라고 쓰기도 한다. ==개...) 태그: 시각 편집
  • 2025년 9월 24일 (수) 11:17어텐션 메커니즘 (역사 | 편집) ‎[5,543 바이트]인공무능 (토론 | 기여) (새 문서: 섬네일|어텐션 예시 어텐션 메커니즘(Attention mechanism)은 인공신경망에서 입력 시퀀스의 각 요소가 출력에 기여하는 중요도를 동적으로 계산하여 반영하는 기법이다. 원래는 신경망 기계번역(NMT)에서 제안되었으며, 이후 다양한 자연어 처리와 컴퓨터 비전 분야에서 널리 활용되고 있다. ==개요== 전통적인 시퀀스-투-시퀀스(seq2seq) 구조에서는...) 태그: 시각 편집
  • 2025년 9월 24일 (수) 11:00셀프 어텐션 (역사 | 편집) ‎[2,648 바이트]인공무능 (토론 | 기여) (새 문서: 셀프 어탠션(Self-Attention)은 딥러닝에서 입력 시퀀스의 각 요소가 동일 시퀀스 내 다른 요소들과 어떤 관계를 갖는지를 스스로 학습하는 어탠션(Attention) 메커니즘의 한 종류이다. 문장 내 단어들 간 상호 연관성을 반영하여 문맥 정보를 효과적으로 포착할 수 있게 하며, 트랜스포머(Transformer) 구조의 핵심 구성 요소이다. ==개요== 셀프 어탠션은 주어진 입력 시퀀스 전...)
  • 2025년 9월 24일 (수) 04:51데일리 스크럼 (역사 | 편집) ‎[4,508 바이트]Agiler (토론 | 기여) (새 문서: 데일리 스크럼(Daily Scrum)은 스크럼(Scrum) 프레임워크에서 스프린트 내 매일 개발 팀(Developers)이 모여 스프린트 목표(Sprint Goal)의 진행 상황을 점검하고, 하루 동안의 작업 계획을 조정하며 장애 요소를 식별하는 짧고 집중된 회의이다. ==정의== 데일리 스크럼은 스프린트 기간 동안 매 영업일(working day)에 동일한 시간과 장소(또는 동일한 형식)에서 15분(time‑boxed) 이내...) 태그: 시각 편집
  • 2025년 9월 24일 (수) 04:46백로그 정제 회의 (역사 | 편집) ‎[4,307 바이트]Agiler (토론 | 기여) (새 문서: 백로그 정제 회의(Backlog Refinement Meeting)는 애자일 개발, 특히 스크럼(Scrum) 방법론에서 제품 백로그(Product Backlog)를 실행 가능한 상태로 유지하기 위해 주기적으로 수행되는 회의이다. 사용자 스토리, 기능, 버그 등 백로그 항목들을 검토하고 우선순위, 크기, 설명 등을 조정하여 다음 스프린트 계획이 원활하게 이루어지도록 하는 것이 목적이다. ==정의== 백로그 정제...) 태그: 시각 편집
  • 2025년 9월 24일 (수) 04:39프로덕트 백로그 (역사 | 편집) ‎[3,673 바이트]Agiler (토론 | 기여) (새 문서: 프로덕트 백로그(Product Backlog)은 애자일 소프트웨어 개발 방법론, 특히 스크럼(Scrum)에서 사용되는 핵심 산출물로, 제품 개발에 필요한 모든 작업 항목을 우선순위에 따라 정리한 목록이다. ==정의== 프로덕트 백로그는 제품에 필요한 기능, 개선 사항, 버그 수정, 기술 부채, 비기능적 요구사항 등 다양한 작업 항목을 포함하며, 제품 소유자(Product Owner)가 책임지고 관...) 태그: 시각 편집
(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기