새 문서 목록

IT 위키
새 문서 목록
등록된 사용자 숨기기 | 봇 숨기기 | 넘겨주기를 보이기
(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기
  • 2025년 10월 17일 (금) 03:17Softargmax (역사 | 편집) ‎[3,186 바이트]인공무능 (토론 | 기여) (새 문서: '''softargmax'''(soft arg‑max, 또는 soft‑argmax)는 비정형적인 arg max의 미분 가능(연속) 근사 버전이다. ==정의 및 개념== softargmax는 입력 벡터 \( \mathbf{z} = (z_1, z_2, \dots, z_K) \in \mathbb{R}^K \)에 대해, 각 성분에 확률 형태로 점유율을 부여하는 함수다. 보통 softmax 함수가 “softargmax”라고 불리기도 한다. <ref>“Softmax function”, Wikipedia</ref> 표준 softmax 정의는 \[ \sigma(\mathbf{z})_k...) 태그: 시각 편집
  • 2025년 10월 17일 (금) 03:06Argmin (역사 | 편집) ‎[2,747 바이트]인공무능 (토론 | 기여) (새 문서: '''argmin'''(argument of the minimum, 줄여서 “arg min” 또는 “argmin”)는 함수가 최소값을 갖는 지점(입력 변수의 값)을 나타내는 연산자이다. ==정의== 함수 \(f: X \to \mathbb{R}\)와 그 정의역의 부분집합 \(S \subseteq X\)가 주어졌을 때, \[ \arg\min_{x \in S} f(x) = \{\, x \in S \mid \forall\, s \in S,\; f(x) \le f(s) \} \] 로 정의된다. 즉, \(S\) 내에서 \(f(x)\)가 최소값을 갖는 모든 \(x\)의 집합이다...) 태그: 시각 편집
  • 2025년 10월 17일 (금) 03:03Argmax (역사 | 편집) ‎[1,687 바이트]인공무능 (토론 | 기여) (새 문서: '''argmax'''(argument of the maximum, 줄여서 “arg max” 또는 “argmax”)는 함수가 최댓값을 갖는 지점(변수의 값)을 가리키는 연산자이다. ==정의== \(\arg\max\)는 주어진 함수 \(f: X \to \mathbb{R}\)와 부분집합 \(S \subseteq X\)에 대해, \[ \arg\max_{x \in S} f(x) = \{x \in S \mid f(x) \ge f(s) \text{ for all } s \in S\} \] 로 정의된다. 즉, 정의역 \(S\) 내에서 함수 \(f\)의 값이 최대가 되는 모든 \(x\)의...) 태그: 시각 편집
  • 2025년 10월 16일 (목) 08:44과도한 활성값 (역사 | 편집) ‎[7,967 바이트]인공무능 (토론 | 기여) (새 문서: 과도한 활성값(Massive Activation)은 신경망 내부의 일부 활성(activation)이 다른 활성들에 비해 매우 큰 값을 가지는 현상을 가리킨다. 특히 대형 언어 모델(LLM)에서 이러한 현상이 반복적으로 관찰되며, 단순한 이상치(outlier)를 넘어 모델 동작의 중요한 요소로 역할하는 것으로 보고된다. ==정의 및 개념== 과도한 활성값은 전체 활성 공간 중 극히 일부의 차원(dimension)에서...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 02:21Git rebase (역사 | 편집) ‎[4,712 바이트]Agiler (토론 | 기여) (새 문서: 깃 리베이스(Git rebase)는 한 브랜치의 커밋들을 다른 기준(베이스) 커밋 위에 다시 적용하는 작업이다. 즉, 브랜치의 기반을 새 커밋 위로 옮기면서 커밋 히스토리를 재작성하는 수단이다. ==개념 및 원리== 리베이스는 “현재 브랜치에 있는, 아직 기준(upstream)에 포함되지 않은 커밋들”을 임시로 떼어낸 뒤, 목표 기준 커밋(또는 브랜치)의 최신 상태 위에 하나씩 다...)
  • 2025년 10월 15일 (수) 02:20Git merge (역사 | 편집) ‎[4,073 바이트]Agiler (토론 | 기여) (새 문서: 깃 머지(Git merge)는 두 개 이상의 브랜치의 변경 내역을 하나로 합치는 작업이다. 즉, 별도로 개발된 브랜치들의 커밋 흐름을 하나의 브랜치에 병합하여 통합된 히스토리를 만드는 방법이다. ==개념 및 원리== 머지는 공통 조상 커밋을 기준으로 각각의 브랜치 변경사항을 비교한 뒤, 공통 조상 이후의 변경을 한쪽 브랜치(현재 브랜치)에 반영하는 방식이다. 간단한...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 01:08행렬의 랭크 (역사 | 편집) ‎[2,553 바이트]인공무능 (토론 | 기여) (새 문서: 행렬의 랭크(영어: rank of a matrix)는 행렬에서 선형 독립한 행 또는 열벡터의 최대 개수를 나타내는 수로, 벡터 공간의 차원과 선형 변환의 구조를 분석하는 데 중요한 개념이다. ==정의== 행렬 A의 랭크는 다음과 같이 정의된다: *행 랭크(row rank): 행렬 A의 행벡터들 중 선형 독립한 최대 개수 *열 랭크(column rank): 행렬 A의 열벡터들 중 선형 독립한 최대 개수 모든 행렬에...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 01:04가우스 소거법 (역사 | 편집) ‎[2,223 바이트]인공무능 (토론 | 기여) (새 문서: 가우스 소거법(독일어: Gaußsches Eliminationsverfahren, 영어: Gaussian elimination)은 연립방정식 해법, 행렬의 기저 및 랭크 계산 등에 사용되는 선형대수학의 기초적인 알고리즘으로, 행 연산을 통해 행렬을 계단형으로 바꾸는 절차이다. ==정의== 가우스 소거법은 행렬에 다음과 같은 기본 행 연산을 반복 적용하여 계단형(row echelon form) 또는 기약 계단형(reduced row echelon form, RRE...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 01:01선형 독립 (역사 | 편집) ‎[2,246 바이트]인공무능 (토론 | 기여) (새 문서: 선형 독립(線型獨立, 영어: linear independence)은 벡터 공간에서 여러 벡터가 서로 선형 결합으로 표현되지 않는 관계를 의미하며, 기저와 차원 정의의 핵심 개념이다. ==정의== 벡터 공간 V의 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 조건을 만족할 때 이 집합은 '''선형 독립'''이라 한다: *임의의 스칼라 \(a_1, a_2, ..., a_n\)에 대해 **\(a_1 v_1 + a_2 v_2 + ... + a_n v_n = 0\) 이 성립하면...)
  • 2025년 10월 15일 (수) 01:00벡터의 차원 (역사 | 편집) ‎[2,244 바이트]인공무능 (토론 | 기여) (새 문서: 벡터의 차원(次元, 영어: dimension of a vector space)은 벡터 공간을 구성하는 데 필요한 최소한의 선형 독립 벡터의 수를 의미하며, 해당 공간의 구조를 수치적으로 나타내는 중요한 개념이다. ==정의== 벡터 공간 V의 차원은 V의 기저를 이루는 벡터들의 개수로 정의된다. *벡터 공간 V의 차원은 기호로 \(\dim V\) 또는 \(\operatorname{dim}(V)\)로 나타낸다. *기저는 여러 개 존재할...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 00:57벡터의 기저 (역사 | 편집) ‎[2,305 바이트]인공무능 (토론 | 기여) (새 문서: 벡터의 기저(基底, 영어: basis of a vector space)는 벡터 공간을 구성하는 최소한의 벡터 집합으로, 모든 벡터를 유일하게 선형 결합으로 표현할 수 있게 하는 벡터들의 집합이다. ==정의== 벡터 공간 V에서 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 두 조건을 만족할 때, 이 집합을 V의 '''기저'''라 한다: *생성 조건: 집합 \(\{v_1, ..., v_n\}\)의 선형 결합으로 V의 모든 벡터를 표현...) 태그: 시각 편집
  • 2025년 10월 14일 (화) 06:16OLS 회귀분석 (역사 | 편집) ‎[4,407 바이트]인공무능 (토론 | 기여) (새 문서: '''OLS 회귀분석'''(Ordinary Least Squares 회귀분석)은 관측된 자료에 가장 잘 맞는 직선(혹은 초평면)을 찾기 위해, 잔차의 제곱합을 최소화하는 회귀계수를 추정하는 방법이다. * 최소제곱법이라고도 한다. (ex. 최소제곱법 회귀분석) ==개념 및 목적== OLS는 독립 변수(설명 변수)와 종속 변수(반응 변수) 사이의 선형 관계를 모델링하고, 이 관계를 설명하는 계수들을 추정...) 태그: 시각 편집
  • 2025년 10월 13일 (월) 03:22ORM 프레임워크 (역사 | 편집) ‎[3,747 바이트]Agiler (토론 | 기여) (새 문서: ORM 프레임워크는 객체 지향 프로그래밍 언어의 객체 모델과 관계형 데이터베이스의 테이블 구조 사이의 변환(mapping)을 자동화하고 단순화해 주는 소프트웨어 계층이다. ==개념 및 역할== ORM(Object-Relational Mapping)은 객체 지향 프로그래밍 언어에서 사용하는 객체와 그 속성들을 관계형 데이터베이스의 테이블, 컬럼, 키 등의 구조와 매핑하는 기술이다.<ref>“Object–relat...) 태그: 시각 편집
  • 2025년 10월 13일 (월) 03:19SQLAlchemy (역사 | 편집) ‎[5,327 바이트]Agiler (토론 | 기여) (새 문서: SQLAlchemy는 파이썬에서 관계형 데이터베이스와 상호작용하기 위한 SQL 툴킷이자 객체 관계 매핑(ORM) 라이브러리이다. == 개요 == SQLAlchemy는 파이썬 개발자에게 SQL의 모든 기능과 데이터베이스 지속성 패턴을 파이썬스러운 방식으로 사용할 수 있게 해 주며, 성능과 유연성을 모두 고려한 설계가 특징이다.<ref>SQLAlchemy 공식 문서</ref><ref>“Overview — SQLAlchemy 2.0 Documentation...)
  • 2025년 10월 10일 (금) 06:22Argon2id (역사 | 편집) ‎[8,996 바이트]보안기사 (토론 | 기여) (새 문서: '''Argon2id'''은 암호 해싱 및 키 유도 함수(Password-Based Key Derivation Function, PBKDF)의 한 형태로, 암호 저장 및 검증에 강점을 지닌 알고리즘이다. ==개요== Argon2 계열은 2015년 열린 비밀번호 해싱 경연 대회(Password Hashing Competition)의 우승 알고리즘이다. Argon2에는 세 가지 변형이 있다: '''Argon2d''', '''Argon2i''', '''Argon2id'''. 이 중 Argon2id는 Argon2i와 Argon2d의 장점을 혼합한 하이브리...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 14:01PyTorch named parameters 메서드 (역사 | 편집) ‎[2,955 바이트]인공무능 (토론 | 기여) (새 문서: named_parameters()는 PyTorch에서 제공하는 메서드로, 신경망 모델의 모든 학습 가능한 파라미터(parameter)에 대해 해당 파라미터의 이름(name)과 파라미터 객체(torch.nn.Parameter)를 함께 반환한다. 이 메서드는 torch.nn.Module을 상속받은 모든 모델에서 사용 가능하며, 레이어별 파라미터에 이름을 기준으로 접근하거나 필터링할 수 있도록 도와준다. ==개요== PyTorch의 모든 모델은 t...)
  • 2025년 10월 9일 (목) 13:50PyTorch Parameter grad (역사 | 편집) ‎[2,777 바이트]인공무능 (토론 | 기여) (새 문서: '''Parameter.grad''' 속성(PyTorch)은 '''torch.nn.Parameter''' 객체에 대해 역전파(backpropagation)를 통해 계산된 '''기울기(gradient)''' 를 저장하는 텐서 속성이다. ==개요== *'''Parameter''' 객체는 '''requires_grad=True'''일 때, 손실 함수에 대해 '''loss.backward()'''가 호출되면 '''.grad''' 속성에 기울기 값이 저장된다. <ref>[https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html Autograd tutorial — PyTorch]...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 13:45PyTorch Parameter 클래스 (역사 | 편집) ‎[2,447 바이트]인공무능 (토론 | 기여) (새 문서: Parameter(PyTorch의 torch.nn.Parameter)는 학습 가능한 모델 파라미터를 나타내는 '''특수 텐서''' 클래스이다. 일반 텐서와 달리 모듈(nn.Module)에 속성으로 할당되면 자동으로 모델의 학습 대상 파라미터로 등록된다. ==개요== *'''Parameter'''는 '''torch.Tensor'''를 상속한 클래스이다. <ref>[https://pytorch.org/docs/stable/generated/torch.nn.parameter.Parameter.html Parameter — PyTorch]</ref> *생성 형식은...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 13:30LASSO (역사 | 편집) ‎[4,603 바이트]인공무능 (토론 | 기여) (새 문서: LASSO(Least Absolute Shrinkage and Selection Operator, 라쏘 회귀)는 회귀 분석 기법의 하나로, 가중치의 절댓값 합(ℓ₁ 노름)에 패널티를 부과하여 과적합을 방지하고 변수 선택(feature selection) 효과를 동시에 얻는 정규화된 회귀 방식이다. ==정의 및 수식== LASSO 회귀는 전통적 최소 제곱법(OLS, Ordinary Least Squares)의 손실 함수에 ℓ₁ 페널티 항을 추가한 형태로 정의된다. 목적 함...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 13:27L1 정규화 (역사 | 편집) ‎[2,368 바이트]인공무능 (토론 | 기여) (새 문서: L1 정규화(L1 Regularization, 라쏘(Lasso) 규제)는 기계 학습 및 통계 모델에서 과적합(overfitting)을 방지하고 모델의 복잡도를 제어하기 위해 사용하는 정규화 기법 중 하나다. 이 방식은 가중치 벡터의 절댓값 합(ℓ₁ 노름)에 패널티를 부여하는 방식이다. ==정의 및 수식== L1 정규화에서는 기본 손실 함수(예: 평균 제곱 오차, 교차 엔트로피 등)에 다음과 같은 패널티 항을...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:46베이지안 심층 신경망 (역사 | 편집) ‎[3,507 바이트]인공무능 (토론 | 기여) (새 문서: 베이지안 심층 신경망(Bayesian Deep Neural Network, BNN 또는 Bayesian Deep Learning)은 전통적 인공신경망의 가중치 및 매개변수(parameter)를 고정값이 아닌 확률분포로 모델링하여, 예측의 불확실성까지 함께 고려할 수 있는 심층 신경망 모델이다. ==개념 및 동기== - 전통적 신경망은 학습 후 각 가중치가 고정된 값으로 결정되지만, 베이지안 심층 신경망에서는 각 가중치가 사전...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:44변분 추론 (역사 | 편집) ‎[2,320 바이트]인공무능 (토론 | 기여) (새 문서: 변분 추론(Variational Inference, VI)은 베이지안 추론에서 직접 계산하기 어려운 사후 확률 분포를, 최적화 기법을 활용해 해석 가능한 분포군 안에서 근사하는 방식이다. ==개념 및 기본 아이디어== *베이지안 통계 모델에서는 관측 데이터 \(x\)와 잠재 변수 \(z\)가 있을 때 사후 분포 \(p(z|x)\)를 구하는 것이 핵심 목표지만, 보통 이 분포는 적분이 불가능하거나 계산이 매우...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:43변분 자유 에너지 (역사 | 편집) ‎[3,173 바이트]인공무능 (토론 | 기여) (새 문서: 변분 자유 에너지(Variational Free Energy)는 베이지안 추론, 정보 이론, 인지 신경과학 등에서 사용되는 함수로, 관측된 데이터와 내부 생성 모델 간의 불일치를 정량화하는 수학적 척도이다. * 자유 에너지 원리(Free Energy Principle)에서의 "자유 에너지"는 통계물리학적 개념이 아니라 이 변분 자유 에너지를 의미한다. ==개념== 변분 자유 에너지는 주...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:39평형 전파 (역사 | 편집) ‎[4,932 바이트]인공무능 (토론 | 기여) (새 문서: 평형 전파(Equilibrium propagation, EP)는 에너지 기반 모델(energy‑based model)을 학습하기 위한 생물학적으로 더 타당한 알고리즘으로, 추론과 학습 단계를 통합하여 동일한 신경 회로(dynamic)를 사용하면서 역전파(backpropagation)와 유사한 기울기 계산을 가능하게 하는 방식이다 <ref>[https://arxiv.org/abs/1602.05179 Equilibrium Propagation: Bridging the Gap Between Energy‑Base...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:36능동 추론 (역사 | 편집) ‎[3,350 바이트]인공무능 (토론 | 기여) (새 문서: 능동 추론(Active Inference)은 자유 에너지 원리(Free Energy Principle)를 행동까지 확장한 이론적 틀로, 지각(perception) 뿐만 아니라 행위(action)도 내부 모델과 예측 오차 최소화 관점에서 설명한다 <ref>[https://direct.mit.edu/books/oa-monograph/5299/Active-InferenceThe-Free-Energy-Principle-in-Mind Active Inference: The Free Energy Principle in Mind, Brain, and Behavior, MIT Press]</ref> ==개념 및 기본 원리== Active Infere...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:35베이지안 뇌 가설 (역사 | 편집) ‎[3,972 바이트]인공무능 (토론 | 기여) (새 문서: 베이지안 뇌 가설(Bayesian Brain Hypothesis)은 뇌가 감각 입력 아래 숨겨진 원인(hidden causes)을 추론하기 위해 확률적 모델(생성 모델, generative model)을 내재적으로 사용하며, 그 모델과 입력의 불일치를 최소화하는 방식으로 지각 및 인지를 수행한다는 가설이다. ==개념과 기본 아이디어== 베이지안 뇌 가설의 핵심은 다음과 같다: *뇌는 감각 입력이 발생한 원인을 내부적으...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:29예측 부호화 (역사 | 편집) ‎[4,325 바이트]인공무능 (토론 | 기여) (새 문서: Predictive coding(예측 부호화, 혹은 predictive processing)는 뇌가 감각 입력을 단순히 수동적으로 받아들이는 것이 아니라, 내부 모델을 통해 감각 입력을 예측하고, 실제 입력과 예측 간의 차이(예측 오차)를 이용해 내부 표현과 모형을 지속적으로 수정함으로써 지각 및 인지를 수행한다는 이론이다 <ref>[https://arxiv.org/abs/2107.12979 Predictive Coding: a Theoretical and Experimental Review,...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:24대조적 헤비안 학습 (역사 | 편집) ‎[3,120 바이트]인공무능 (토론 | 기여) (새 문서: 대조적 헤비안 학습(Contrastive Hebbian Learning, CHL)은 전통적인 헤비안 학습 규칙을 확장한 방식으로, 출력 뉴런을 고정(clamp)한 상태와 자유 상태(free state)에서의 신경망 상태 차이를 이용해 가중치를 갱신하는 생물학적 학습 알고리즘이다. ==개념 및 동작 방식== CHL은 두 단계(phase)를 거쳐 학습을 수행한다: *'''자유 상태 (Free phase)''': 입력만 고정하고 출력은 자유롭게 활...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:17헤비안 학습 (역사 | 편집) ‎[2,646 바이트]인공무능 (토론 | 기여) (새 문서: 헤비안 학습(Hebbian Learning)은 신경세포 간의 활동 상관관계에 기반하여 시냅스 강도를 조정하는 학습 규칙으로, 일반적으로 "함께 발화하는 뉴런들이 연결된다(neurons that fire together, wire together)"는 방식으로 요약된다. ==개념 및 기본 원리== 헤비안 학습은 두 뉴런이 동시에 활발히 활성화될 때 그 사이의 시냅스 연결이 강화된다는 원칙에 기반한다. 이 규칙은 신경가...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:12자유 에너지 원리 (역사 | 편집) ‎[3,968 바이트]인공무능 (토론 | 기여) (새 문서: 자유 에너지 원리(Free Energy Principle, FEP)는 생명체 또는 인지 시스템이 주변 환경과의 상호작용 속에서 내부 상태와 행동을 조정해 나가며, '''변분 자유 에너지(variational free energy)''' 를 최소화하려 한다는 이론적 원칙이다. == 개념 및 기본 아이디어 == 자유 에너지 원리는 시스템이 “놀람(surprise, 관찰된 감각 입력이 내부 모델 하에서 얼마나 불가능해 보이는가)”을...)
  • 2025년 10월 9일 (목) 12:09예측 부호화 신경망 (역사 | 편집) ‎[3,892 바이트]인공무능 (토론 | 기여) (새 문서: 예측 부호화 신경망(Predictive Coding Networks, PCNs)은 뇌가 감각 입력을 예측하고, 예측과 실제 입력의 차이(오차)를 통해 내부 표현을 조정함으로써 정보를 처리하는 매커니즘을 모방한 계층적 인공 신경망 구조이다. ==개념 및 배경== 예측 부호화(predictive coding)는 뇌가 환경에 대한 내부 모델을 통해 감각 정보를 능동적으로 예측하고, 그 예측과 실제 입력의 오차를 줄이...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 06:10블록 부동소수점 양자화 (역사 | 편집) ‎[9,114 바이트]인공무능 (토론 | 기여) (새 문서: 블록 부동소수점(블록 부동소수점 양자화, Block Floating‑Point Quantization)은 여러 값들을 하나의 공통 지수(exponent)를 공유하는 방식으로 표현하는 양자화 기법이다. 즉, 블록 내부의 여러 데이터(예: 동일 텐서의 일부 원소들)가 동일한 지수를 사용하고, 각 원소는 공유 지수에 대해 상대적 소수부(mantissa)만을 갖는 방식이다. ==개념 및 배경== 전통적인 IEEE 부동소수점...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 05:50학습 가능한 양자화 기법 (역사 | 편집) ‎[3,860 바이트]인공무능 (토론 | 기여) (새 문서: * 상위 문서: 신경망 양자화 * 상위 문서: 신경망 양자화 기법 '''학습 가능한 양자화(Learnable Quantization) 기법'''은 양자화의 하이퍼파라미터(예: 클리핑 한계, 구간 간격, 스케일 등)를 고정하지 않고, 학습 과정에서 함께 최적화하는 방식이다. * 이 접근법은 모델이 양자화 오차에 스스로 적응하도록 만들어 정확도 손실을 최소화한다. == PACT (Parameterized Clipping...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 02:17가중치 크기 기반 가지치기 (역사 | 편집) ‎[3,723 바이트]인공무능 (토론 | 기여) (새 문서: '''가중치 크기 기반 가지치기'''는 딥러닝 모델에서 중요도가 낮은 가중치를 제거하여 연산량과 모델 크기를 줄이는 대표적인 가지치기(pruning) 기법이다. 가지치기 대상은 일반적으로 절댓값이 작은 가중치로 간주되며, 이를 제거하여 희소성(sparsity)을 유도한다. ==개념== 가중치 크기 기반 가지치기는 학습이 완료된(또는 진행 중인) 신경망에서 각 가중치의 절댓값...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:38CIFAR 데이터셋 (역사 | 편집) ‎[3,661 바이트]인공무능 (토론 | 기여) (새 문서: '''CIFAR 데이터셋'''은 이미지 인식 및 머신러닝 연구에서 널리 사용되는 소형 컬러 이미지 데이터셋이다. 대표적으로 '''CIFAR-10'''과 '''CIFAR-100'''이 존재하며, 각기 다른 분류 수준을 제공한다. ==개요== CIFAR는 "Canadian Institute for Advanced Research"의 약자로, 원래는 MIT의 Tiny Images 프로젝트에서 파생된 데이터셋이다. 이 데이터셋들은 32×32 픽셀 크기의 컬러 이미지로 구성되...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:33ResNet (역사 | 편집) ‎[10,165 바이트]인공무능 (토론 | 기여) (새 문서: '''ResNet'''(Residual Network)은 딥러닝에서 층이 매우 깊은 신경망을 안정적으로 학습하기 위해 제안된 구조이다. ==개요== ResNet은 입력을 그대로 다음 층에 더해주는 '''스킵 연결(skip or shortcut connection)'''을 도입하여, 각 층이 원래 함수 H(x)를 직접 학습하는 대신 잔차(residual) 함수 F(x) = H(x) - x를 학습하도록 재정의한 구조이다. 이 방식은 기울기 소실(vanishing gradient) 문제...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:20파이썬 (역사 | 편집) ‎[3,645 바이트]인공무능 (토론 | 기여) (새 문서: '''파이썬'''(영어: Python)은 범용 고수준 프로그래밍 언어로, 가독성과 생산성을 강조하며 설계되었다. ==개요== 파이썬은 인터프리터 방식으로 실행되며, 동적 타이핑 및 자동 메모리 관리 기능을 제공한다. 여러 프로그래밍 패러다임(절차적, 객체지향, 함수형 등)을 지원하며, 방대한 표준 라이브러리와 생태계를 갖춘 언어이다. ==역사== 파이썬은 1980년대 말 네덜란...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:19Jupyter Notebook (역사 | 편집) ‎[3,551 바이트]인공무능 (토론 | 기여) (새 문서: '''Jupyter Notebook'''은 웹 기반 대화형 컴퓨팅 환경으로, 코드, 설명 텍스트, 시각화 등을 하나의 문서 내에서 통합하여 실행할 수 있게 해 준다. ==개요== Jupyter Notebook은 웹 브라우저를 통해 노트북(.ipynb) 문서를 작성하고 실행할 수 있는 서버‑클라이언트 응용 프로그램이다. 사용자는 코드 셀, 마크다운 셀, 수식, 그래프, 이미지 등을 조합하여 분석 흐름을 문서화할...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:17Google Colab (역사 | 편집) ‎[3,748 바이트]인공무능 (토론 | 기여) (새 문서: '''Google Colab'''(영어: Google Colaboratory)은 사용자가 웹 브라우저에서 파이썬 코드를 작성하고 실행할 수 있게 해 주는 클라우드 기반 노트북 환경이다. 구글이 제공하며, 별도의 로컬 설정 없이도 GPU/TPU 등의 계산 자원을 활용할 수 있다. ==개요== Google Colab은 Jupyter Notebook 환경을 클라우드에서 호스팅한 서비스다. 사용자는 로컬에 파이썬 환경을 구축할 필요 없이, 브라...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:11신경망 양자화 (역사 | 편집) ‎[8,335 바이트]인공무능 (토론 | 기여) (새 문서: 모델 양자화(模型量子化, Model Quantization)는 딥러닝 모델의 수치 표현 정밀도를 낮춰 메모리 사용량과 연산량을 줄이는 최적화 기법이다. 주로 대형 언어 모델(LLM)이나 모바일·엣지 디바이스에서 효율적인 추론을 위해 사용된다. ==개요== 딥러닝 모델은 일반적으로 32비트 부동소수점(float32)으로 학습되지만, 추론 시에는 16비트(float16), 8비트(int8), 4비트(int4) 등 더 낮...)
  • 2025년 10월 8일 (수) 12:13와우 시그널 (역사 | 편집) ‎[5,159 바이트]외계인 (토론 | 기여) (새 문서: 섬네일|Wow! Signal 와우 시그널(Wow! signal)은 1977년 8월 15일 미국 오하이오주의 빅 이어(Big Ear) 전파 망원경이 포착한 정체불명의 강한 협대역 라디오 신호이다. ==개요== 이 신호는 오하이오 주립대학의 전파 망원경인 빅 이어(Big Ear)가 1420 MHz 근처의 주파수 대역에서 수신한 것으로, 수소 원자의 스펙트럼 선과 일치하는 주파수이기 때문에 외계...) 태그: 시각 편집
  • 2025년 10월 8일 (수) 08:56Codecov (역사 | 편집) ‎[3,287 바이트]Agiler (토론 | 기여) (새 문서: Codecov은 테스트 커버리지를 시각화하고 관리하는 서비스로서, 개발자가 코드베이스 내 어느 부분이 테스트되고 있는지 쉽게 파악할 수 있게 해준다. ==개요== Codecov은 CI(지속 통합) 도구와 연동되어 테스트 실행 결과로 생성된 커버리지 리포트(예: lcov, cobertura, coverage.py 등)를 업로드하고, 이를 기반으로 커버리지 비율, 변경에 따른 커버리지 증감, 소스 코드 위에 커...) 태그: 시각 편집
  • 2025년 10월 8일 (수) 07:29GitHub Actions (역사 | 편집) ‎[6,935 바이트]Agiler (토론 | 기여) (새 문서: GitHub Actions는 GitHub 저장소 내에서 워크플로우(workflows)를 자동화할 수 있게 해 주는 CI/CD 및 이벤트 기반 자동화 플랫폼이다. ==개념 및 구성 요소== GitHub Actions는 저장소에 `.github/workflows/` 디렉터리에 YAML 형식의 워크플로우 정의 파일을 두고, 특정 이벤트(push, pull_request 등)가 발생할 때 자동으로 일련의 작업(job)을 실행시키는 구조다. 주요 구성 요소는 다음과 같...) 태그: 시각 편집
  • 2025년 10월 8일 (수) 04:43신경망 양자화 기법 (역사 | 편집) ‎[3,802 바이트]인공무능 (토론 | 기여) (새 문서: * 상위 문서: 신경망 양자화 양자화 기법(Quantization Techniques)은 딥러닝 모델을 경량화하고 연산 효율을 높이기 위해 사용되며, 다양한 기준에 따라 여러 방식으로 분류된다. ==가중치 vs 활성화 양자화== 양자화는 대상에 따라 크게 가중치 양자화와 활성화 양자화로 나눌 수 있다. *'''가중치 양자화 (Weight Quantization)''': **모델의 학습된 파라미터(가중치)를 정수 또는...) 태그: 시각 편집
  • 2025년 10월 8일 (수) 04:21상대적 정밀도 (역사 | 편집) ‎[3,062 바이트]인공무능 (토론 | 기여) (새 문서: 상대적 정밀도란 수치 해석 또는 컴퓨터에서 실수를 근사 표현할 때, 수의 크기에 비례한 정밀도 유지 정도를 의미한다. 즉, 표현 가능한 오차(절대 오차)가 수의 절댓값에 비례해 커지거나 작아지더라도, 그 비율이 일정하게 유지되는 성질이다. ==정의== 부동소수점 표현에서, 어떤 실수 x를 근사값 x̃로 표현한다고 할 때, 상대 오차는 다음과 같이 정의된다: 상대...) 태그: 시각 편집
  • 2025년 10월 8일 (수) 04:10부동소수점 표현 (IEEE 754 규격) (역사 | 편집) ‎[5,274 바이트]인공무능 (토론 | 기여) (새 문서: 부동소수점 표현이란 유한한 비트 수로 실수를 근사해서 표현하는 방식으로, IEEE 754는 현재 컴퓨터 시스템에서 가장 널리 쓰이는 부동소수점 연산 표준이다. ==개요== 부동소수점 표현에서는 실수 x를 다음과 같이 구성된 요소로 표현한다: *부호 비트 (sign) *지수부 (exponent) *가수부 또는 유효숫자 부분 (significand 혹은 mantissa) 이 표현은 마치 과학적 표기법(예: ±1.xxx...) 태그: 시각 편집
  • 2025년 10월 8일 (수) 03:49GGUF 포맷 (역사 | 편집) ‎[5,494 바이트]인공무능 (토론 | 기여) (새 문서: '''GGUF'''(Generic GPT Unified Format)은 대형 언어 모델(LLM)의 텐서와 메타데이터를 통합 저장하는 바이너리 '''모델 포맷'''으로, llama.cpp 기반의 로컬 추론 환경에서 사용된다. 이 포맷은 이전 GGML 포맷의 한계를 보완하여, 다양한 양자화 형식과 모델 관련 정보를 함께 포함할 수 있도록 설계되었다. ==개요== GGUF는 General Graphical Model Library(GGML) 기반의 추론 시스템을 위해 만...)
  • 2025년 10월 7일 (화) 08:58오라클 WebLogic (역사 | 편집) ‎[3,967 바이트]계발자 (토론 | 기여) (새 문서: Oracle WebLogic Server(줄여서 WebLogic)은 자바 엔터프라이즈 애플리케이션 서버로, Java EE(현재 Jakarta EE) 기반 애플리케이션을 개발하고 배포하기 위한 플랫폼이다. 이 서버는 온프레미스 또는 클라우드 환경에서 고성능, 확장성, 관리 편의성을 제공하는 미들웨어 역할을 한다. ==역사 및 배경== WebLogic은 원래 WebLogic, Inc.에서 개발한 J2EE 애플리케이션 서버였으며, 1998년 BEA...) 태그: 시각 편집
  • 2025년 10월 7일 (화) 08:48오라클 ADF (역사 | 편집) ‎[5,273 바이트]계발자 (토론 | 기여) (새 문서: 오라클 ADF(Oracle Application Development Framework)은 자바 엔터프라이즈 애플리케이션 개발을 위한 프레임워크이다. 이 프레임워크는 선언적(declarative) 개발, 시각적 도구, MVC 구조, 데이터 바인딩 추상화를 결합하여 개발 생산성을 높이기 위해 설계되었다. ==개요== Oracle ADF는 Java EE 표준과 일부 오픈 소스 기술을 기반으로 구축된 엔드투엔드 애플리케이션 프레임워크이다....) 태그: 시각 편집
  • 2025년 10월 7일 (화) 07:14조건부 에너지 기반 모델 (역사 | 편집) ‎[6,940 바이트]인공무능 (토론 | 기여) (새 문서: 조건부 에너지 기반 모델(conditional energy-based model)은 에너지 기반 모델(Energy Based Model, EBM)의 확장 형태로, 입력이나 조건 변수(condition)에 의존하여 출력 분포을 정의하는 모델이다. 즉 일반적인 EBM이 변수 \(x\) 만을 대상으로 에너지 함수를 정의하는 반면, 조건부 EBM은 \((x, y)\) 또는 \((y \mid x)\) 형태에서 에너지를 정의하고, 주어진 조건 하에서의 확률 분포을 암묵적...) 태그: 시각 편집
(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기