인공무능의 사용자 기여

IT 위키
기여 검색펼치기접기
⧼contribs-top⧽
⧼contribs-date⧽

(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기

2025년 10월 17일 (금)

2025년 10월 16일 (목)

2025년 10월 15일 (수)

  • 01:082025년 10월 15일 (수) 01:08 차이 역사 +2,553 새글 행렬의 랭크새 문서: 행렬의 랭크(영어: rank of a matrix)는 행렬에서 선형 독립한 행 또는 열벡터의 최대 개수를 나타내는 수로, 벡터 공간의 차원과 선형 변환의 구조를 분석하는 데 중요한 개념이다. ==정의== 행렬 A의 랭크는 다음과 같이 정의된다: *행 랭크(row rank): 행렬 A의 행벡터들 중 선형 독립한 최대 개수 *열 랭크(column rank): 행렬 A의 열벡터들 중 선형 독립한 최대 개수 모든 행렬에... 최신 태그: 시각 편집
  • 01:042025년 10월 15일 (수) 01:04 차이 역사 +2,223 새글 가우스 소거법새 문서: 가우스 소거법(독일어: Gaußsches Eliminationsverfahren, 영어: Gaussian elimination)은 연립방정식 해법, 행렬의 기저 및 랭크 계산 등에 사용되는 선형대수학의 기초적인 알고리즘으로, 행 연산을 통해 행렬을 계단형으로 바꾸는 절차이다. ==정의== 가우스 소거법은 행렬에 다음과 같은 기본 행 연산을 반복 적용하여 계단형(row echelon form) 또는 기약 계단형(reduced row echelon form, RRE... 최신 태그: 시각 편집
  • 01:022025년 10월 15일 (수) 01:02 차이 역사 +16 선형 독립편집 요약 없음 최신 태그: 시각 편집
  • 01:012025년 10월 15일 (수) 01:01 차이 역사 +2,230 새글 선형 독립새 문서: 선형 독립(線型獨立, 영어: linear independence)은 벡터 공간에서 여러 벡터가 서로 선형 결합으로 표현되지 않는 관계를 의미하며, 기저와 차원 정의의 핵심 개념이다. ==정의== 벡터 공간 V의 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 조건을 만족할 때 이 집합은 '''선형 독립'''이라 한다: *임의의 스칼라 \(a_1, a_2, ..., a_n\)에 대해 **\(a_1 v_1 + a_2 v_2 + ... + a_n v_n = 0\) 이 성립하면...
  • 01:012025년 10월 15일 (수) 01:01 차이 역사 −2,199 선형독립선형 독립 문서로 넘겨주기 최신 태그: 새 넘겨주기
  • 01:002025년 10월 15일 (수) 01:00 차이 역사 +2,244 새글 벡터의 차원새 문서: 벡터의 차원(次元, 영어: dimension of a vector space)은 벡터 공간을 구성하는 데 필요한 최소한의 선형 독립 벡터의 수를 의미하며, 해당 공간의 구조를 수치적으로 나타내는 중요한 개념이다. ==정의== 벡터 공간 V의 차원은 V의 기저를 이루는 벡터들의 개수로 정의된다. *벡터 공간 V의 차원은 기호로 \(\dim V\) 또는 \(\operatorname{dim}(V)\)로 나타낸다. *기저는 여러 개 존재할... 최신 태그: 시각 편집
  • 00:572025년 10월 15일 (수) 00:57 차이 역사 +2,305 새글 벡터의 기저새 문서: 벡터의 기저(基底, 영어: basis of a vector space)는 벡터 공간을 구성하는 최소한의 벡터 집합으로, 모든 벡터를 유일하게 선형 결합으로 표현할 수 있게 하는 벡터들의 집합이다. ==정의== 벡터 공간 V에서 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 두 조건을 만족할 때, 이 집합을 V의 '''기저'''라 한다: *생성 조건: 집합 \(\{v_1, ..., v_n\}\)의 선형 결합으로 V의 모든 벡터를 표현... 최신 태그: 시각 편집
  • 00:502025년 10월 15일 (수) 00:50 차이 역사 +2,230 새글 선형독립새 문서: 선형 독립(線型獨立, 영어: linear independence)은 벡터 공간에서 여러 벡터가 서로 선형 결합으로 표현되지 않는 관계를 의미하며, 기저와 차원 정의의 핵심 개념이다. ==정의== 벡터 공간 V의 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 조건을 만족할 때 이 집합은 '''선형 독립'''이라 한다: *임의의 스칼라 \(a_1, a_2, ..., a_n\)에 대해 **\(a_1 v_1 + a_2 v_2 + ... + a_n v_n = 0\) 이 성립하면... 태그: 시각 편집
  • 00:362025년 10월 15일 (수) 00:36 차이 역사 +7 벡터 공간편집 요약 없음 최신 태그: 시각 편집
  • 00:352025년 10월 15일 (수) 00:35 차이 역사 +2,495 벡터 공간편집 요약 없음 태그: 시각 편집

2025년 10월 14일 (화)

2025년 10월 9일 (목)

  • 14:012025년 10월 9일 (목) 14:01 차이 역사 +2,955 새글 PyTorch named parameters 메서드새 문서: named_parameters()는 PyTorch에서 제공하는 메서드로, 신경망 모델의 모든 학습 가능한 파라미터(parameter)에 대해 해당 파라미터의 이름(name)과 파라미터 객체(torch.nn.Parameter)를 함께 반환한다. 이 메서드는 torch.nn.Module을 상속받은 모든 모델에서 사용 가능하며, 레이어별 파라미터에 이름을 기준으로 접근하거나 필터링할 수 있도록 도와준다. ==개요== PyTorch의 모든 모델은 t... 최신
  • 14:012025년 10월 9일 (목) 14:01 차이 역사 −2,903 PyTorch named parametersPyTorch named parameters 메서드 문서로 넘겨주기 최신 태그: 새 넘겨주기
  • 13:572025년 10월 9일 (목) 13:57 차이 역사 +68 PyTorch Parameter grad편집 요약 없음 최신 태그: 시각 편집
  • 13:562025년 10월 9일 (목) 13:56 차이 역사 +13 PyTorch Parameter grad편집 요약 없음 태그: 시각 편집
  • 13:502025년 10월 9일 (목) 13:50 차이 역사 +2,696 새글 PyTorch Parameter grad새 문서: '''Parameter.grad''' 속성(PyTorch)은 '''torch.nn.Parameter''' 객체에 대해 역전파(backpropagation)를 통해 계산된 '''기울기(gradient)''' 를 저장하는 텐서 속성이다. ==개요== *'''Parameter''' 객체는 '''requires_grad=True'''일 때, 손실 함수에 대해 '''loss.backward()'''가 호출되면 '''.grad''' 속성에 기울기 값이 저장된다. <ref>[https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html Autograd tutorial — PyTorch]... 태그: 시각 편집
  • 13:452025년 10월 9일 (목) 13:45 차이 역사 +2,447 새글 PyTorch Parameter 클래스새 문서: Parameter(PyTorch의 torch.nn.Parameter)는 학습 가능한 모델 파라미터를 나타내는 '''특수 텐서''' 클래스이다. 일반 텐서와 달리 모듈(nn.Module)에 속성으로 할당되면 자동으로 모델의 학습 대상 파라미터로 등록된다. ==개요== *'''Parameter'''는 '''torch.Tensor'''를 상속한 클래스이다. <ref>[https://pytorch.org/docs/stable/generated/torch.nn.parameter.Parameter.html Parameter — PyTorch]</ref> *생성 형식은... 최신 태그: 시각 편집
  • 13:402025년 10월 9일 (목) 13:40 차이 역사 +2,955 새글 PyTorch named parameters새 문서: named_parameters()는 PyTorch에서 제공하는 메서드로, 신경망 모델의 모든 학습 가능한 파라미터(parameter)에 대해 해당 파라미터의 이름(name)과 파라미터 객체(torch.nn.Parameter)를 함께 반환한다. 이 메서드는 torch.nn.Module을 상속받은 모든 모델에서 사용 가능하며, 레이어별 파라미터에 이름을 기준으로 접근하거나 필터링할 수 있도록 도와준다. ==개요== PyTorch의 모든 모델은 t... 태그: 시각 편집
  • 13:302025년 10월 9일 (목) 13:30 차이 역사 +4,603 새글 LASSO새 문서: LASSO(Least Absolute Shrinkage and Selection Operator, 라쏘 회귀)는 회귀 분석 기법의 하나로, 가중치의 절댓값 합(ℓ₁ 노름)에 패널티를 부과하여 과적합을 방지하고 변수 선택(feature selection) 효과를 동시에 얻는 정규화된 회귀 방식이다. ==정의 및 수식== LASSO 회귀는 전통적 최소 제곱법(OLS, Ordinary Least Squares)의 손실 함수에 ℓ₁ 페널티 항을 추가한 형태로 정의된다. 목적 함... 최신 태그: 시각 편집
  • 13:292025년 10월 9일 (목) 13:29 차이 역사 +39 L1 정규화편집 요약 없음 최신 태그: 시각 편집
  • 13:272025년 10월 9일 (목) 13:27 차이 역사 +2,329 새글 L1 정규화새 문서: L1 정규화(L1 Regularization, 라쏘(Lasso) 규제)는 기계 학습 및 통계 모델에서 과적합(overfitting)을 방지하고 모델의 복잡도를 제어하기 위해 사용하는 정규화 기법 중 하나다. 이 방식은 가중치 벡터의 절댓값 합(ℓ₁ 노름)에 패널티를 부여하는 방식이다. ==정의 및 수식== L1 정규화에서는 기본 손실 함수(예: 평균 제곱 오차, 교차 엔트로피 등)에 다음과 같은 패널티 항을... 태그: 시각 편집
  • 13:262025년 10월 9일 (목) 13:26 차이 역사 +4 합성곱 신경망편집 요약 없음 태그: 시각 편집
  • 13:262025년 10월 9일 (목) 13:26 차이 역사 +8 가중치 감소편집 요약 없음 최신 태그: 시각 편집
  • 12:472025년 10월 9일 (목) 12:47 차이 역사 −331 베이지안 심층 신경망편집 요약 없음 최신 태그: 시각 편집
  • 12:472025년 10월 9일 (목) 12:47 차이 역사 −3 베이지안 심층 신경망편집 요약 없음
  • 12:462025년 10월 9일 (목) 12:46 차이 역사 +3,841 새글 베이지안 심층 신경망새 문서: 베이지안 심층 신경망(Bayesian Deep Neural Network, BNN 또는 Bayesian Deep Learning)은 전통적 인공신경망의 가중치 및 매개변수(parameter)를 고정값이 아닌 확률분포로 모델링하여, 예측의 불확실성까지 함께 고려할 수 있는 심층 신경망 모델이다. ==개념 및 동기== - 전통적 신경망은 학습 후 각 가중치가 고정된 값으로 결정되지만, 베이지안 심층 신경망에서는 각 가중치가 사전... 태그: 시각 편집
  • 12:442025년 10월 9일 (목) 12:44 차이 역사 +14 변분 추론편집 요약 없음 최신 태그: 시각 편집
  • 12:442025년 10월 9일 (목) 12:44 차이 역사 +2,306 새글 변분 추론새 문서: 변분 추론(Variational Inference, VI)은 베이지안 추론에서 직접 계산하기 어려운 사후 확률 분포를, 최적화 기법을 활용해 해석 가능한 분포군 안에서 근사하는 방식이다. ==개념 및 기본 아이디어== *베이지안 통계 모델에서는 관측 데이터 \(x\)와 잠재 변수 \(z\)가 있을 때 사후 분포 \(p(z|x)\)를 구하는 것이 핵심 목표지만, 보통 이 분포는 적분이 불가능하거나 계산이 매우... 태그: 시각 편집
  • 12:432025년 10월 9일 (목) 12:43 차이 역사 +3,173 새글 변분 자유 에너지새 문서: 변분 자유 에너지(Variational Free Energy)는 베이지안 추론, 정보 이론, 인지 신경과학 등에서 사용되는 함수로, 관측된 데이터와 내부 생성 모델 간의 불일치를 정량화하는 수학적 척도이다. * 자유 에너지 원리(Free Energy Principle)에서의 "자유 에너지"는 통계물리학적 개념이 아니라 이 변분 자유 에너지를 의미한다. ==개념== 변분 자유 에너지는 주... 최신 태그: 시각 편집
  • 12:392025년 10월 9일 (목) 12:39 차이 역사 +4,932 새글 평형 전파새 문서: 평형 전파(Equilibrium propagation, EP)는 에너지 기반 모델(energy‑based model)을 학습하기 위한 생물학적으로 더 타당한 알고리즘으로, 추론과 학습 단계를 통합하여 동일한 신경 회로(dynamic)를 사용하면서 역전파(backpropagation)와 유사한 기울기 계산을 가능하게 하는 방식이다 <ref>[https://arxiv.org/abs/1602.05179 Equilibrium Propagation: Bridging the Gap Between Energy‑Base... 최신 태그: 시각 편집
  • 12:362025년 10월 9일 (목) 12:36 차이 역사 +3,350 새글 능동 추론새 문서: 능동 추론(Active Inference)은 자유 에너지 원리(Free Energy Principle)를 행동까지 확장한 이론적 틀로, 지각(perception) 뿐만 아니라 행위(action)도 내부 모델과 예측 오차 최소화 관점에서 설명한다 <ref>[https://direct.mit.edu/books/oa-monograph/5299/Active-InferenceThe-Free-Energy-Principle-in-Mind Active Inference: The Free Energy Principle in Mind, Brain, and Behavior, MIT Press]</ref> ==개념 및 기본 원리== Active Infere... 최신 태그: 시각 편집
  • 12:352025년 10월 9일 (목) 12:35 차이 역사 −3,371 적극적 추론능동 추론 문서로 넘겨주기 최신 태그: 새 넘겨주기
  • 12:352025년 10월 9일 (목) 12:35 차이 역사 +3,972 새글 베이지안 뇌 가설새 문서: 베이지안 뇌 가설(Bayesian Brain Hypothesis)은 뇌가 감각 입력 아래 숨겨진 원인(hidden causes)을 추론하기 위해 확률적 모델(생성 모델, generative model)을 내재적으로 사용하며, 그 모델과 입력의 불일치를 최소화하는 방식으로 지각 및 인지를 수행한다는 가설이다. ==개념과 기본 아이디어== 베이지안 뇌 가설의 핵심은 다음과 같다: *뇌는 감각 입력이 발생한 원인을 내부적으... 최신 태그: 시각 편집
  • 12:312025년 10월 9일 (목) 12:31 차이 역사 +3,402 새글 적극적 추론새 문서: 적극적 추론(Active Inference)은 자유 에너지 원리(Free Energy Principle)를 행동까지 확장한 이론적 틀로, 지각(perception) 뿐만 아니라 행위(action)도 내부 모델과 예측 오차 최소화 관점에서 설명한다 <ref>[https://direct.mit.edu/books/oa-monograph/5299/Active-InferenceThe-Free-Energy-Principle-in-Mind Active Inference: The Free Energy Principle in Mind, Brain, and Behavior, MIT Press]</ref> ==개념 및 기본 원리== Active Inf... 태그: 시각 편집
  • 12:292025년 10월 9일 (목) 12:29 차이 역사 +4,325 새글 예측 부호화새 문서: Predictive coding(예측 부호화, 혹은 predictive processing)는 뇌가 감각 입력을 단순히 수동적으로 받아들이는 것이 아니라, 내부 모델을 통해 감각 입력을 예측하고, 실제 입력과 예측 간의 차이(예측 오차)를 이용해 내부 표현과 모형을 지속적으로 수정함으로써 지각 및 인지를 수행한다는 이론이다 <ref>[https://arxiv.org/abs/2107.12979 Predictive Coding: a Theoretical and Experimental Review,... 최신 태그: 시각 편집
  • 12:242025년 10월 9일 (목) 12:24 차이 역사 +3,120 새글 대조적 헤비안 학습새 문서: 대조적 헤비안 학습(Contrastive Hebbian Learning, CHL)은 전통적인 헤비안 학습 규칙을 확장한 방식으로, 출력 뉴런을 고정(clamp)한 상태와 자유 상태(free state)에서의 신경망 상태 차이를 이용해 가중치를 갱신하는 생물학적 학습 알고리즘이다. ==개념 및 동작 방식== CHL은 두 단계(phase)를 거쳐 학습을 수행한다: *'''자유 상태 (Free phase)''': 입력만 고정하고 출력은 자유롭게 활... 최신 태그: 시각 편집
  • 12:172025년 10월 9일 (목) 12:17 차이 역사 +2,646 새글 헤비안 학습새 문서: 헤비안 학습(Hebbian Learning)은 신경세포 간의 활동 상관관계에 기반하여 시냅스 강도를 조정하는 학습 규칙으로, 일반적으로 "함께 발화하는 뉴런들이 연결된다(neurons that fire together, wire together)"는 방식으로 요약된다. ==개념 및 기본 원리== 헤비안 학습은 두 뉴런이 동시에 활발히 활성화될 때 그 사이의 시냅스 연결이 강화된다는 원칙에 기반한다. 이 규칙은 신경가... 최신 태그: 시각 편집
  • 12:132025년 10월 9일 (목) 12:13 차이 역사 −4 예측 부호화 신경망편집 요약 없음 최신 태그: 시각 편집
  • 12:122025년 10월 9일 (목) 12:12 차이 역사 +3,968 새글 자유 에너지 원리새 문서: 자유 에너지 원리(Free Energy Principle, FEP)는 생명체 또는 인지 시스템이 주변 환경과의 상호작용 속에서 내부 상태와 행동을 조정해 나가며, '''변분 자유 에너지(variational free energy)''' 를 최소화하려 한다는 이론적 원칙이다. == 개념 및 기본 아이디어 == 자유 에너지 원리는 시스템이 “놀람(surprise, 관찰된 감각 입력이 내부 모델 하에서 얼마나 불가능해 보이는가)”을... 최신
  • 12:102025년 10월 9일 (목) 12:10 차이 역사 −427 예측 부호화 신경망편집 요약 없음 태그: 시각 편집: 전환됨
  • 12:092025년 10월 9일 (목) 12:09 차이 역사 +4,323 새글 예측 부호화 신경망새 문서: 예측 부호화 신경망(Predictive Coding Networks, PCNs)은 뇌가 감각 입력을 예측하고, 예측과 실제 입력의 차이(오차)를 통해 내부 표현을 조정함으로써 정보를 처리하는 매커니즘을 모방한 계층적 인공 신경망 구조이다. ==개념 및 배경== 예측 부호화(predictive coding)는 뇌가 환경에 대한 내부 모델을 통해 감각 정보를 능동적으로 예측하고, 그 예측과 실제 입력의 오차를 줄이... 태그: 시각 편집
  • 06:102025년 10월 9일 (목) 06:10 차이 역사 +9,114 새글 블록 부동소수점 양자화새 문서: 블록 부동소수점(블록 부동소수점 양자화, Block Floating‑Point Quantization)은 여러 값들을 하나의 공통 지수(exponent)를 공유하는 방식으로 표현하는 양자화 기법이다. 즉, 블록 내부의 여러 데이터(예: 동일 텐서의 일부 원소들)가 동일한 지수를 사용하고, 각 원소는 공유 지수에 대해 상대적 소수부(mantissa)만을 갖는 방식이다. ==개념 및 배경== 전통적인 IEEE 부동소수점... 최신 태그: 시각 편집
  • 05:592025년 10월 9일 (목) 05:59 차이 역사 +524 학습 가능한 양자화 기법편집 요약 없음 최신 태그: 시각 편집
  • 05:502025년 10월 9일 (목) 05:50 차이 역사 +3,336 새글 학습 가능한 양자화 기법새 문서: * 상위 문서: 신경망 양자화 * 상위 문서: 신경망 양자화 기법 '''학습 가능한 양자화(Learnable Quantization) 기법'''은 양자화의 하이퍼파라미터(예: 클리핑 한계, 구간 간격, 스케일 등)를 고정하지 않고, 학습 과정에서 함께 최적화하는 방식이다. * 이 접근법은 모델이 양자화 오차에 스스로 적응하도록 만들어 정확도 손실을 최소화한다. == PACT (Parameterized Clipping... 태그: 시각 편집

(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기