새 문서 목록

IT 위키
새 문서 목록
등록된 사용자 숨기기 | 봇 숨기기 | 넘겨주기를 숨기기
(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기
  • 2025년 10월 21일 (화) 17:27Открытки с благословением (역사 | 편집) ‎[1,622 바이트]68.235.45.23 (토론) (새 문서: == Открытки с благословением == Недавно я искала способ выразить свою любовь и заботу о близких, особенно в такие важные моменты как свадьба, рождение ребенка или просто для поднятия настроения. Хотелось чего-то особенного, не просто открытку, а что-то с душевным по...)
  • 2025년 10월 21일 (화) 14:49RESTful API (역사 | 편집) ‎[4,814 바이트]Agiler (토론 | 기여) (새 문서: RESTful API(Representational State Transfer Application Programming Interface)는 REST 아키텍처 스타일을 따르는 웹 API로, 클라이언트와 서버 간의 통신을 간단하고 일관된 방식으로 설계한 인터페이스이다. ==개요== RESTful API는 HTTP 프로토콜을 기반으로 자원을 URI(Uniform Resource Identifier)로 표현하고, HTTP 메서드(GET, POST, PUT, DELETE 등)를 통해 자원을 조작한다. REST 아키텍처는 상태 비저장(s...) 태그: 시각 편집
  • 2025년 10월 21일 (화) 06:54Git checkout (역사 | 편집) ‎[3,783 바이트]Agiler (토론 | 기여) (새 문서: ‘git checkout’는 Git 저장소 내에서 브랜치(branch), 커밋(commit), 파일 상태(file state)를 전환하거나 복원하는 명령어이다. ==개요== '''git checkout''' 명령어는 현재 작업 디렉터리(working tree)와 HEAD가 가리키는 브랜치를 업데이트하여, 사용자가 지정한 브랜치나 커밋의 스냅샷(snapshot)으로 전환한다. <ref>https://git-scm.com/docs/git-checkout</ref> 이 명령어로 다음과 같은 작업이 가능...) 태그: 시각 편집
  • 2025년 10월 17일 (금) 03:18깁스 분포 (역사 | 편집) ‎[3,345 바이트]인공무능 (토론 | 기여) (새 문서: '''깁스 분포'''(Gibbs distribution, Gibbs measure)는 통계역학, 확률 이론, 기계 학습 등에서 많이 쓰이는 확률 분포로, 상태의 에너지(또는 비용)에 따라 확률을 배정하는 지수 형태 확률 분포이다. ==정의== 깁스 분포는 상태 공간 \(\mathcal{X}\) 위에서 정의되고, 각 상태 \(x \in \mathcal{X}\)에 대응하는 에너지 함수 \(E(x)\)가 있을 때 다음과 같은 꼴을 가진다: \[ P(x) = \frac{1}{Z} \exp\...) 태그: 시각 편집
  • 2025년 10월 17일 (금) 03:17Softargmax (역사 | 편집) ‎[3,186 바이트]인공무능 (토론 | 기여) (새 문서: '''softargmax'''(soft arg‑max, 또는 soft‑argmax)는 비정형적인 arg max의 미분 가능(연속) 근사 버전이다. ==정의 및 개념== softargmax는 입력 벡터 \( \mathbf{z} = (z_1, z_2, \dots, z_K) \in \mathbb{R}^K \)에 대해, 각 성분에 확률 형태로 점유율을 부여하는 함수다. 보통 softmax 함수가 “softargmax”라고 불리기도 한다. <ref>“Softmax function”, Wikipedia</ref> 표준 softmax 정의는 \[ \sigma(\mathbf{z})_k...) 태그: 시각 편집
  • 2025년 10월 17일 (금) 03:06Argmin (역사 | 편집) ‎[2,747 바이트]인공무능 (토론 | 기여) (새 문서: '''argmin'''(argument of the minimum, 줄여서 “arg min” 또는 “argmin”)는 함수가 최소값을 갖는 지점(입력 변수의 값)을 나타내는 연산자이다. ==정의== 함수 \(f: X \to \mathbb{R}\)와 그 정의역의 부분집합 \(S \subseteq X\)가 주어졌을 때, \[ \arg\min_{x \in S} f(x) = \{\, x \in S \mid \forall\, s \in S,\; f(x) \le f(s) \} \] 로 정의된다. 즉, \(S\) 내에서 \(f(x)\)가 최소값을 갖는 모든 \(x\)의 집합이다...) 태그: 시각 편집
  • 2025년 10월 17일 (금) 03:03Argmax (역사 | 편집) ‎[1,687 바이트]인공무능 (토론 | 기여) (새 문서: '''argmax'''(argument of the maximum, 줄여서 “arg max” 또는 “argmax”)는 함수가 최댓값을 갖는 지점(변수의 값)을 가리키는 연산자이다. ==정의== \(\arg\max\)는 주어진 함수 \(f: X \to \mathbb{R}\)와 부분집합 \(S \subseteq X\)에 대해, \[ \arg\max_{x \in S} f(x) = \{x \in S \mid f(x) \ge f(s) \text{ for all } s \in S\} \] 로 정의된다. 즉, 정의역 \(S\) 내에서 함수 \(f\)의 값이 최대가 되는 모든 \(x\)의...) 태그: 시각 편집
  • 2025년 10월 16일 (목) 08:44과도한 활성값 (역사 | 편집) ‎[7,967 바이트]인공무능 (토론 | 기여) (새 문서: 과도한 활성값(Massive Activation)은 신경망 내부의 일부 활성(activation)이 다른 활성들에 비해 매우 큰 값을 가지는 현상을 가리킨다. 특히 대형 언어 모델(LLM)에서 이러한 현상이 반복적으로 관찰되며, 단순한 이상치(outlier)를 넘어 모델 동작의 중요한 요소로 역할하는 것으로 보고된다. ==정의 및 개념== 과도한 활성값은 전체 활성 공간 중 극히 일부의 차원(dimension)에서...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 02:21Git rebase (역사 | 편집) ‎[4,712 바이트]Agiler (토론 | 기여) (새 문서: 깃 리베이스(Git rebase)는 한 브랜치의 커밋들을 다른 기준(베이스) 커밋 위에 다시 적용하는 작업이다. 즉, 브랜치의 기반을 새 커밋 위로 옮기면서 커밋 히스토리를 재작성하는 수단이다. ==개념 및 원리== 리베이스는 “현재 브랜치에 있는, 아직 기준(upstream)에 포함되지 않은 커밋들”을 임시로 떼어낸 뒤, 목표 기준 커밋(또는 브랜치)의 최신 상태 위에 하나씩 다...)
  • 2025년 10월 15일 (수) 02:20Git Rebase (역사 | 편집) ‎[28 바이트]Agiler (토론 | 기여) (새 문서: 깃 리베이스(Git rebase)는 한 브랜치의 커밋들을 다른 기준(베이스) 커밋 위에 다시 적용하는 작업이다. 즉, 브랜치의 기반을 새 커밋 위로 옮기면서 커밋 히스토리를 재작성하는 수단이다. ==개념 및 원리== 리베이스는 “현재 브랜치에 있는, 아직 기준(upstream)에 포함되지 않은 커밋들”을 임시로 떼어낸 뒤, 목표 기준 커밋(또는 브랜치)의 최신 상태 위에 하나씩 다...)
  • 2025년 10월 15일 (수) 02:20Git merge (역사 | 편집) ‎[4,073 바이트]Agiler (토론 | 기여) (새 문서: 깃 머지(Git merge)는 두 개 이상의 브랜치의 변경 내역을 하나로 합치는 작업이다. 즉, 별도로 개발된 브랜치들의 커밋 흐름을 하나의 브랜치에 병합하여 통합된 히스토리를 만드는 방법이다. ==개념 및 원리== 머지는 공통 조상 커밋을 기준으로 각각의 브랜치 변경사항을 비교한 뒤, 공통 조상 이후의 변경을 한쪽 브랜치(현재 브랜치)에 반영하는 방식이다. 간단한...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 02:08Git rebasae (역사 | 편집) ‎[35 바이트]Agiler (토론 | 기여) (새 문서: 깃 리베이스(Git rebase)는 한 브랜치의 커밋들을 다른 기준(베이스) 커밋 위에 다시 적용하는 작업이다. 즉, 브랜치의 기반을 새 커밋 위로 옮기면서 커밋 히스토리를 재작성하는 수단이다. ==개념 및 원리== 리베이스는 “현재 브랜치에 있는, 아직 기준(upstream)에 포함되지 않은 커밋들”을 임시로 떼어낸 뒤, 목표 기준 커밋(또는 브랜치)의 최신 상태 위에 하나씩 다...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 01:08행렬의 랭크 (역사 | 편집) ‎[2,553 바이트]인공무능 (토론 | 기여) (새 문서: 행렬의 랭크(영어: rank of a matrix)는 행렬에서 선형 독립한 행 또는 열벡터의 최대 개수를 나타내는 수로, 벡터 공간의 차원과 선형 변환의 구조를 분석하는 데 중요한 개념이다. ==정의== 행렬 A의 랭크는 다음과 같이 정의된다: *행 랭크(row rank): 행렬 A의 행벡터들 중 선형 독립한 최대 개수 *열 랭크(column rank): 행렬 A의 열벡터들 중 선형 독립한 최대 개수 모든 행렬에...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 01:04가우스 소거법 (역사 | 편집) ‎[2,223 바이트]인공무능 (토론 | 기여) (새 문서: 가우스 소거법(독일어: Gaußsches Eliminationsverfahren, 영어: Gaussian elimination)은 연립방정식 해법, 행렬의 기저 및 랭크 계산 등에 사용되는 선형대수학의 기초적인 알고리즘으로, 행 연산을 통해 행렬을 계단형으로 바꾸는 절차이다. ==정의== 가우스 소거법은 행렬에 다음과 같은 기본 행 연산을 반복 적용하여 계단형(row echelon form) 또는 기약 계단형(reduced row echelon form, RRE...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 01:01선형 독립 (역사 | 편집) ‎[2,246 바이트]인공무능 (토론 | 기여) (새 문서: 선형 독립(線型獨立, 영어: linear independence)은 벡터 공간에서 여러 벡터가 서로 선형 결합으로 표현되지 않는 관계를 의미하며, 기저와 차원 정의의 핵심 개념이다. ==정의== 벡터 공간 V의 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 조건을 만족할 때 이 집합은 '''선형 독립'''이라 한다: *임의의 스칼라 \(a_1, a_2, ..., a_n\)에 대해 **\(a_1 v_1 + a_2 v_2 + ... + a_n v_n = 0\) 이 성립하면...)
  • 2025년 10월 15일 (수) 01:00벡터의 차원 (역사 | 편집) ‎[2,244 바이트]인공무능 (토론 | 기여) (새 문서: 벡터의 차원(次元, 영어: dimension of a vector space)은 벡터 공간을 구성하는 데 필요한 최소한의 선형 독립 벡터의 수를 의미하며, 해당 공간의 구조를 수치적으로 나타내는 중요한 개념이다. ==정의== 벡터 공간 V의 차원은 V의 기저를 이루는 벡터들의 개수로 정의된다. *벡터 공간 V의 차원은 기호로 \(\dim V\) 또는 \(\operatorname{dim}(V)\)로 나타낸다. *기저는 여러 개 존재할...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 00:57벡터의 기저 (역사 | 편집) ‎[2,305 바이트]인공무능 (토론 | 기여) (새 문서: 벡터의 기저(基底, 영어: basis of a vector space)는 벡터 공간을 구성하는 최소한의 벡터 집합으로, 모든 벡터를 유일하게 선형 결합으로 표현할 수 있게 하는 벡터들의 집합이다. ==정의== 벡터 공간 V에서 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 두 조건을 만족할 때, 이 집합을 V의 '''기저'''라 한다: *생성 조건: 집합 \(\{v_1, ..., v_n\}\)의 선형 결합으로 V의 모든 벡터를 표현...) 태그: 시각 편집
  • 2025년 10월 15일 (수) 00:50선형독립 (역사 | 편집) ‎[31 바이트]인공무능 (토론 | 기여) (새 문서: 선형 독립(線型獨立, 영어: linear independence)은 벡터 공간에서 여러 벡터가 서로 선형 결합으로 표현되지 않는 관계를 의미하며, 기저와 차원 정의의 핵심 개념이다. ==정의== 벡터 공간 V의 벡터 집합 \(\{v_1, v_2, ..., v_n\}\)이 다음 조건을 만족할 때 이 집합은 '''선형 독립'''이라 한다: *임의의 스칼라 \(a_1, a_2, ..., a_n\)에 대해 **\(a_1 v_1 + a_2 v_2 + ... + a_n v_n = 0\) 이 성립하면...) 태그: 시각 편집
  • 2025년 10월 14일 (화) 06:16OLS 회귀분석 (역사 | 편집) ‎[4,407 바이트]인공무능 (토론 | 기여) (새 문서: '''OLS 회귀분석'''(Ordinary Least Squares 회귀분석)은 관측된 자료에 가장 잘 맞는 직선(혹은 초평면)을 찾기 위해, 잔차의 제곱합을 최소화하는 회귀계수를 추정하는 방법이다. * 최소제곱법이라고도 한다. (ex. 최소제곱법 회귀분석) ==개념 및 목적== OLS는 독립 변수(설명 변수)와 종속 변수(반응 변수) 사이의 선형 관계를 모델링하고, 이 관계를 설명하는 계수들을 추정...) 태그: 시각 편집
  • 2025년 10월 13일 (월) 03:22ORM 프레임워크 (역사 | 편집) ‎[3,747 바이트]Agiler (토론 | 기여) (새 문서: ORM 프레임워크는 객체 지향 프로그래밍 언어의 객체 모델과 관계형 데이터베이스의 테이블 구조 사이의 변환(mapping)을 자동화하고 단순화해 주는 소프트웨어 계층이다. ==개념 및 역할== ORM(Object-Relational Mapping)은 객체 지향 프로그래밍 언어에서 사용하는 객체와 그 속성들을 관계형 데이터베이스의 테이블, 컬럼, 키 등의 구조와 매핑하는 기술이다.<ref>“Object–relat...) 태그: 시각 편집
  • 2025년 10월 13일 (월) 03:19SQLAlchemy (역사 | 편집) ‎[5,327 바이트]Agiler (토론 | 기여) (새 문서: SQLAlchemy는 파이썬에서 관계형 데이터베이스와 상호작용하기 위한 SQL 툴킷이자 객체 관계 매핑(ORM) 라이브러리이다. == 개요 == SQLAlchemy는 파이썬 개발자에게 SQL의 모든 기능과 데이터베이스 지속성 패턴을 파이썬스러운 방식으로 사용할 수 있게 해 주며, 성능과 유연성을 모두 고려한 설계가 특징이다.<ref>SQLAlchemy 공식 문서</ref><ref>“Overview — SQLAlchemy 2.0 Documentation...)
  • 2025년 10월 10일 (금) 06:22Argon2id (역사 | 편집) ‎[8,996 바이트]보안기사 (토론 | 기여) (새 문서: '''Argon2id'''은 암호 해싱 및 키 유도 함수(Password-Based Key Derivation Function, PBKDF)의 한 형태로, 암호 저장 및 검증에 강점을 지닌 알고리즘이다. ==개요== Argon2 계열은 2015년 열린 비밀번호 해싱 경연 대회(Password Hashing Competition)의 우승 알고리즘이다. Argon2에는 세 가지 변형이 있다: '''Argon2d''', '''Argon2i''', '''Argon2id'''. 이 중 Argon2id는 Argon2i와 Argon2d의 장점을 혼합한 하이브리...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 14:01PyTorch named parameters 메서드 (역사 | 편집) ‎[2,955 바이트]인공무능 (토론 | 기여) (새 문서: named_parameters()는 PyTorch에서 제공하는 메서드로, 신경망 모델의 모든 학습 가능한 파라미터(parameter)에 대해 해당 파라미터의 이름(name)과 파라미터 객체(torch.nn.Parameter)를 함께 반환한다. 이 메서드는 torch.nn.Module을 상속받은 모든 모델에서 사용 가능하며, 레이어별 파라미터에 이름을 기준으로 접근하거나 필터링할 수 있도록 도와준다. ==개요== PyTorch의 모든 모델은 t...)
  • 2025년 10월 9일 (목) 13:50PyTorch Parameter grad (역사 | 편집) ‎[2,777 바이트]인공무능 (토론 | 기여) (새 문서: '''Parameter.grad''' 속성(PyTorch)은 '''torch.nn.Parameter''' 객체에 대해 역전파(backpropagation)를 통해 계산된 '''기울기(gradient)''' 를 저장하는 텐서 속성이다. ==개요== *'''Parameter''' 객체는 '''requires_grad=True'''일 때, 손실 함수에 대해 '''loss.backward()'''가 호출되면 '''.grad''' 속성에 기울기 값이 저장된다. <ref>[https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html Autograd tutorial — PyTorch]...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 13:45PyTorch Parameter 클래스 (역사 | 편집) ‎[2,447 바이트]인공무능 (토론 | 기여) (새 문서: Parameter(PyTorch의 torch.nn.Parameter)는 학습 가능한 모델 파라미터를 나타내는 '''특수 텐서''' 클래스이다. 일반 텐서와 달리 모듈(nn.Module)에 속성으로 할당되면 자동으로 모델의 학습 대상 파라미터로 등록된다. ==개요== *'''Parameter'''는 '''torch.Tensor'''를 상속한 클래스이다. <ref>[https://pytorch.org/docs/stable/generated/torch.nn.parameter.Parameter.html Parameter — PyTorch]</ref> *생성 형식은...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 13:40PyTorch named parameters (역사 | 편집) ‎[52 바이트]인공무능 (토론 | 기여) (새 문서: named_parameters()는 PyTorch에서 제공하는 메서드로, 신경망 모델의 모든 학습 가능한 파라미터(parameter)에 대해 해당 파라미터의 이름(name)과 파라미터 객체(torch.nn.Parameter)를 함께 반환한다. 이 메서드는 torch.nn.Module을 상속받은 모든 모델에서 사용 가능하며, 레이어별 파라미터에 이름을 기준으로 접근하거나 필터링할 수 있도록 도와준다. ==개요== PyTorch의 모든 모델은 t...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 13:30LASSO (역사 | 편집) ‎[4,603 바이트]인공무능 (토론 | 기여) (새 문서: LASSO(Least Absolute Shrinkage and Selection Operator, 라쏘 회귀)는 회귀 분석 기법의 하나로, 가중치의 절댓값 합(ℓ₁ 노름)에 패널티를 부과하여 과적합을 방지하고 변수 선택(feature selection) 효과를 동시에 얻는 정규화된 회귀 방식이다. ==정의 및 수식== LASSO 회귀는 전통적 최소 제곱법(OLS, Ordinary Least Squares)의 손실 함수에 ℓ₁ 페널티 항을 추가한 형태로 정의된다. 목적 함...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 13:27L1 정규화 (역사 | 편집) ‎[2,368 바이트]인공무능 (토론 | 기여) (새 문서: L1 정규화(L1 Regularization, 라쏘(Lasso) 규제)는 기계 학습 및 통계 모델에서 과적합(overfitting)을 방지하고 모델의 복잡도를 제어하기 위해 사용하는 정규화 기법 중 하나다. 이 방식은 가중치 벡터의 절댓값 합(ℓ₁ 노름)에 패널티를 부여하는 방식이다. ==정의 및 수식== L1 정규화에서는 기본 손실 함수(예: 평균 제곱 오차, 교차 엔트로피 등)에 다음과 같은 패널티 항을...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:46베이지안 심층 신경망 (역사 | 편집) ‎[3,507 바이트]인공무능 (토론 | 기여) (새 문서: 베이지안 심층 신경망(Bayesian Deep Neural Network, BNN 또는 Bayesian Deep Learning)은 전통적 인공신경망의 가중치 및 매개변수(parameter)를 고정값이 아닌 확률분포로 모델링하여, 예측의 불확실성까지 함께 고려할 수 있는 심층 신경망 모델이다. ==개념 및 동기== - 전통적 신경망은 학습 후 각 가중치가 고정된 값으로 결정되지만, 베이지안 심층 신경망에서는 각 가중치가 사전...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:44변분 추론 (역사 | 편집) ‎[2,320 바이트]인공무능 (토론 | 기여) (새 문서: 변분 추론(Variational Inference, VI)은 베이지안 추론에서 직접 계산하기 어려운 사후 확률 분포를, 최적화 기법을 활용해 해석 가능한 분포군 안에서 근사하는 방식이다. ==개념 및 기본 아이디어== *베이지안 통계 모델에서는 관측 데이터 \(x\)와 잠재 변수 \(z\)가 있을 때 사후 분포 \(p(z|x)\)를 구하는 것이 핵심 목표지만, 보통 이 분포는 적분이 불가능하거나 계산이 매우...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:43변분 자유 에너지 (역사 | 편집) ‎[3,173 바이트]인공무능 (토론 | 기여) (새 문서: 변분 자유 에너지(Variational Free Energy)는 베이지안 추론, 정보 이론, 인지 신경과학 등에서 사용되는 함수로, 관측된 데이터와 내부 생성 모델 간의 불일치를 정량화하는 수학적 척도이다. * 자유 에너지 원리(Free Energy Principle)에서의 "자유 에너지"는 통계물리학적 개념이 아니라 이 변분 자유 에너지를 의미한다. ==개념== 변분 자유 에너지는 주...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:39평형 전파 (역사 | 편집) ‎[4,932 바이트]인공무능 (토론 | 기여) (새 문서: 평형 전파(Equilibrium propagation, EP)는 에너지 기반 모델(energy‑based model)을 학습하기 위한 생물학적으로 더 타당한 알고리즘으로, 추론과 학습 단계를 통합하여 동일한 신경 회로(dynamic)를 사용하면서 역전파(backpropagation)와 유사한 기울기 계산을 가능하게 하는 방식이다 <ref>[https://arxiv.org/abs/1602.05179 Equilibrium Propagation: Bridging the Gap Between Energy‑Base...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:36능동 추론 (역사 | 편집) ‎[3,350 바이트]인공무능 (토론 | 기여) (새 문서: 능동 추론(Active Inference)은 자유 에너지 원리(Free Energy Principle)를 행동까지 확장한 이론적 틀로, 지각(perception) 뿐만 아니라 행위(action)도 내부 모델과 예측 오차 최소화 관점에서 설명한다 <ref>[https://direct.mit.edu/books/oa-monograph/5299/Active-InferenceThe-Free-Energy-Principle-in-Mind Active Inference: The Free Energy Principle in Mind, Brain, and Behavior, MIT Press]</ref> ==개념 및 기본 원리== Active Infere...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:35베이지안 뇌 가설 (역사 | 편집) ‎[3,972 바이트]인공무능 (토론 | 기여) (새 문서: 베이지안 뇌 가설(Bayesian Brain Hypothesis)은 뇌가 감각 입력 아래 숨겨진 원인(hidden causes)을 추론하기 위해 확률적 모델(생성 모델, generative model)을 내재적으로 사용하며, 그 모델과 입력의 불일치를 최소화하는 방식으로 지각 및 인지를 수행한다는 가설이다. ==개념과 기본 아이디어== 베이지안 뇌 가설의 핵심은 다음과 같다: *뇌는 감각 입력이 발생한 원인을 내부적으...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:31적극적 추론 (역사 | 편집) ‎[31 바이트]인공무능 (토론 | 기여) (새 문서: 적극적 추론(Active Inference)은 자유 에너지 원리(Free Energy Principle)를 행동까지 확장한 이론적 틀로, 지각(perception) 뿐만 아니라 행위(action)도 내부 모델과 예측 오차 최소화 관점에서 설명한다 <ref>[https://direct.mit.edu/books/oa-monograph/5299/Active-InferenceThe-Free-Energy-Principle-in-Mind Active Inference: The Free Energy Principle in Mind, Brain, and Behavior, MIT Press]</ref> ==개념 및 기본 원리== Active Inf...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:29예측 부호화 (역사 | 편집) ‎[4,325 바이트]인공무능 (토론 | 기여) (새 문서: Predictive coding(예측 부호화, 혹은 predictive processing)는 뇌가 감각 입력을 단순히 수동적으로 받아들이는 것이 아니라, 내부 모델을 통해 감각 입력을 예측하고, 실제 입력과 예측 간의 차이(예측 오차)를 이용해 내부 표현과 모형을 지속적으로 수정함으로써 지각 및 인지를 수행한다는 이론이다 <ref>[https://arxiv.org/abs/2107.12979 Predictive Coding: a Theoretical and Experimental Review,...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:24대조적 헤비안 학습 (역사 | 편집) ‎[3,120 바이트]인공무능 (토론 | 기여) (새 문서: 대조적 헤비안 학습(Contrastive Hebbian Learning, CHL)은 전통적인 헤비안 학습 규칙을 확장한 방식으로, 출력 뉴런을 고정(clamp)한 상태와 자유 상태(free state)에서의 신경망 상태 차이를 이용해 가중치를 갱신하는 생물학적 학습 알고리즘이다. ==개념 및 동작 방식== CHL은 두 단계(phase)를 거쳐 학습을 수행한다: *'''자유 상태 (Free phase)''': 입력만 고정하고 출력은 자유롭게 활...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:17헤비안 학습 (역사 | 편집) ‎[2,646 바이트]인공무능 (토론 | 기여) (새 문서: 헤비안 학습(Hebbian Learning)은 신경세포 간의 활동 상관관계에 기반하여 시냅스 강도를 조정하는 학습 규칙으로, 일반적으로 "함께 발화하는 뉴런들이 연결된다(neurons that fire together, wire together)"는 방식으로 요약된다. ==개념 및 기본 원리== 헤비안 학습은 두 뉴런이 동시에 활발히 활성화될 때 그 사이의 시냅스 연결이 강화된다는 원칙에 기반한다. 이 규칙은 신경가...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 12:12자유 에너지 원리 (역사 | 편집) ‎[3,968 바이트]인공무능 (토론 | 기여) (새 문서: 자유 에너지 원리(Free Energy Principle, FEP)는 생명체 또는 인지 시스템이 주변 환경과의 상호작용 속에서 내부 상태와 행동을 조정해 나가며, '''변분 자유 에너지(variational free energy)''' 를 최소화하려 한다는 이론적 원칙이다. == 개념 및 기본 아이디어 == 자유 에너지 원리는 시스템이 “놀람(surprise, 관찰된 감각 입력이 내부 모델 하에서 얼마나 불가능해 보이는가)”을...)
  • 2025년 10월 9일 (목) 12:09예측 부호화 신경망 (역사 | 편집) ‎[3,892 바이트]인공무능 (토론 | 기여) (새 문서: 예측 부호화 신경망(Predictive Coding Networks, PCNs)은 뇌가 감각 입력을 예측하고, 예측과 실제 입력의 차이(오차)를 통해 내부 표현을 조정함으로써 정보를 처리하는 매커니즘을 모방한 계층적 인공 신경망 구조이다. ==개념 및 배경== 예측 부호화(predictive coding)는 뇌가 환경에 대한 내부 모델을 통해 감각 정보를 능동적으로 예측하고, 그 예측과 실제 입력의 오차를 줄이...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 06:10블록 부동소수점 양자화 (역사 | 편집) ‎[9,114 바이트]인공무능 (토론 | 기여) (새 문서: 블록 부동소수점(블록 부동소수점 양자화, Block Floating‑Point Quantization)은 여러 값들을 하나의 공통 지수(exponent)를 공유하는 방식으로 표현하는 양자화 기법이다. 즉, 블록 내부의 여러 데이터(예: 동일 텐서의 일부 원소들)가 동일한 지수를 사용하고, 각 원소는 공유 지수에 대해 상대적 소수부(mantissa)만을 갖는 방식이다. ==개념 및 배경== 전통적인 IEEE 부동소수점...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 05:50학습 가능한 양자화 기법 (역사 | 편집) ‎[3,860 바이트]인공무능 (토론 | 기여) (새 문서: * 상위 문서: 신경망 양자화 * 상위 문서: 신경망 양자화 기법 '''학습 가능한 양자화(Learnable Quantization) 기법'''은 양자화의 하이퍼파라미터(예: 클리핑 한계, 구간 간격, 스케일 등)를 고정하지 않고, 학습 과정에서 함께 최적화하는 방식이다. * 이 접근법은 모델이 양자화 오차에 스스로 적응하도록 만들어 정확도 손실을 최소화한다. == PACT (Parameterized Clipping...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 02:17가중치 크기 기반 가지치기 (역사 | 편집) ‎[3,723 바이트]인공무능 (토론 | 기여) (새 문서: '''가중치 크기 기반 가지치기'''는 딥러닝 모델에서 중요도가 낮은 가중치를 제거하여 연산량과 모델 크기를 줄이는 대표적인 가지치기(pruning) 기법이다. 가지치기 대상은 일반적으로 절댓값이 작은 가중치로 간주되며, 이를 제거하여 희소성(sparsity)을 유도한다. ==개념== 가중치 크기 기반 가지치기는 학습이 완료된(또는 진행 중인) 신경망에서 각 가중치의 절댓값...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:38CIFAR 데이터셋 (역사 | 편집) ‎[3,661 바이트]인공무능 (토론 | 기여) (새 문서: '''CIFAR 데이터셋'''은 이미지 인식 및 머신러닝 연구에서 널리 사용되는 소형 컬러 이미지 데이터셋이다. 대표적으로 '''CIFAR-10'''과 '''CIFAR-100'''이 존재하며, 각기 다른 분류 수준을 제공한다. ==개요== CIFAR는 "Canadian Institute for Advanced Research"의 약자로, 원래는 MIT의 Tiny Images 프로젝트에서 파생된 데이터셋이다. 이 데이터셋들은 32×32 픽셀 크기의 컬러 이미지로 구성되...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:33ResNet (역사 | 편집) ‎[10,165 바이트]인공무능 (토론 | 기여) (새 문서: '''ResNet'''(Residual Network)은 딥러닝에서 층이 매우 깊은 신경망을 안정적으로 학습하기 위해 제안된 구조이다. ==개요== ResNet은 입력을 그대로 다음 층에 더해주는 '''스킵 연결(skip or shortcut connection)'''을 도입하여, 각 층이 원래 함수 H(x)를 직접 학습하는 대신 잔차(residual) 함수 F(x) = H(x) - x를 학습하도록 재정의한 구조이다. 이 방식은 기울기 소실(vanishing gradient) 문제...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:21Python (역사 | 편집) ‎[27 바이트]인공무능 (토론 | 기여) (파이썬 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
  • 2025년 10월 9일 (목) 01:20파이썬 (역사 | 편집) ‎[3,645 바이트]인공무능 (토론 | 기여) (새 문서: '''파이썬'''(영어: Python)은 범용 고수준 프로그래밍 언어로, 가독성과 생산성을 강조하며 설계되었다. ==개요== 파이썬은 인터프리터 방식으로 실행되며, 동적 타이핑 및 자동 메모리 관리 기능을 제공한다. 여러 프로그래밍 패러다임(절차적, 객체지향, 함수형 등)을 지원하며, 방대한 표준 라이브러리와 생태계를 갖춘 언어이다. ==역사== 파이썬은 1980년대 말 네덜란...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:19Jupyter Notebook (역사 | 편집) ‎[3,551 바이트]인공무능 (토론 | 기여) (새 문서: '''Jupyter Notebook'''은 웹 기반 대화형 컴퓨팅 환경으로, 코드, 설명 텍스트, 시각화 등을 하나의 문서 내에서 통합하여 실행할 수 있게 해 준다. ==개요== Jupyter Notebook은 웹 브라우저를 통해 노트북(.ipynb) 문서를 작성하고 실행할 수 있는 서버‑클라이언트 응용 프로그램이다. 사용자는 코드 셀, 마크다운 셀, 수식, 그래프, 이미지 등을 조합하여 분석 흐름을 문서화할...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:17Google Colab (역사 | 편집) ‎[3,748 바이트]인공무능 (토론 | 기여) (새 문서: '''Google Colab'''(영어: Google Colaboratory)은 사용자가 웹 브라우저에서 파이썬 코드를 작성하고 실행할 수 있게 해 주는 클라우드 기반 노트북 환경이다. 구글이 제공하며, 별도의 로컬 설정 없이도 GPU/TPU 등의 계산 자원을 활용할 수 있다. ==개요== Google Colab은 Jupyter Notebook 환경을 클라우드에서 호스팅한 서비스다. 사용자는 로컬에 파이썬 환경을 구축할 필요 없이, 브라...) 태그: 시각 편집
  • 2025년 10월 9일 (목) 01:11양자화 (딥 러닝) (역사 | 편집) ‎[37 바이트]인공무능 (토론 | 기여) (신경망 양자화 문서로 넘겨주기) 태그: 새 넘겨주기
(최신 | 오래됨) ( | ) (20 | 50 | 100 | 250 | 500) 보기