새 문서 목록
IT 위키
- 2025년 9월 25일 (목) 09:55 합성곱 신경망 (역사 | 편집) [2,080 바이트] 인공무능 (토론 | 기여) (새 문서: 분류:인공지능분류:딥 러닝 ;Convolutional Neural Network; 합성곱 인공 신경망; 합성곱신경망 * CNN 처리 과정 도식화 600px * 실제 이미지 CNN 처리 과정 예시 600px == 구성 및 절차 == ;대상을 채널별로 나누고, 정보 손실 방지를 위해 패딩을 적용한 후, 필터를 이용해 스트라이드 단위로 합성곱을 해서 피처 맵을 만들어냄. 빠른 처리를 위...)
- 2025년 9월 25일 (목) 09:54 배치 정규화 (역사 | 편집) [2,575 바이트] 인공무능 (토론 | 기여) (새 문서: 배치 정규화(영어: Batch Normalization, 줄여서 BN)는 딥 러닝에서 학습을 안정화하고 속도를 향상시키기 위해 사용되는 정규화 기법이다. 각 층의 입력을 정규화하여 내부 공변량 변화(Internal Covariate Shift)를 줄이는 것을 목적으로 한다. ==개요== *딥러닝 모델은 층이 깊어질수록 학습이 불안정해지고, 기울기 소실/폭주 문제로 인해 학습 속도가 느려진다. *배치 정규화는...) 태그: 시각 편집
- 2025년 9월 25일 (목) 08:54 가지치기 (딥 러닝) (역사 | 편집) [4,502 바이트] 인공무능 (토론 | 기여) (새 문서: 가지치기(영어: Pruning)는 딥 러닝에서 신경망의 불필요한 파라미터(가중치나 뉴런 연결)를 제거하여 모델의 크기를 줄이고 연산 효율을 높이는 기법이다. 이는 나무의 불필요한 가지를 잘라내는 원예 작업에서 유래한 용어로, 신경망의 성능은 유지하면서도 경량화를 달성하기 위해 사용된다. ==개요== *딥 러닝 모델은 수백만~수십억 개의 파라미터를 가지며, 이 중...) 태그: 시각 편집
- 2025년 9월 25일 (목) 08:51 런렝스 인코딩 (역사 | 편집) [2,321 바이트] 인공무능 (토론 | 기여) (새 문서: 런렝스 인코딩(영어: Run-Length Encoding, RLE)은 동일한 값이 연속적으로 반복되는(run) 구간을 압축하여, 데이터 크기를 줄이는 단순한 무손실 압축 기법이다. 주로 데이터에 반복 구간이 많거나 희소 데이터(sparse data)에서 효과적이다. ==개요== *연속된 동일 값을 (값, 반복 길이) 쌍으로 표현한다. *예: [0, 0, 0, 3, 3, 1, 0, 0] → [(0,3), (3,2), (1,1), (0,2)] *일반적으로 흑백 이미지,...) 태그: 시각 편집
- 2025년 9월 25일 (목) 08:49 희소 데이터 (역사 | 편집) [2,815 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|대부분의 값이 0인 희소 데이터 희소 데이터(稀疏-, 영어: Sparse data)는 데이터의 대부분이 0 또는 비어 있는 값으로 이루어진 데이터를 말한다. 반대로, 대부분의 값이 유효한 값을 가지는 데이터는 조밀 데이터(密-, Dense data)라고 한다. 희소 데이터는 수학, 통계학, 데이터 과학, 인공지능 등 다양한 분야에서 다루어지며, 저장 및 연...) 태그: 시각 편집
- 2025년 9월 25일 (목) 08:43 비트맵 인코딩 (압축) (역사 | 편집) [2,108 바이트] 인공무능 (토론 | 기여) (새 문서: 비트맵 인코딩(영어: Bitmap encoding)은 데이터 압축 기법 가운데 하나로, 주어진 데이터에서 특정 값의 존재 여부를 비트 벡터(bitmap)로 표현하는 방식이다. 주로 0과 같이 반복되는 값이 많거나, 데이터가 희소(sparse)한 경우에 효율적이다. ==개요== *비트맵 인코딩은 값들의 위치 정보를 비트열로 표시하여 원본 데이터를 재현할 수 있도록 한다. *각 원소가 특정 값에 해...) 태그: 시각 편집
- 2025년 9월 25일 (목) 08:36 펨토셀 (역사 | 편집) [3,323 바이트] 보안기사 (토론 | 기여) (새 문서: 펨토셀(영어: Femtocell)은 이동통신에서 기지국 신호가 약하거나 혼잡할 때, 가정이나 사무실 같은 소규모 공간에 설치하여 통신 품질을 개선하는 초소형 셀룰러 기지국이다. 기존의 이동통신망(Macrocell)과 인터넷(IP 네트워크)을 연결하여 음성 및 데이터 서비스를 제공한다. ==개요== *펨토셀은 이동통신사에서 제공하는 초소형 기지국 장치로, 유선 인터넷망(예: 광랜,...) 태그: 시각 편집
- 2025년 9월 25일 (목) 08:29 부동소수점 연산 (역사 | 편집) [1,955 바이트] 인공무능 (토론 | 기여) (새 문서: 단위로써의 부동소수점 연산(FLOP, Floating Point Operation)은 컴퓨터가 수행하는 단일 부동소수점 연산을 의미한다. 보통 곱셈, 덧셈, 나눗셈, 제곱근 계산 등이 이에 포함된다. 인공지능, 과학 계산, 고성능 컴퓨팅(HPC)에서는 알고리즘이나 모델의 연산 복잡도를 나타내는 단위로 사용된다. ==정의== *'''FLOP'''은 한 번의 부동소수점 연산을 뜻한다. *'''FLOPs'''는 초당 수행할...) 태그: 시각 편집
- 2025년 9월 25일 (목) 08:28 곱셈-누산 연산 (역사 | 편집) [1,998 바이트] 인공무능 (토론 | 기여) (새 문서: 곱셈-누산 연산(MAC, Multiply–Accumulate operation)은 인공지능 및 딥러닝 모델의 연산량을 측정하는 지표로, 곱셈(multiplication)과 덧셈(accumulation)이 결합된 기본 연산 단위를 의미한다. 주로 합성곱 신경망(CNN)이나 완전연결층(Dense layer)과 같이 대규모 연산이 필요한 구조에서 모델의 연산 복잡도를 비교하는 데 사용된다. ==정의== *'''MAC(Multiply–Accumulate operation)'''은 하나의...) 태그: 시각 편집
- 2025년 9월 25일 (목) 07:34 기울기 폭주 (역사 | 편집) [2,259 바이트] 인공무능 (토론 | 기여) (새 문서: 기울기 폭주(영어: Exploding gradient)는 인공 신경망 학습 과정에서 역전파(backpropagation)를 통해 전달되는 기울기(gradient)가 지수적으로 커지면서 학습이 불안정해지는 현상이다. 이 문제는 특히 순환 신경망(RNN)이나 깊은 신경망에서 흔히 발생한다. ==개요== 신경망은 손실 함수(loss function)를 최소화하기 위해 경사하강법(gradient descent)을 사용한다. 이 과정에서 기울기가...) 태그: 시각 편집
- 2025년 9월 25일 (목) 07:27 합성곱 (역사 | 편집) [1,778 바이트] 인공무능 (토론 | 기여) (새 문서: 합성곱(合成곱, 영어: Convolution)은 두 함수의 형태를 겹쳐 적분(또는 합)하여 새로운 함수를 만드는 연산으로, 신호 처리, 영상 처리, 확률론, 미분방정식 등 수학과 공학 전반에 걸쳐 널리 사용된다. 특히 딥러닝에서는 합성곱 신경망(CNN)의 핵심 연산으로 잘 알려져 있다. ==정의== 연속 함수 f, g에 대한 합성곱은 다음과 같이 정의된다. *(f * g)(t) = ∫ f(τ) g(t - τ) dτ 이...) 태그: 시각 편집
- 2025년 9월 25일 (목) 07:17 야코비안 행렬 (역사 | 편집) [3,148 바이트] 인공무능 (토론 | 기여) (새 문서: 야코비안 행렬(영어: Jacobian matrix)은 다변수 벡터값 함수의 국소적 선형 근사를 나타내는 행렬로, 함수의 도함수 정보를 모아놓은 것이다. 미분학과 벡터 해석학에서 중요한 역할을 하며, 특히 변수 변환, 최적화, 비선형 방정식 해석, 기계학습 등에서 널리 사용된다. == 이름 == 한편, 독일 수학자 카를 구스타프 야코비(Carl Gustav Jacob Jacobi)의 이름에서 유래하였기 때...) 태그: 시각 편집
- 2025년 9월 25일 (목) 07:01 Mixture of Experts (인공지능) (역사 | 편집) [4,688 바이트] 인공무능 (토론 | 기여) (새 문서: Mixture of Experts(줄여서 MoE)는 여러 개의 전문가 모델(expert model)과 게이트(gating) 또는 라우터(router) 메커니즘을 결합하여 입력에 따라 적절한 전문가를 선택하거나 가중합하여 출력을 내는 기계학습 기법이다. 주로 딥러닝에서 모델의 효율적 확장과 성능 향상을 위해 사용된다. ==개요== Mixture of Experts는 입력 공간을 분할하여 각 부분에 대해 특화된 모델이 학습되도록...) 태그: 시각 편집
- 2025년 9월 25일 (목) 06:57 텐서 (인공지능) (역사 | 편집) [3,431 바이트] 인공무능 (토론 | 기여) (새 문서: 텐서(英: Tensor)는 스칼라, 벡터, 행렬 개념을 고차원으로 확장한 수학적 구조로서, 인공지능(머신러닝/딥러닝) 분야에서는 다차원 배열(multi-dimensional array)로 주로 사용된다. ==정의 및 개념== 텐서는 순서(order) 또는 차원(rank)을 가지며, *0차 텐서는 스칼라(scalar) *1차 텐서는 벡터(vector) *2차 텐서는 행렬(matrix) *3차 이상 텐서는 다차원 배열 형태로 일반화된다. 수학적으...) 태그: 시각 편집
- 2025년 9월 25일 (목) 06:52 고유값 문제 (역사 | 편집) [2,297 바이트] 인공무능 (토론 | 기여) (새 문서: 내적 공간(內積空間, 영어: Inner product space)은 벡터 공간에 내적이 정의되어 있는 구조로, 벡터 사이의 길이와 각도를 정의할 수 있게 해준다. 이는 유클리드 공간을 일반화한 개념으로, 해석학, 기하학, 물리학 등 다양한 분야에서 중요한 역할을 한다. ==정의== 체(주로 실수체 또는 복소수체) 위의 벡터 공간 V가 주어졌을 때, 내적 공간은 다음 조건을 만족하는 함수...) 태그: 시각 편집
- 2025년 9월 25일 (목) 06:50 내적 공간 (역사 | 편집) [2,318 바이트] 인공무능 (토론 | 기여) (새 문서: 내적 공간(內積空間, 영어: Inner product space)은 벡터 공간에 내적이 정의되어 있는 구조로, 벡터 사이의 길이와 각도를 정의할 수 있게 해준다. 이는 유클리드 공간을 일반화한 개념으로, 해석학, 기하학, 물리학 등 다양한 분야에서 중요한 역할을 한다. ==정의== 체(주로 실수체 또는 복소수체) 위의 벡터 공간 V가 주어졌을 때, 내적 공간은 다음 조건을 만족하는 함수...) 태그: 시각 편집
- 2025년 9월 25일 (목) 06:50 벡터 공간 (역사 | 편집) [2,672 바이트] 인공무능 (토론 | 기여) (새 문서: 벡터 공간(영어: Vector space)은 벡터라 불리는 원소들의 집합으로, 벡터 덧셈과 스칼라 곱이 정의되어 있으며 특정 공리들을 만족하는 대수적 구조이다. 선형대수학에서 핵심적인 개념으로, 다양한 수학적 구조와 응용 분야에서 기본적인 틀을 제공한다. ==정의== 체(field) F 위의 벡터 공간 V는 다음 조건을 만족하는 집합과 두 연산(벡터 덧셈, 스칼라 곱)으로 정의된다....) 태그: 시각 편집
- 2025년 9월 25일 (목) 06:48 행렬 (역사 | 편집) [2,523 바이트] 인공무능 (토론 | 기여) (새 문서: 행렬(行列, 영어: Matrix)은 수나 기호를 직사각형 모양으로 배열한 표로, 선형대수학의 기본적인 대상 중 하나이다. 주로 선형 변환을 나타내거나 연립방정식을 다루는 데 사용된다. ==개요== 행렬은 가로 줄을 '''행''', 세로 줄을 '''열'''이라 하며, 특정한 크기(차원)의 수들을 사각형 형태로 배열한 것이다. 행렬의 크기는 행의 수와 열의 수로 표시한다. 예를 들어, 3행...) 태그: 시각 편집
- 2025년 9월 25일 (목) 06:44 선형대수학 (역사 | 편집) [2,691 바이트] 인공무능 (토론 | 기여) (새 문서: 선형대수학(線形代數學, 영어: Linear algebra)은 벡터, 행렬, 선형사상 등 선형적인 구조와 그 성질을 다루는 수학의 한 분야이다. 현대 수학과 공학, 물리학, 통계학, 컴퓨터 과학 등 다양한 학문 분야에서 기초적이면서도 핵심적인 역할을 한다. == 개요 == 선형대수학은 주로 선형 방정식의 해법, 벡터 공간의 구조, 행렬 연산, 고유값과 고유벡터, 내적과 직교성 등의...)
- 2025년 9월 25일 (목) 06:38 행렬 계산 (역사 | 편집) [2,668 바이트] 인공무능 (토론 | 기여) (새 문서: {{제목|행렬 계산}} ==개요== '''행렬 계산'''(matrix calculation)은 선형대수학에서 행렬과 벡터를 대상으로 하는 다양한 연산을 말한다. 기본적인 연산으로는 덧셈, 뺄셈, 곱셈, 전치, 역행렬 등이 있으며, 응용 수학과 공학, 물리학, 컴퓨터 과학 전반에서 중요한 도구로 사용된다. ==주요 연산== ;행렬 덧셈과 뺄셈 :같은 크기의 행렬끼리 대응하는 원소를 더하거나 빼는 연...) 태그: 시각 편집
- 2025년 9월 25일 (목) 04:40 Советские открытки с днем рождения (역사 | 편집) [1,849 바이트] 107.6.254.54 (토론) (새 문서: == Советские открытки с днем рождения == В детстве, наверное, у каждого из нас были дни рождения, которые отмечали с особым трепетом и радостью. И часто поздравления приходили в виде красочных советских открыток – с забавными зверушками, сказочными персонажами или...)
- 2025년 9월 24일 (수) 12:37 위치 인코딩 (역사 | 편집) [2,795 바이트] 인공무능 (토론 | 기여) (새 문서: 위치 인코딩(位置encoding, Positional Encoding)은 트랜스포머(Transformer) 아키텍처에서 입력 시퀀스의 토큰 순서를 모델이 인식할 수 있도록 추가하는 벡터 표현이다. 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리, 트랜스포머의 어텐션 메커니즘은 토큰 간의 순서를 직접적으로 고려하지 않기 때문에 위치 정보를 별도로 주입해야 한다. ==개요== 트랜스포머는 입력 시퀀...) 태그: 시각 편집
- 2025년 9월 24일 (수) 12:09 피드포워드 신경망 (역사 | 편집) [2,541 바이트] 인공무능 (토론 | 기여) (새 문서: 피드포워드 신경망(Feed-Forward Neural Network, FFNN)은 입력에서 출력으로 정보가 한 방향으로만 흐르는 인공신경망 구조이다. 순환이나 피드백 연결이 없으며, 가장 기본적인 형태의 신경망으로 분류된다. ==개요== 피드포워드 신경망은 인공신경망의 가장 단순한 구조로, 입력층(Input layer), 은닉층(Hidden layer), 출력층(Output layer)으로 구성된다. 각 층은 완전연결층(fully connec...) 태그: 시각 편집
- 2025년 9월 24일 (수) 12:07 트랜스포머 블록 (역사 | 편집) [4,299 바이트] 인공무능 (토론 | 기여) (새 문서: 트랜스포머 블록(Transformer block)은 자연어 처리 및 기타 시퀀스 모델링에서 사용되는 트랜스포머 아키텍처의 기본 구성 요소이다. 트랜스포머 블록은 입력 벡터를 받아 내부적으로 self-attention 연산과 피드포워드 신경망을 거쳐 출력 벡터로 변환한다. ==구성 요소== 트랜스포머 블록은 일반적으로 다음 구성 요소들로 이루어...) 태그: 시각 편집
- 2025년 9월 24일 (수) 12:00 시퀀스-투-시퀀스 구조 (역사 | 편집) [2,637 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|인코더와 디코더를 사용한 구조 시퀀스-투-시퀀스 구조(Sequence-to-Sequence, Seq2Seq)는 입력 시퀀스(예: 문장)를 받아 출력 시퀀스(예: 번역된 문장)를 생성하는 신경망 아키텍처이다. 주로 인코더와 디코더 두 부분으로 구성되며, 기계 번역을 비롯한 다양한 자연어 처리 작업에서 활용된다. * 짧게 Seq2Seq이라고 쓰기도 한다. ==개...) 태그: 시각 편집
- 2025년 9월 24일 (수) 11:17 어텐션 메커니즘 (역사 | 편집) [5,543 바이트] 인공무능 (토론 | 기여) (새 문서: 섬네일|어텐션 예시 어텐션 메커니즘(Attention mechanism)은 인공신경망에서 입력 시퀀스의 각 요소가 출력에 기여하는 중요도를 동적으로 계산하여 반영하는 기법이다. 원래는 신경망 기계번역(NMT)에서 제안되었으며, 이후 다양한 자연어 처리와 컴퓨터 비전 분야에서 널리 활용되고 있다. ==개요== 전통적인 시퀀스-투-시퀀스(seq2seq) 구조에서는...) 태그: 시각 편집
- 2025년 9월 24일 (수) 11:00 셀프 어텐션 (역사 | 편집) [2,648 바이트] 인공무능 (토론 | 기여) (새 문서: 셀프 어탠션(Self-Attention)은 딥러닝에서 입력 시퀀스의 각 요소가 동일 시퀀스 내 다른 요소들과 어떤 관계를 갖는지를 스스로 학습하는 어탠션(Attention) 메커니즘의 한 종류이다. 문장 내 단어들 간 상호 연관성을 반영하여 문맥 정보를 효과적으로 포착할 수 있게 하며, 트랜스포머(Transformer) 구조의 핵심 구성 요소이다. ==개요== 셀프 어탠션은 주어진 입력 시퀀스 전...)
- 2025년 9월 24일 (수) 04:51 데일리 스크럼 (역사 | 편집) [4,508 바이트] Agiler (토론 | 기여) (새 문서: 데일리 스크럼(Daily Scrum)은 스크럼(Scrum) 프레임워크에서 스프린트 내 매일 개발 팀(Developers)이 모여 스프린트 목표(Sprint Goal)의 진행 상황을 점검하고, 하루 동안의 작업 계획을 조정하며 장애 요소를 식별하는 짧고 집중된 회의이다. ==정의== 데일리 스크럼은 스프린트 기간 동안 매 영업일(working day)에 동일한 시간과 장소(또는 동일한 형식)에서 15분(time‑boxed) 이내...) 태그: 시각 편집
- 2025년 9월 24일 (수) 04:46 백로그 정제 회의 (역사 | 편집) [4,307 바이트] Agiler (토론 | 기여) (새 문서: 백로그 정제 회의(Backlog Refinement Meeting)는 애자일 개발, 특히 스크럼(Scrum) 방법론에서 제품 백로그(Product Backlog)를 실행 가능한 상태로 유지하기 위해 주기적으로 수행되는 회의이다. 사용자 스토리, 기능, 버그 등 백로그 항목들을 검토하고 우선순위, 크기, 설명 등을 조정하여 다음 스프린트 계획이 원활하게 이루어지도록 하는 것이 목적이다. ==정의== 백로그 정제...) 태그: 시각 편집
- 2025년 9월 24일 (수) 04:39 프로덕트 백로그 (역사 | 편집) [3,673 바이트] Agiler (토론 | 기여) (새 문서: 프로덕트 백로그(Product Backlog)은 애자일 소프트웨어 개발 방법론, 특히 스크럼(Scrum)에서 사용되는 핵심 산출물로, 제품 개발에 필요한 모든 작업 항목을 우선순위에 따라 정리한 목록이다. ==정의== 프로덕트 백로그는 제품에 필요한 기능, 개선 사항, 버그 수정, 기술 부채, 비기능적 요구사항 등 다양한 작업 항목을 포함하며, 제품 소유자(Product Owner)가 책임지고 관...) 태그: 시각 편집
- 2025년 9월 24일 (수) 04:27 스포티파이 애자일 모델 (역사 | 편집) [8,737 바이트] Agiler (토론 | 기여) (새 문서: <nowiki>{{서문 Spotify 애자일 모델(영어: Spotify Model)은 애자일 원칙을 기반으로 한 팀 조직 방식으로, 스포티파이(Spotify)가 성장하면서 제품 개발의 민첩성, 팀 자율성, 협업 및 지식 공유를 유지하기 위해 고안한 조직 구조이다.}}</nowiki> ==배경== 스포티파이는 초기 스타트업 단계에서 빠르게 성장함에 따라 전통적 스크럼(Scrum) 방식만으로는 여러 팀이 동시에 일하고,...) 태그: 시각 편집
- 2025년 9월 22일 (월) 07:23 가중치 감소 (역사 | 편집) [3,542 바이트] 인공무능 (토론 | 기여) (새 문서: 가중치 감소(Weight Decay)는 머신러닝 및 딥러닝에서 과적합(overfitting)을 방지하기 위한 정규화(regularization) 기법이다. 학습 과정에서 모델의 가중치(weight)가 지나치게 커지는 것을 억제하여, 일반화(generalization) 능력을 향상시키는 역할을 한다. ==개요== 가중치 감소는 손실 함수(loss function)에 '''가중치의 크기(weight magnitudes)''' 에 대한 '''페널티(penalty)''' 를 추가함으로...) 태그: 시각 편집
- 2025년 9월 20일 (토) 00:47 닫힌 꼴 도함수 (역사 | 편집) [1,767 바이트] 인공무능 (토론 | 기여) (새 문서: 닫힌 꼴 도함수(영어: closed-form derivative)는 어떤 함수의 도함수가 사칙연산, 거듭제곱, 지수·로그·삼각함수 등과 같은 기본 함수들의 유한한 조합으로 표현될 수 있는 경우를 말한다. 즉, 미분 결과가 무한급수, 적분 기호, 특수 함수와 같이 닫힌 꼴(closed form)로 보기 어려운 표현을 필요로 하지 않을 때 사용되는 개념이다. ==정의== 닫힌 꼴(closed form)은 수학에서 잘...) 태그: 시각 편집
- 2025년 9월 19일 (금) 06:48 전치 행렬 (역사 | 편집) [2,352 바이트] 인공무능 (토론 | 기여) (새 문서: 전치 행렬(轉置行列, transpose matrix)은 주어진 행렬의 행(row)과 열(column)을 서로 바꾼 행렬이다. 주어진 행렬 A의 전치(transpose)는 보통 A<sup>⊤</sup>로 표기된다. ==정의== 행렬 A가 m×n 크기일 때, 전치 행렬 A<sup>⊤</sup>는 n×m 크기를 가지며 각 성분은 다음과 같이 정의된다: *(A<sup>⊤</sup>)<sub>ij</sub> = A<sub>ji</sub> 예: A = { 1 2 3 4 5 6 } → A<sup>⊤</sup> = { 1 4 2 5 3...) 태그: 시각 편집
- 2025년 9월 19일 (금) 06:40 항등 함수 (역사 | 편집) [3,714 바이트] 인공무능 (토론 | 기여) (새 문서: 항등 함수(恒等函數, identity function 혹은 identity map)는 정의역(domain)과 공역(codomain)이 같은 집합에서 모든 원소를 자기 자신에게 대응시키는 함수이다. 즉 임의의 x에 대해 id_X(x) = x 를 만족하는 함수이다. ==정의== 집합 X에 대하여, 항등 함수 id_X: X → X 는 다음을 만족한다: *정의역과 공역이 같다. *모든 x ∈ X에 대해 id_X(x) = x. ==성질== 항등 함수는 다음과 같은 중요한...) 태그: 시각 편집
- 2025년 9월 19일 (금) 01:35 행정부 (역사 | 편집) [2,753 바이트] 잼민 (토론 | 기여) (새 문서: 행정부(行政府)는 삼권분립 원리에 따라 국가의 행정권(executive power)을 행사하는 기관으로, 법을 집행하고 정책을 실행하는 역할을 맡는다. ==정의== 행정부는 헌법 제66조 제4항에 따라 “행정권은 대통령을 수반으로 하는 정부에 속한다”고 규정되어 있으며, 대통령·국무총리·국무위원·행정각부·감사원 등이 그 구성요소이다. ==구성== *'''대통령''' : 행정부 수반...) 태그: 시각 편집
- 2025년 9월 19일 (금) 01:34 사법부 (역사 | 편집) [2,925 바이트] 잼민 (토론 | 기여) (새 문서: 사법부(司法府)는 국가 권력 분립 원칙하에 사법권을 행사하는 기관으로, 대한민국에서는 법원 및 관련 사법기관이 이 역할을 수행한다. ==정의== 사법부는 법률과 헌법에 따라 분쟁을 해석·심판함으로써 법질서를 유지하고, 국민의 권리와 자유를 보호하는 국가기관이다. 대한민국 헌법은 사법권을 법원에 속한다고 규정하며, 법관의 독립을 보장하고 있다. ==구성=...) 태그: 시각 편집
- 2025년 9월 19일 (금) 01:33 입법부 (역사 | 편집) [2,798 바이트] 잼민 (토론 | 기여) (새 문서: 입법부(立法府)는 국가 권력 분립 원칙하에 입법권을 담당하는 국가기관으로, 대한민국에서는 국회가 입법부 역할을 수행한다. ==개요== 입법부는 국민에 의해 선출된 의원들로 구성되어 법률을 제정하고, 기타 중요한 국정 사안을 심의·의결하는 기관이다. 또한 행정부를 견제하고 감독하는 기능도 갖는다. ==구성 및 구성원의 선출== *대한민국 국회의 구성원은...) 태그: 시각 편집
- 2025년 9월 19일 (금) 01:13 삼권분립 (역사 | 편집) [4,039 바이트] 잼민 (토론 | 기여) (새 문서: 삼권분립(三權分立)은 국가 권력을 입법·행정·사법의 세 부분으로 나누어 각각 독립된 기관이 담당하게 함으로써 권력의 집중과 남용을 방지하고 상호 견제와 균형을 유지하려는 헌법상의 원리이다. ==정의== 삼권분립은 국가의 작용을 크게 세 권력으로 구분하는 정치제도의 기본원리로, 각 권력(입법권·행정권·사법권)을 서로 다른 기관에 분할‧배분하여 이를...) 태그: 시각 편집
- 2025년 9월 19일 (금) 01:10 내란죄 (역사 | 편집) [4,154 바이트] 잼민 (토론 | 기여) (새 문서: 내란죄는 대한민국 형법에서 국가의 헌정질서를 파괴하거나 국가 권력을 전복할 목적으로 폭동을 일으키는 중대한 범죄이다. ==개요== 내란죄(內亂罪)는 형법 제87조에 규정되어 있으며, 대한민국의 영토 일부 또는 전부에서 국헌을 문란하게 하거나 국가권력을 배제할 목적으로 폭동을 일으킨 자를 처벌하는 규정이다. 단순한 시위나 집단행동과는 구분되며, 국가...) 태그: 시각 편집
- 2025년 9월 19일 (금) 01:01 내란재판부 (역사 | 편집) [5,577 바이트] 잼민 (토론 | 기여) (새 문서: 내란재판부는 내란죄 및 관련 특검 사건을 전담하여 심리하기 위해 설치가 논의되고 있는 전문 재판부이다. ==개요== 내란재판부는 헌정질서 파괴 행위로 간주되는 내란죄와 관련된 중대 사건을 보다 신속하고 집중적으로 심리하기 위해 도입이 추진되고 있는 제도적 장치이다. 기존의 일반 형사합의부 대신 특정 재판부를 전담 지정하거나 신설하는 방안이 논의되...) 태그: 시각 편집
- 2025년 9월 18일 (목) 17:07 서울강남경찰서 (역사 | 편집) [3,647 바이트] Zldzhddonut (토론 | 기여) (새 문서: 2024년 1월에는 강남경찰서 형사1과 5팀 소속의 전우성 형사가 성폭행 사건으로 물의를 일으켰다. 고발 내용에 따르면, 그는 2023년 12월 15일 강남의 한 유흥주점에서 술에 취한 피해 여성의 몸을 쓰다듬고 호텔로 끌고가서 성폭행을 저질렀다. 나중에 사건을 무마하기 위해 거액의 합의금을 제시한 것도 밝혀졌다. 한편, 성폭행 사건과는 별개로 전우성은 역삼의 클럽...)
- 2025년 9월 18일 (목) 09:54 어텐션 (인공지능) (역사 | 편집) [2,546 바이트] 인공무능 (토론 | 기여) (새 문서: 어텐션(Attention, 注意力機構)은 인공지능, 특히 딥러닝 기반의 자연어 처리(NLP)와 컴퓨터 비전 분야에서 중요한 정보를 강조하고 덜 중요한 정보를 줄이는 방식으로, 입력 데이터의 구성 요소들 간 관계를 가중치로 표현하여 처리하는 메커니즘이다. 인간의 주의(attention)처럼 특정 부분에 더 집중하여 효율적인 학습과 추론을 가능하게 한다. ==개요== 어텐션은 시퀀스...)
- 2025년 9월 18일 (목) 09:52 GLUE 벤치마크 (역사 | 편집) [3,671 바이트] 인공무능 (토론 | 기여) (새 문서: GLUE 벤치마크(GLUE, General Language Understanding Evaluation)는 다양한 자연어 이해(NLU) 과제들을 모은 평가 기준으로, 여러 모델을 비교, 분석하기 위해 고안되었다. <ref>“GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding”, Wang et al., 2018, https://arxiv.org/abs/1804.07461</ref> ==정의== GLUE는 여러 개의 서로 다른 NLU 과제(task)들을 포함하며, 하나의 모델이 여러 과제에...) 태그: 시각 편집
- 2025년 9월 18일 (목) 09:51 QQP (인공지능) (역사 | 편집) [2,080 바이트] 인공무능 (토론 | 기여) (새 문서: QQP(Quora Question Pairs)는 Quora 웹사이트에서 수집된 질문 쌍(question pairs) 데이터셋으로, 두 개의 질문이 의미적으로 중복(duplicates)인지 아닌지를 판정하는 과제이다. ==정의== QQP는 자연어 처리에서 패러프레이즈 식별(paraphrase identification) 과 유사도 판단(semantic equivalence) 과제에 사용되는 데이터셋이다. 주어진 두 질문이 의미상 같은지를 바이너리 레이블(duplicated / not du...) 태그: 시각 편집
- 2025년 9월 18일 (목) 09:46 비전 트랜스포머 (역사 | 편집) [5,816 바이트] 인공무능 (토론 | 기여) (새 문서: 비전 트랜스포머(Vision Transformer, 줄여서 ViT)는 이미지 처리를 위해 고안된 딥러닝 구조로, 전통적인 합성곱 신경망(CNN) 대신 트랜스포머(self-attention) 아키텍처를 활용하여 이미지를 “패치(patch)” 단위로 처리한다. <ref>“An Image is Worth 16×16 Words: Transformers for Image Recognition at Scale”, arXiv:2010.11929, https://arxiv.org/abs/2010.11929</ref> ==정의== 비전 트랜스포머는 이미지를 일정...) 태그: 시각 편집
- 2025년 9월 18일 (목) 05:38 미적분학 (역사 | 편집) [2,225 바이트] 인공무능 (토론 | 기여) (새 문서: 미적분학(微積分學, 영어: calculus)은 함수의 극한을 바탕으로 변화율을 다루는 미분(differentiation)과 면적·누적량을 다루는 적분(integration)을 연구하는 수학의 한 분야이다. 자연 현상과 공학적 문제를 정량적으로 분석하는 데 널리 활용되며, 현대 수학의 기초적인 학문으로 자리 잡고 있다. ==개요== 미적분학은 17세기 아이작 뉴턴과 고트프리트 라이프니츠에 의해 체...) 태그: 시각 편집
- 2025년 9월 18일 (목) 05:36 전미분 (역사 | 편집) [1,857 바이트] 인공무능 (토론 | 기여) (새 문서: 전미분(全微分, 영어: total derivative)은 다변수 함수의 모든 변수에 대한 미소 변화를 고려하여 함수 전체의 변화율을 나타내는 개념이다. 편미분이 한 변수만 변화시켜 계산하는 미분이라면, 전미분은 모든 독립 변수들의 변화를 동시에 반영한다. ==개요== 전미분은 다변수 함수 f(x₁, x₂, …, xₙ)의 입력값이 작은 변화(Δx₁, Δx₂, …, Δxₙ)를 가질 때, 함수 f의...) 태그: 시각 편집
- 2025년 9월 18일 (목) 05:34 미분 (역사 | 편집) [1,954 바이트] 인공무능 (토론 | 기여) (새 문서: 미분(微分, 영어: differentiation)은 함수의 순간 변화율을 구하는 연산 또는 과정이다. 주어진 함수의 입력값이 변할 때 출력값이 어떻게 변하는지를 분석하는 방법으로, 그 결과로 얻어지는 함수는 도함수(derivative)라 한다. ==개요== 미분은 함수의 극한 개념을 기반으로 하며, 곡선의 접선의 기울기를 계산하는 수학적 도구이다. 이는 물리학에서 속도와 가속...) 태그: 시각 편집
- 2025년 9월 18일 (목) 05:33 편미분 (역사 | 편집) [1,898 바이트] 인공무능 (토론 | 기여) (새 문서: 편미분(偏微分, 영어: partial differentiation)은 다변수 함수에서 한 변수만을 독립적으로 변화시켜 구하는 미분이다. 즉, 다른 변수들은 고정한 채 특정 변수에 대해서만 변화율을 계산하는 과정이다. ==개요== 단변수 함수의 경우 미분은 입력이 변할 때 출력이 변하는 순간 변화율을 구한다. 반면, 다변수 함수에서는 여러 독립 변수가 존재하므로 전체 변화율을 각각의...) 태그: 시각 편집