새 문서 목록

IT 위키
새 문서 목록
등록된 사용자 숨기기 | 봇 숨기기 | 넘겨주기를 보이기
(최신 | 오래됨) ( | 이전 50개) (20 | 50 | 100 | 250 | 500) 보기
  • 2025년 7월 13일 (일) 04:09인지 혁명 (역사 | 편집) ‎[3,055 바이트]인공무능 (토론 | 기여) (새 문서: 인지 혁명(認知革命, Cognitive Revolution)은 약 7만 년 전 호모 사피엔스에게서 발생한 사고 능력의 획기적인 변화로, 언어, 상징, 허구적 사고 등을 가능하게 하여 인류 문명의 토대를 마련한 인지적 전환이다. ==개요== 인지 혁명은 인류 진화사에서 가장 중대한 전환점 중 하나로 평가되며, 호모 사피엔스가 복잡한 언어를 사용하고 추상적 개념, 사회적 협력, 신화와 종...) 태그: 시각 편집
  • 2025년 7월 13일 (일) 02:35연쇄적 사고 프롬프팅 (역사 | 편집) ‎[3,360 바이트]인공무능 (토론 | 기여) (새 문서: 연쇄적 사고 프롬프팅(Chain-of-Thought Prompting)은 대규모 언어 모델이 복잡한 문제를 해결할 때, 답을 도출하기 위한 추론 과정을 명시적으로 유도하는 프롬프트 설계 방식이다. ==개요== Chain-of-Thought Prompting(연쇄 사고 프롬팅)은 문제의 정답만을 요구하는 대신, 그에 도달하기 위한 사고의 흐름을 언어 모델이 스스로 기술하도록 유도하는 방식이다. 이 기법은 2022년 구...) 태그: 시각 편집
  • 2025년 7월 13일 (일) 02:31Megatron (언어 모델) (역사 | 편집) ‎[3,826 바이트]인공무능 (토론 | 기여) (새 문서: Megatron은 NVIDIA가 개발한 대규모 언어 모델로, 트랜스포머 기반 구조를 활용하여 자연어 처리 과제에서 고성능을 달성하기 위한 초거대 언어 모델 아키텍처이다. ==개요== Megatron은 NVIDIA에서 대규모 분산 학습을 실현하기 위해 개발된 언어 모델 프레임워크이자 모델로, 트랜스포머 아키텍처를 기반으로 한다. 특히 GPU 클러스터를 활용한 병렬처리 최적화에 중점을 두...) 태그: 시각 편집
  • 2025년 7월 13일 (일) 02:28Gopher (언어 모델) (역사 | 편집) ‎[2,382 바이트]인공무능 (토론 | 기여) (새 문서: Gopher는 딥마인드(DeepMind)가 개발한 대규모 언어 모델로, 다양한 자연어 처리 작업에서 인간 수준의 성능을 달성하기 위해 설계된 초거대 언어 모델이다. ==개요== Gopher는 2021년 딥마인드가 발표한 트랜스포머 기반 언어 모델로, 최대 2800억 개의 파라미터를 갖춘 대규모 모델이다. Gopher는 책, 뉴스, 웹사이트 등 다양한 출처로부터 수집된 대규모 텍스트 데이터를 학습...) 태그: 시각 편집
  • 2025년 7월 13일 (일) 02:23PaLM (언어 모델) (역사 | 편집) ‎[2,491 바이트]인공무능 (토론 | 기여) (새 문서: PaLM(Pathways Language Model)은 구글이 개발한 대규모 언어 모델로, 자연어 처리 및 생성, 추론, 번역, 질의응답 등 다양한 작업에서 높은 성능을 보이는 인공지능 언어 모델이다. ==개요== PaLM은 구글 리서치가 2022년에 발표한 Pathways 시스템 기반의 대규모 언어 모델로, 5400억 개의 매개변수(parameters)를 가진 버전을 포함하여 다양한 크기로 구성되어 있다. 이 모델은 단일 아...) 태그: 시각 편집
  • 2025년 7월 9일 (수) 04:10브릭스 (역사 | 편집) ‎[3,556 바이트]젯티 (토론 | 기여) (새 문서: 브릭스(BRICS, 브라질·러시아·인도·중국·남아프리카 공화국)는 신흥 경제 대국들로 구성된 국가 연합체로, 세계 경제 및 정치 질서에서의 다극화를 추구하는 협력체이다. ==개요== 브릭스는 원래 브라질(Brazil), 러시아(Russia), 인도(India), 중국(China)의 4개국을 일컫는 "BRIC"에서 시작되었으며, 2010년 남아프리카 공화국(South Africa)이 가입하면서 "BRICS"로 불리게 되었다....) 태그: 시각 편집
  • 2025년 7월 8일 (화) 12:30N-슬롯 머신 문제 (역사 | 편집) ‎[3,641 바이트]인공무능 (토론 | 기여) (새 문서: n-슬롯 머신 문제(n-armed bandit problem)은 강화학습에서 탐색(exploration)과 이용(exploitation)의 균형을 설명하기 위한 확률적 결정 문제로, 에이전트가 n개의 선택지 중에서 반복적으로 선택을 하며 최대 보상을 얻기 위한 전략을 학습하는 과제를 의미한다. ==개요== n-슬롯 머신 문제는 카지노의 슬롯 머신을 확장한 개념으로, 각 슬롯 머신(팔 하나짜리 도둑, bandit)은 고유의...) 태그: 시각 편집
  • 2025년 7월 8일 (화) 02:52양방향 언어 모델 (역사 | 편집) ‎[2,223 바이트]인공무능 (토론 | 기여) (새 문서: 양방향 언어 모델(Bidirectional Language Model, 雙方向言語モデル)은 문맥을 이해하기 위해 입력 시퀀스의 앞과 뒤 양쪽 정보를 동시에 고려하여 단어의 의미를 예측하는 방식의 언어 모델이다. ==개요== 양방향 언어 모델은 문장의 전체 구조를 고려해 더 풍부한 의미 정보를 추출할 수 있다는 장점이 있다. 이는 문맥의 앞뒤 정보를 모두 활용함으로써 자연어 처리 작업에...) 태그: 시각 편집
  • 2025년 7월 8일 (화) 02:38자기회귀 언어 모델 (역사 | 편집) ‎[2,002 바이트]인공무능 (토론 | 기여) (새 문서: 자기회귀 언어 모델(Autoregressive Language Model, 自己回帰言語モデル)은 이전 시점의 단어(또는 토큰) 정보를 기반으로 다음 단어의 확률을 예측하는 방식의 언어 모델이다. ==개요== 자기회귀 언어 모델은 언어 생성에서 중요한 역할을 하며, 입력된 시퀀스의 앞부분을 기준으로 다음 단어를 순차적으로 예측한다. 이 방식은 시계열 데이터 처리에 적합하며, 자연어 처리...) 태그: 시각 편집
  • 2025년 7월 8일 (화) 02:15교차 엔트로피 (역사 | 편집) ‎[2,602 바이트]인공무능 (토론 | 기여) (새 문서: 교차 엔트로피(cross entropy)는 확률론 및 정보 이론에서 두 확률 분포 사이의 차이를 정량적으로 측정하는 함수로, 주로 머신러닝과 통계학에서 모델의 예측 성능을 평가하는 손실 함수로 사용된다. ==정의== 교차 엔트로피는 두 확률 분포 P(실제 분포)와 Q(예측 분포)에 대해 다음과 같이 정의된다. H(P, Q) = -∑ P(x) log Q(x) 여기서 합은 모든 가능한 사건 x에 대해 계산되...) 태그: 시각 편집
  • 2025년 7월 7일 (월) 06:07행렬 곱 (역사 | 편집) ‎[2,802 바이트]인공무능 (토론 | 기여) (새 문서: 행렬 곱(matrix multiplication, 行列곱)은 두 개의 행렬에서 정의되는 이항 연산으로, 선형대수학에서 중심적인 개념 중 하나이다. 이는 벡터 공간의 선형 변환을 표현하거나, 연립방정식의 해를 계산하는 데 사용된다. ==정의== 두 행렬 A와 B에 대하여, A의 열 수와 B의 행 수가 같을 때에만 행렬 곱 AB가 정의된다. A가 m×n 행렬이고, B가 n×p 행렬이라면, 곱 AB는 m×p 크기의 행...) 태그: 시각 편집
  • 2025년 7월 6일 (일) 09:00파이썬 pandas DataFrame (역사 | 편집) ‎[3,155 바이트]인공무능 (토론 | 기여) (새 문서: 파이썬 pandas DataFrame은 pandas 라이브러리에서 제공하는 2차원 데이터 구조로, 표 형태의 데이터를 다루기 위한 핵심 객체이다. ==개요== DataFrame은 행(row)과 열(column)로 구성된 테이블 형태의 자료구조로, 서로 다른 데이터 타입을 각 열에 저장할 수 있다. 엑셀이나 SQL 테이블과 유사한 구조를 가지며, 레이블이 지정된 축을 통해 효율적인 데이터 조작과 분석이 가능하...) 태그: 시각 편집
  • 2025년 7월 6일 (일) 08:56파이썬 np.random.randn (역사 | 편집) ‎[1,740 바이트]인공무능 (토론 | 기여) (새 문서: np.random.randn는 파이썬의 넘파이(NumPy) 라이브러리에서 표준 정규 분포를 따르는 난수를 생성하는 함수이다. ==개요== np.random.randn는 평균이 0이고 분산이 1인 표준 정규 분포에서 샘플을 생성한다. 이 함수는 머신 러닝, 통계학, 시뮬레이션 등의 분야에서 무작위 초기화나 확률적 데이터 생성을 위해 자주 사용된다. 생성된 값들은 정규 분포의 특성상 대부분 -3에서 3...) 태그: 시각 편집
  • 2025년 7월 6일 (일) 07:54소프트맥스 (역사 | 편집) ‎[3,579 바이트]인공무능 (토론 | 기여) (새 문서: 소프트맥스(softmax)는 다중 클래스 분류 문제에서 각 클래스에 대한 확률 분포를 계산하기 위해 사용되는 함수이다. ==개요== 소프트맥스 함수는 입력값 벡터를 받아 각 항목에 대해 0과 1 사이의 값으로 변환하며, 전체 출력값의 합이 1이 되도록 정규화한다. 이 함수는 주로 신경망의 출력층에서 사용되어, 각 클래스에 속할 확률을 추정하는 데 활용된다. 입력값이 클...) 태그: 시각 편집
  • 2025년 7월 6일 (일) 07:31손실 함수 (역사 | 편집) ‎[1,846 바이트]인공무능 (토론 | 기여) (새 문서: 손실 함수(損失函數, loss function)는 머신 러닝이나 통계학 등에서 예측값과 실제값 간의 차이를 수치적으로 표현하는 함수이다. ==개요== 손실 함수는 모델이 얼마나 잘 작동하고 있는지를 평가하기 위한 기준으로 사용된다. 주어진 입력에 대해 모델이 출력한 예측값과 실제 정답 값 사이의 오차를 계산하며, 이 값을 최소화하는 방향으로 모델이 학습된다. 손실 함수...) 태그: 시각 편집
  • 2025년 7월 4일 (금) 02:26LongMem (역사 | 편집) ‎[2,913 바이트]인공무능 (토론 | 기여) (새 문서: '''LongMem'''(영어: Long‑Term Memory augmentation)은 장기 문맥을 기억하고 활용할 수 있도록 언어 모델을 확장하는 Meta의 딥러닝 프레임워크이다. ==개요== LongMem은 Language Models Augmented with Long‑Term Memory의 약자이며, 기존 LLM의 입력 길이 제한(고정된 컨텍스트 윈도우)을 극복하기 위해 개발된 메모리 향상 구조이다. Meta AI 연구진(Weizhi Wang 등)은 2023년 arXiv에 본 프레임워크를...) 태그: 시각 편집
  • 2025년 6월 30일 (월) 17:35Gurully (역사 | 편집) ‎[438 바이트]Gurully (토론 | 기여) (새 문서: [https://www.gurully.com Gurully] is an innovative education technology platform that provides AI-powered tools and mock tests to help students prepare for English proficiency exams such as PTE Academic, PTE Core, IELTS, Duolingo English Test, and CELPIP. With a user-friendly interface, real-time scoring, and test formats that mirror actual exams, Gurully is trusted by thousands of learners worldwide aiming to study or migrate abroad.)
(최신 | 오래됨) ( | 이전 50개) (20 | 50 | 100 | 250 | 500) 보기