RAG (인공지능): 두 판 사이의 차이

IT 위키
(새 문서: Retrieval‑Augmented Generation(영어: Retrieval‑Augmented Generation, 줄여서 RAG)은 대형 언어 모델(LLM)이 외부 지식베이스에서 관련 정보를 검색한 후 이를 바탕으로 응답을 생성하는 기술이다. ==개요== RAG는 LLM이 자체 훈련 데이터에만 의존하지 않고, 문서집합이나 데이터베이스 등 외부 정보를 먼저 검색(retrieval)한 뒤, 이 검색된 정보를 포함하여 응답을 생성(generation)하는 인...)
 
편집 요약 없음
 
12번째 줄: 12번째 줄:
LLM은 내장된 지식과 검색 정보가 결합된 입력을 토대로 응답을 생성한다. 일부 시스템은 문서 재순위, 맥락 선택, 자기반성(Self‑RAG) 등의 후처리 기법을 추가한다.
LLM은 내장된 지식과 검색 정보가 결합된 입력을 토대로 응답을 생성한다. 일부 시스템은 문서 재순위, 맥락 선택, 자기반성(Self‑RAG) 등의 후처리 기법을 추가한다.
==장점과 한계==
==장점과 한계==
*장점
장점
 
*최신 정보나 전용 도메인 지식을 반영 가능
*최신 정보나 전용 도메인 지식을 반영 가능
*AI의 허위 생성(hallucination) 위험 감소
*AI의 허위 생성(hallucination) 위험 감소
18번째 줄: 19번째 줄:
*출처 표기를 통해 사용자에게 신뢰도 제공, 검증 가능성 확보
*출처 표기를 통해 사용자에게 신뢰도 제공, 검증 가능성 확보


*한계
한계
 
*LLM이 검색된 문서 내용을 잘못 해석하거나 문맥을 오해할 수 있음 → 여전히 허위 정보 생성 가능
*LLM이 검색된 문서 내용을 잘못 해석하거나 문맥을 오해할 수 있음 → 여전히 허위 정보 생성 가능
*관련성이 낮은 문서를 잘못 선택하거나 서로 다른 정보 출처의 충돌 시 부정확한 통합 결과 초래 가능
*관련성이 낮은 문서를 잘못 선택하거나 서로 다른 정보 출처의 충돌 시 부정확한 통합 결과 초래 가능

2025년 7월 31일 (목) 12:24 기준 최신판

Retrieval‑Augmented Generation(영어: Retrieval‑Augmented Generation, 줄여서 RAG)은 대형 언어 모델(LLM)이 외부 지식베이스에서 관련 정보를 검색한 후 이를 바탕으로 응답을 생성하는 기술이다.

개요[편집 | 원본 편집]

RAG는 LLM이 자체 훈련 데이터에만 의존하지 않고, 문서집합이나 데이터베이스 등 외부 정보를 먼저 검색(retrieval)한 뒤, 이 검색된 정보를 포함하여 응답을 생성(generation)하는 인공지능 프레임워크이다. 따라서 최신 정보나 도메인 특정 지식을 반영할 수 있고, 모델이 ‘잘못 생성하는(hallucination)’ 오류를 줄이는 데 유리하다.

구성 요소[편집 | 원본 편집]

인덱싱(Indexing)[편집 | 원본 편집]

외부 문서를 벡터 임베딩으로 변환해 벡터 데이터베이스에 저장한다. 문서 단위로 처리하거나 지식 그래프 형식으로 저장할 수 있다.

검색(Retrieval)[편집 | 원본 편집]

사용자 질의에 기반해 벡터 혹은 키워드 검색을 통해 가장 관련성 높은 문서를 선택한다. 적절한 순위 매김과 랭킹 알고리즘이 중요하다.

증강(Augmentation)[편집 | 원본 편집]

검색된 문서를 사용자 프롬프트와 함께 LLM에 입력(prompt engineering)하여, 모델이 외부 정보를 활용하도록 유도한다.

생성(Generation)[편집 | 원본 편집]

LLM은 내장된 지식과 검색 정보가 결합된 입력을 토대로 응답을 생성한다. 일부 시스템은 문서 재순위, 맥락 선택, 자기반성(Self‑RAG) 등의 후처리 기법을 추가한다.

장점과 한계[편집 | 원본 편집]

장점

  • 최신 정보나 전용 도메인 지식을 반영 가능
  • AI의 허위 생성(hallucination) 위험 감소
  • 모델을 재학습하지 않아도 외부 데이터 업데이트 가능 → 비용 절감 및 운영 효율 향상
  • 출처 표기를 통해 사용자에게 신뢰도 제공, 검증 가능성 확보

한계

  • LLM이 검색된 문서 내용을 잘못 해석하거나 문맥을 오해할 수 있음 → 여전히 허위 정보 생성 가능
  • 관련성이 낮은 문서를 잘못 선택하거나 서로 다른 정보 출처의 충돌 시 부정확한 통합 결과 초래 가능
  • 모델이 자신이 불충분한 정보를 갖고 있다는 사실을 인지하지 못하고 응답을 생성하는 경우 존재

발전 동향[편집 | 원본 편집]

  • Self‑Reflective Retrieval‑Augmented Generation(Self‑RAG)
    • 모델이 필요 시 검색하고, 생성된 답변에 대해 스스로 반성(reflection)하도록 학습하여 정확성과 출처 일관성을 향상시키는 연구.
  • Dynamic RAG 및 Parametric RAG
    • 생성 중 실시간으로 '언제'와 '무엇을' 검색할지 결정하는 Dynamic RAG, 외부 지식을 모델 파라미터에 통합하는 Parametric RAG가 최근 각광받고 있음.
  • Agentic RAG
    • 자동화 에이전트들이 검색 전략을 계획하고 조정하며 다단계 추론을 수행할 수 있도록 설계된 Agent 기반 RAG 기술.

실제 활용 사례[편집 | 원본 편집]

기업 내 문서 검색, Q&A, 내부 데이터 기반 챗봇 등에 RAG가 널리 활용되며, AI의 실용성을 높이고 운영 효율을 높이는 데 기여 중이다. 예를 들어 부동산 회사나 금융기관이 내부 문서를 기반으로 AI 도우미를 구축하여 업무 효율화 및 허위 응답 위험을 줄이고 있다.

같이 보기[편집 | 원본 편집]

참고 문헌[편집 | 원본 편집]

Sankar, Shrinivasan. Retrieval Augmented Generation(RAG) – A quick and comprehensive introduction. 2024 Asai, Akari et al. Self‑Reflective Retrieval‑Augmented Generation. arXiv, 2023 Su, Weihang et al. Dynamic and Parametric Retrieval‑Augmented Generation. arXiv, June 7, 2025 Singh, Aditi et al. Agentic Retrieval‑Augmented Generation: A Survey on Agentic RAG. arXiv, January 15, 2025

각주[편집 | 원본 편집]