익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
Ollama (소프트웨어)
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
고급
특수 문자
도움말
문단 제목
2단계
3단계
4단계
5단계
형식
넣기
라틴 문자
확장 라틴 문자
IPA 문자
기호
그리스 문자
그리스어 확장
키릴 문자
아랍 문자
아랍어 확장
히브리 문자
뱅골어
타밀어
텔루구어 문자
싱할라 문자
데바나가리어
구자라트 문자
태국어
라오어
크메르어
캐나다 원주민 언어
룬 문자
Á
á
À
à
Â
â
Ä
ä
Ã
ã
Ǎ
ǎ
Ā
ā
Ă
ă
Ą
ą
Å
å
Ć
ć
Ĉ
ĉ
Ç
ç
Č
č
Ċ
ċ
Đ
đ
Ď
ď
É
é
È
è
Ê
ê
Ë
ë
Ě
ě
Ē
ē
Ĕ
ĕ
Ė
ė
Ę
ę
Ĝ
ĝ
Ģ
ģ
Ğ
ğ
Ġ
ġ
Ĥ
ĥ
Ħ
ħ
Í
í
Ì
ì
Î
î
Ï
ï
Ĩ
ĩ
Ǐ
ǐ
Ī
ī
Ĭ
ĭ
İ
ı
Į
į
Ĵ
ĵ
Ķ
ķ
Ĺ
ĺ
Ļ
ļ
Ľ
ľ
Ł
ł
Ń
ń
Ñ
ñ
Ņ
ņ
Ň
ň
Ó
ó
Ò
ò
Ô
ô
Ö
ö
Õ
õ
Ǒ
ǒ
Ō
ō
Ŏ
ŏ
Ǫ
ǫ
Ő
ő
Ŕ
ŕ
Ŗ
ŗ
Ř
ř
Ś
ś
Ŝ
ŝ
Ş
ş
Š
š
Ș
ș
Ț
ț
Ť
ť
Ú
ú
Ù
ù
Û
û
Ü
ü
Ũ
ũ
Ů
ů
Ǔ
ǔ
Ū
ū
ǖ
ǘ
ǚ
ǜ
Ŭ
ŭ
Ų
ų
Ű
ű
Ŵ
ŵ
Ý
ý
Ŷ
ŷ
Ÿ
ÿ
Ȳ
ȳ
Ź
ź
Ž
ž
Ż
ż
Æ
æ
Ǣ
ǣ
Ø
ø
Œ
œ
ß
Ð
ð
Þ
þ
Ə
ə
서식 지정
링크
문단 제목
목록
파일
각주
토론
설명
입력하는 내용
문서에 나오는 결과
기울임꼴
''기울인 글씨''
기울인 글씨
굵게
'''굵은 글씨'''
굵은 글씨
굵고 기울인 글씨
'''''굵고 기울인 글씨'''''
굵고 기울인 글씨
'''Ollama'''는 로컬에서 대형 언어 모델(LLM)을 쉽게 실행·관리할 수 있도록 설계된 오픈소스 커맨드라인 도구이자 실행 엔진이다. macOS, 리눅스, 윈도우 환경에서 CPU·GPU를 사용해 양자화된 LLM 모델을 다운로드하고 실행할 수 있다. ==개요== Ollama는 모델 가중치(예: GGUF 형식)를 '''ollama pull <모델명>''' 명령으로 로컬에 가져온 후, '''ollama run <모델명>''' 명령으로 실행 가능한 환경을 제공한다. 백그라운드 서버가 자동으로 실행되며, REST API를 통해 제어할 수 있다.<ref>Ollama 공식 문서. https://ollama.com</ref> ==설치 방법== ===macOS=== <pre> brew install ollama </pre> ===Ubuntu/Linux=== <pre> curl -fsSL https://ollama.com/install.sh | sh </pre> ===Windows=== 공식 웹사이트에서 .exe 설치 파일 다운로드 후 실행 ==주요 기능== *'''간편한 모델 관리''': pull, run, list, rm, cp, serve 등의 직관적인 명령어 지원 *'''양자화된 모델 지원''': GGUF 형식 기반 모델 실행 *'''REST API 제공''': http://localhost:11434 에서 HTTP 요청으로 생성 및 채팅 가능 *'''멀티 모델 실행''': LLaMA3, Mistral, Qwen, Gemma 등 다양한 오픈소스 모델 지원 *'''모델 맞춤 설정''': Modelfile을 통해 프롬프트, 파라미터 설정 가능 *'''크로스 플랫폼''': macOS, Linux, Windows, Docker 환경에서 실행 가능 ==사용 예시== '''모델 다운로드'''<pre> ollama pull llama3 </pre>'''모델 실행'''<pre> ollama run llama3 "Hello!" </pre>'''REST API 호출'''<pre> curl -X POST http://localhost:11434/api/generate \ -d '{"model":"llama3","prompt":"Why is the sky blue?"}' </pre>'''Modelfile 예시'''<pre> FROM llama3 PARAMETER temperature 1 SYSTEM """You are Mario from Super Mario Bros.""" </pre>→ '''ollama create mario -f Modelfile''' 후 '''ollama run mario''' ==장단점== ===장점=== *'''로컬 자율 실행''': 인터넷 연결 없이 LLM 실행 가능 *'''양자화 모델 지원''': 저장 공간 절약 및 추론 효율 향상 *'''간단한 CLI'''와 직관적 인터페이스 *'''REST API 제공''': 외부 연동 및 자동화에 유리 ===단점=== *'''서버 항상 실행''': 백그라운드 데몬 형태로 동작 *'''모델 크기 큼''': 수 기가바이트 이상 다운로드 필요 *'''지원 도구 한정''': llama.cpp 생태계 중심 ==통합 생태계== *'''프로그래밍 인터페이스''': Python(ollama-python), JavaScript(ollama-js) *'''LangChain''' 등 에이전트 프레임워크와 연동 가능 *'''GUI 도구 연계''': SwiftChat, Enchanted, LibreChat, Chatbox 등 ==같이 보기== *[[llama.cpp]] *[[GGUF 파일]] *[[양자화(딥 러닝)]] *[[로컬 AI 추론]] *[[대형 언어 모델]] ==참고 문헌== *Ollama 공식 문서. https://ollama.com *GitHub - ollama/ollama *LangChain 공식 통합 가이드 ==각주== [[분류:소프트웨어]] [[분류:인공지능]] [[분류:언어 모델]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록