[TIL] Ollama
in TIL on Til Last modified at:
2025-05-20 TIL
📝 TIL (Today I Learned)
🔗 원본 이슈: #57
📅 작성일: 2025-05-20
🔄 최종 수정: 2025년 05월 22일
🍀 새롭게 배운 것
Ollama
- 로컬 머신에서 대규모 언어 모델(LLM)을 실행할 수 있게 해주는 오픈소스 도구
- 주요 특징
- 로컬 실행: 모든 처리가 로컬에서 이루어져 개인정보 보호가 가능
- 다양한 모델 지원: Llama, Mistral, Gemma 등 다양한 오픈소스 모델 지원
- 간단한 API: REST API를 통해 쉽게 통합 가능
- CPU/GPU 지원: 다양한 하드웨어에서 실행 가능
- 크로스 플랫폼: Windows, macOS, Linux 지원
- Ollama 시작하기
- ollama.com에서 OS에 맞는 버전 다운로드 및 설치
- 터미널에서 모델 다운로드 (예: ollama pull llama3.2)
- 모델 실행 (예: ollama run llama3.2)
API 사용 방법
- Ollama는 http://localhost:11434에서 REST API를 제공합니다:
# Python 예제 import requests response = requests.post('http://localhost:11434/api/generate', json={ 'model': 'llama3.2', 'prompt': '백엔드 개발에 필요한 기술은?', 'stream': False }) print(response.json()['response'])
// JavaScript 예제 fetch("http://localhost:11434/api/generate", { method: "POST", headers: { "Content-Type": "application/json" }, body: JSON.stringify({ model: "llama3.2", prompt: "백엔드 개발에 필요한 기술은?", stream: false, }), }) .then((response) => response.json()) .then((data) => console.log(data.response));