🦙
Ollama
로컬 모델 AI 모델 및 라우팅설치 명령어
npx clawhub@latest install ollama
설치 안내
1
환경 확인
Node.js 22 이상과 OpenClaw가 설치되어 있는지 확인하세요. 터미널에서 openclaw --version을 실행하여 확인할 수 있습니다.
2
설치 실행
위의 설치 명령어를 터미널에서 실행하세요. ClawHub가 자동으로 Ollama을(를) ~/.openclaw/skills/ 디렉토리에 다운로드하고 설치합니다.
3
설치 확인
openclaw skills list를 실행하여 설치된 스킬 목록을 확인하고, Ollama이(가) 목록에 표시되는지 확인하세요.
4
매개변수 설정 (선택사항)
아래 소개의 설정 안내에 따라 ~/.config/openclaw/openclaw.json5에 스킬 설정 항목을 추가하세요.
수동 설치 방법: Skill 폴더를
~/.openclaw/skills/ 또는 프로젝트의 skills/ 디렉토리에 복사하세요. 폴더에 SKILL.md 파일이 포함되어 있어야 합니다.
로컬 실행
오프라인 가능
프라이버시 보호
상세 소개
Ollama 스킬은 OpenClaw를 로컬에서 실행되는 Ollama 서비스에 연결하여 오픈소스 대규모 모델로 완전한 오프라인 AI 대화를 수행합니다.
핵심 기능
- 로컬 모델: Llama 3, Mistral, Qwen, Gemma 등 오픈소스 모델 사용
- 완전 오프라인: 데이터가 로컬 머신을 벗어나지 않아 프라이버시에 민감한 시나리오에 적합
- 모델 관리: 로컬 모델 목록 조회, 풀, 삭제
- 커스텀 모델: Modelfile을 사용하여 커스텀 모델 생성
- 다중 모델 병렬: 여러 모델을 동시에 로드하고 필요에 따라 전환
설정 방법
{
skills: {
ollama: {
baseUrl: "http://localhost:11434",
defaultModel: "llama3.1:8b",
keepAlive: "5m"
}
}
}
사용 시나리오
- 프라이버시 요구가 높고 데이터 외부 유출이 불가한 시나리오
- 네트워크 연결이 없을 때의 오프라인 AI 어시스턴트
- 로컬 개발 테스트에서 API 크레딧 소모 없이 사용
- 특정 작업에 파인튜닝된 커스텀 모델 실행
시스템 요구사항
Ollama를 설치하고 모델을 사전에 다운로드해야 합니다. 최소 8GB VRAM(GPU) 또는 16GB RAM(CPU 추론)을 권장합니다.