🦙
Ollama
ローカルモデル AIモデル・ルーティングインストールコマンド
npx clawhub@latest install ollama
インストール手順
1
環境確認
Node.js 22以上とOpenClawがインストール済みであることを確認してください。ターミナルでopenclaw --versionを実行して確認できます。
2
インストール実行
上記のインストールコマンドをターミナルで実行します。ClawHubが自動的にOllamaを~/.openclaw/skills/ディレクトリにダウンロード・インストールします。
3
インストール確認
openclaw skills listを実行してインストール済みスキル一覧を確認し、Ollamaが表示されていることを確かめてください。
4
パラメータ設定(任意)
下記の紹介にある設定手順に従い、~/.config/openclaw/openclaw.json5にスキルの設定項目を追加してください。
手動インストール方法:Skillフォルダを
~/.openclaw/skills/またはプロジェクトのskills/ディレクトリにコピーしてください。フォルダ内にSKILL.mdファイルが必要です。
ローカル実行
オフライン可能
プライバシー保護
詳細紹介
Ollama スキルにより、OpenClaw がローカルで動作する Ollama サービスに接続し、オープンソース大規模モデルで完全オフラインの AI 対話を実現できます。
コア機能
- ローカルモデル:Llama 3、Mistral、Qwen、Gemma などのオープンソースモデルを使用
- 完全オフライン:データがマシン外に出ないため、プライバシーに敏感なシーンに最適
- モデル管理:ローカルモデルの一覧表示、プル、削除
- カスタムモデル:Modelfile を使用してカスタムモデルを作成
- マルチモデル並列:複数のモデルを同時にロードし、必要に応じて切替
設定方法
{
skills: {
ollama: {
baseUrl: "http://localhost:11434",
defaultModel: "llama3.1:8b",
keepAlive: "5m"
}
}
}
使用シーン
- プライバシー要件が高く、データを外部に送信できないシーン
- ネットワーク接続がない場合のオフライン AI アシスタント
- ローカル開発テストで API クレジットを消費しない
- 特定タスク向けにファインチューニングしたカスタムモデルの実行
システム要件
Ollama のインストールと事前のモデルダウンロードが必要です。最低 8GB VRAM(GPU)または 16GB RAM(CPU 推論)を推奨します。