ホーム チュートリアル カテゴリ Skills サイトについて
ZH EN JA KO
🦙

Ollama

ローカルモデル AIモデル・ルーティング

インストールコマンド

npx clawhub@latest install ollama

インストール手順

1
環境確認

Node.js 22以上とOpenClawがインストール済みであることを確認してください。ターミナルでopenclaw --versionを実行して確認できます。

2
インストール実行

上記のインストールコマンドをターミナルで実行します。ClawHubが自動的にOllamaを~/.openclaw/skills/ディレクトリにダウンロード・インストールします。

3
インストール確認

openclaw skills listを実行してインストール済みスキル一覧を確認し、Ollamaが表示されていることを確かめてください。

4
パラメータ設定(任意)

下記の紹介にある設定手順に従い、~/.config/openclaw/openclaw.json5にスキルの設定項目を追加してください。

手動インストール方法:Skillフォルダを~/.openclaw/skills/またはプロジェクトのskills/ディレクトリにコピーしてください。フォルダ内にSKILL.mdファイルが必要です。
ローカル実行 オフライン可能 プライバシー保護

詳細紹介

Ollama スキルにより、OpenClaw がローカルで動作する Ollama サービスに接続し、オープンソース大規模モデルで完全オフラインの AI 対話を実現できます。

コア機能

  • ローカルモデル:Llama 3、Mistral、Qwen、Gemma などのオープンソースモデルを使用
  • 完全オフライン:データがマシン外に出ないため、プライバシーに敏感なシーンに最適
  • モデル管理:ローカルモデルの一覧表示、プル、削除
  • カスタムモデル:Modelfile を使用してカスタムモデルを作成
  • マルチモデル並列:複数のモデルを同時にロードし、必要に応じて切替

設定方法

{
  skills: {
    ollama: {
      baseUrl: "http://localhost:11434",
      defaultModel: "llama3.1:8b",
      keepAlive: "5m"
    }
  }
}

使用シーン

  • プライバシー要件が高く、データを外部に送信できないシーン
  • ネットワーク接続がない場合のオフライン AI アシスタント
  • ローカル開発テストで API クレジットを消費しない
  • 特定タスク向けにファインチューニングしたカスタムモデルの実行

システム要件

Ollama のインストールと事前のモデルダウンロードが必要です。最低 8GB VRAM(GPU)または 16GB RAM(CPU 推論)を推奨します。