ホーム チュートリアル カテゴリ Skills サイトについて
ZH EN JA KO
モデル接続

OpenClawにOllamaの無料ローカルモデルを接続する方法

· 8 分で読了

クラウドのAIモデルは便利ですが、呼び出すたびに費用がかかり、データを第三者のサーバーに送信する必要があります。プライバシーを重視する方や、コストゼロでAIアシスタントを運用したい方にとっては、Ollamaを使ってローカルでオープンソースモデルを動かすのが最適な選択肢です。OpenClawのセルフホスト型AIアシスタントはOllamaをネイティブサポートしており、設定もとても簡単です。

Ollamaとは

Ollamaは、ローカルで大規模言語モデルを実行するためのツールです。モデルのダウンロード、管理、推論をシンプルなコマンドラインインターフェースとAPIサービスにまとめています。MetaのLlamaシリーズ、AlibabaのQwenシリーズ、GoogleのGemmaシリーズなど多数のオープンソースモデルに対応しており、すべて無料で使えます。

ステップ1:Ollamaをインストールする

お使いのOSに合わせたインストール方法を選んでください。

Linux(推奨):

curl -fsSL https://ollama.com/install.sh | sh

macOS:

ollama.com からインストーラーをダウンロードするか、Homebrew でインストールします。

brew install ollama

Windows:

ollama.com から Windows インストーラーをダウンロードして実行してください。

インストール後、正しく入っているか確認します。

ollama --version

ステップ2:AIモデルをダウンロードする

Ollama は pull コマンドでモデルをダウンロードします。おすすめのモデルをいくつかご紹介します。

Llama 3.1 8B(汎用英語モデル、入門におすすめ):

ollama pull llama3.1

Qwen2.5 7B(中国語・日本語に強い、アジア言語ユーザーにおすすめ):

ollama pull qwen2.5

Gemma 2 9B(Google 製、バランスの取れた性能):

ollama pull gemma2

複数のモデルを同時にダウンロードし、OpenClaw でいつでも切り替えて使うことができます。ダウンロード済みのモデル一覧を確認するには以下を実行します。

ollama list

モデルのダウンロードが完了したら、まず手動で正常に動作するかテストしてみましょう。

ollama run qwen2.5 "こんにちは、自己紹介をお願いします"

モデルから正常に返答があれば、Ollama の準備は完了です。

ステップ3:Ollamaサービスが起動していることを確認する

Ollama はバックグラウンドでサービスとして動作し、デフォルトで http://localhost:11434 をリッスンします。サービスの状態を確認するには以下を実行します。

curl http://localhost:11434/api/tags

モデル一覧の JSON データが返ってくれば、サービスは稼働中です。Linux では、Ollama は通常 systemd サービスとして自動起動します。

sudo systemctl status ollama
sudo systemctl enable ollama  # OS起動時に自動起動するよう設定

ステップ4:OpenClawでOllamaを設定する

OpenClaw の設定ファイルを開きます。

nano ~/.config/openclaw/openclaw.json5

providers セクションに Ollama の設定を追加します。

{
  providers: {
    ollama: {
      enabled: true,
      baseUrl: "http://localhost:11434",
      // Ollamaは実際のAPI Keyは不要ですが、フィールドを空にはできません
      apiKey: "ollama",
    }
  },
  // デフォルトで使用するモデルを設定
  defaultModel: "ollama/qwen2.5",
}

apiKey フィールドには任意の空でない文字列を入力してください。Ollama 自体は認証を必要としませんが、OpenClaw の設定バリデーションでこのフィールドの存在が求められます。

設定を保存したら Gateway を再起動します。

openclaw gateway restart

ステップ5:動作確認とテスト

診断ツールで Ollama が正しく接続されていることを確認します。

openclaw doctor

出力内で Ollama 関連の項目を探し、ステータスが正常であることを確認してください。その後、設定済みのチャットチャンネル(Telegram、Discord など)からメッセージを送ってテストしましょう。

Dashboard からもモデルの応答状況を確認できます。

openclaw dashboard

ハードウェア要件の目安

ローカルで AI モデルを動かすには一定のハードウェアスペックが必要です。モデルの規模ごとの推奨スペックは以下のとおりです。

モデル規模 最小メモリ 推奨メモリ 推奨GPU VRAM 代表的なモデル
3B パラメータ 4GB 8GB 4GB llama3.2:3b
7-8B パラメータ 8GB 16GB 8GB qwen2.5, llama3.1
13B パラメータ 16GB 32GB 12GB llama2:13b
70B パラメータ 64GB 128GB 48GB+ llama3.1:70b

補足事項:

  • 専用 GPU がなくても動作可能です。Ollama は自動的に CPU 推論にフォールバックしますが、速度は大幅に低下します
  • NVIDIA GPU をお使いの方は、最新の CUDA ドライバーをインストールしてください
  • Apple Silicon(M1/M2/M3/M4)デバイスは Ollama との相性が良く、ユニファイドメモリを効率的に活用できます
  • VPS でデプロイする場合は、7B モデルを動かすのに最低 8GB メモリのインスタンスを選んでください

複数モデルの切り替え

OpenClaw は設定内に複数のモデルを定義し、必要に応じて切り替えることに対応しています。クラウドモデルとローカルモデルを同時に設定できます。

{
  providers: {
    anthropic: {
      enabled: true,
      apiKey: "sk-ant-xxxxx",
    },
    ollama: {
      enabled: true,
      baseUrl: "http://localhost:11434",
      apiKey: "ollama",
    }
  },
  defaultModel: "ollama/qwen2.5",
  // 会話中に別のモデルに切り替え可能
}

このように設定すれば、普段は無料のローカルモデルを使い、より高い能力が必要なときだけクラウドモデルに切り替えるといった運用が可能です。

まとめ

Ollama でローカルモデルを接続すれば、一切費用をかけず、データを外部に送ることなく AI アシスタントの恩恵を受けられます。アジア言語ユーザーには Qwen2.5 シリーズが特におすすめで、中国語・日本語の理解と生成において優れた性能を発揮します。より多くのモデルの選択肢や高度な設定についてはOpenClaw公式ドキュメントを参照してください。問題が発生した場合はOpenClaw GitHub リポジトリで解決策を探すことができます。

OpenClawは無料のオープンソースAIアシスタント。WhatsApp、Telegram、Discordなど多数のプラットフォームに対応