クラウドのAIモデルは便利ですが、呼び出すたびに費用がかかり、データを第三者のサーバーに送信する必要があります。プライバシーを重視する方や、コストゼロでAIアシスタントを運用したい方にとっては、Ollamaを使ってローカルでオープンソースモデルを動かすのが最適な選択肢です。OpenClawのセルフホスト型AIアシスタントはOllamaをネイティブサポートしており、設定もとても簡単です。
Ollamaとは
Ollamaは、ローカルで大規模言語モデルを実行するためのツールです。モデルのダウンロード、管理、推論をシンプルなコマンドラインインターフェースとAPIサービスにまとめています。MetaのLlamaシリーズ、AlibabaのQwenシリーズ、GoogleのGemmaシリーズなど多数のオープンソースモデルに対応しており、すべて無料で使えます。
ステップ1:Ollamaをインストールする
お使いのOSに合わせたインストール方法を選んでください。
Linux(推奨):
curl -fsSL https://ollama.com/install.sh | sh
macOS:
ollama.com からインストーラーをダウンロードするか、Homebrew でインストールします。
brew install ollama
Windows:
ollama.com から Windows インストーラーをダウンロードして実行してください。
インストール後、正しく入っているか確認します。
ollama --version
ステップ2:AIモデルをダウンロードする
Ollama は pull コマンドでモデルをダウンロードします。おすすめのモデルをいくつかご紹介します。
Llama 3.1 8B(汎用英語モデル、入門におすすめ):
ollama pull llama3.1
Qwen2.5 7B(中国語・日本語に強い、アジア言語ユーザーにおすすめ):
ollama pull qwen2.5
Gemma 2 9B(Google 製、バランスの取れた性能):
ollama pull gemma2
複数のモデルを同時にダウンロードし、OpenClaw でいつでも切り替えて使うことができます。ダウンロード済みのモデル一覧を確認するには以下を実行します。
ollama list
モデルのダウンロードが完了したら、まず手動で正常に動作するかテストしてみましょう。
ollama run qwen2.5 "こんにちは、自己紹介をお願いします"
モデルから正常に返答があれば、Ollama の準備は完了です。
ステップ3:Ollamaサービスが起動していることを確認する
Ollama はバックグラウンドでサービスとして動作し、デフォルトで http://localhost:11434 をリッスンします。サービスの状態を確認するには以下を実行します。
curl http://localhost:11434/api/tags
モデル一覧の JSON データが返ってくれば、サービスは稼働中です。Linux では、Ollama は通常 systemd サービスとして自動起動します。
sudo systemctl status ollama
sudo systemctl enable ollama # OS起動時に自動起動するよう設定
ステップ4:OpenClawでOllamaを設定する
OpenClaw の設定ファイルを開きます。
nano ~/.config/openclaw/openclaw.json5
providers セクションに Ollama の設定を追加します。
{
providers: {
ollama: {
enabled: true,
baseUrl: "http://localhost:11434",
// Ollamaは実際のAPI Keyは不要ですが、フィールドを空にはできません
apiKey: "ollama",
}
},
// デフォルトで使用するモデルを設定
defaultModel: "ollama/qwen2.5",
}
apiKey フィールドには任意の空でない文字列を入力してください。Ollama 自体は認証を必要としませんが、OpenClaw の設定バリデーションでこのフィールドの存在が求められます。
設定を保存したら Gateway を再起動します。
openclaw gateway restart
ステップ5:動作確認とテスト
診断ツールで Ollama が正しく接続されていることを確認します。
openclaw doctor
出力内で Ollama 関連の項目を探し、ステータスが正常であることを確認してください。その後、設定済みのチャットチャンネル(Telegram、Discord など)からメッセージを送ってテストしましょう。
Dashboard からもモデルの応答状況を確認できます。
openclaw dashboard
ハードウェア要件の目安
ローカルで AI モデルを動かすには一定のハードウェアスペックが必要です。モデルの規模ごとの推奨スペックは以下のとおりです。
| モデル規模 | 最小メモリ | 推奨メモリ | 推奨GPU VRAM | 代表的なモデル |
|---|---|---|---|---|
| 3B パラメータ | 4GB | 8GB | 4GB | llama3.2:3b |
| 7-8B パラメータ | 8GB | 16GB | 8GB | qwen2.5, llama3.1 |
| 13B パラメータ | 16GB | 32GB | 12GB | llama2:13b |
| 70B パラメータ | 64GB | 128GB | 48GB+ | llama3.1:70b |
補足事項:
- 専用 GPU がなくても動作可能です。Ollama は自動的に CPU 推論にフォールバックしますが、速度は大幅に低下します
- NVIDIA GPU をお使いの方は、最新の CUDA ドライバーをインストールしてください
- Apple Silicon(M1/M2/M3/M4)デバイスは Ollama との相性が良く、ユニファイドメモリを効率的に活用できます
- VPS でデプロイする場合は、7B モデルを動かすのに最低 8GB メモリのインスタンスを選んでください
複数モデルの切り替え
OpenClaw は設定内に複数のモデルを定義し、必要に応じて切り替えることに対応しています。クラウドモデルとローカルモデルを同時に設定できます。
{
providers: {
anthropic: {
enabled: true,
apiKey: "sk-ant-xxxxx",
},
ollama: {
enabled: true,
baseUrl: "http://localhost:11434",
apiKey: "ollama",
}
},
defaultModel: "ollama/qwen2.5",
// 会話中に別のモデルに切り替え可能
}
このように設定すれば、普段は無料のローカルモデルを使い、より高い能力が必要なときだけクラウドモデルに切り替えるといった運用が可能です。
まとめ
Ollama でローカルモデルを接続すれば、一切費用をかけず、データを外部に送ることなく AI アシスタントの恩恵を受けられます。アジア言語ユーザーには Qwen2.5 シリーズが特におすすめで、中国語・日本語の理解と生成において優れた性能を発揮します。より多くのモデルの選択肢や高度な設定についてはOpenClaw公式ドキュメントを参照してください。問題が発生した場合はOpenClaw GitHub リポジトリで解決策を探すことができます。