適切なAIモデルプロバイダーを選ぶことは、インテリジェントアシスタントを構築する上での重要なステップです。OpenClawはセルフホスト型AIアシスタントプラットフォームとして、現在14のモデルプロバイダーをサポートしており、クラウドベースの商用モデルからローカルのオープンソースモデルまで幅広くカバーしています。本記事では、利用可能なすべてのプロバイダーの設定方法と、マルチアカウント認証やフェイルオーバーなどの高度な機能を体系的に紹介します。
サポートされるプロバイダー一覧
OpenClawは現在以下の14プロバイダーをサポートしています。
| プロバイダー | タイプ | 代表的な用途 |
|---|---|---|
| Anthropic | クラウド商用 | Claudeシリーズ、強力な推論能力 |
| OpenAI | クラウド商用 | GPTシリーズ、優れた汎用性能 |
| Amazon Bedrock | クラウドホスティング | AWSエコシステム統合 |
| OpenRouter | モデルゲートウェイ | 1つのキーで複数プロバイダーにアクセス |
| Ollama | ローカル推論 | オープンソースモデルを無料で実行 |
| GLM | クラウド商用 | 智譜AI、優れた中国語能力 |
| Qwen | クラウド商用 | アリババ通義千問シリーズ |
| MiniMax | クラウド商用 | 海螺AI、強力な長文処理能力 |
| Moonshot AI | クラウド商用 | Kimi、長文コンテキスト処理 |
| Xiaomi | クラウド商用 | Xiaomi MiLMシリーズ |
| Venice AI | プライバシー推論 | ログなし、プライバシー優先の推論 |
| OpenCode Zen | クラウド商用 | コード生成特化 |
| Z.AI | クラウド商用 | 汎用マルチモーダルモデル |
| Deepgram | 音声テキスト変換 | 音声書き起こしサービス |
最初の13プロバイダーは大規模言語モデルサービスを提供し、Deepgramは音声テキスト変換(トランスクリプション)機能専用です。
クイックスタート:onboardコマンドで設定
新規ユーザーにとって最も簡単なアプローチは、対話型オンボーディングコマンドです。
openclaw onboard
このコマンドがプロバイダーの選択とAPIキーの設定をステップバイステップで案内します。システムが自動的にキーを検証し、対応する設定ファイルを生成します。
デフォルトモデル設定
オンボード完了後、OpenClawは設定ファイルにデフォルトのモデル設定を生成します。コア設定構造は以下の通りです。
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-5"
}
}
}
}
primaryフィールドはプロバイダー/モデル名の形式でメインモデルを指定します。OpenClawのデフォルト推奨はAnthropicのClaude Opus 4.5で、現在利用可能な中で最も強力なオールラウンドオプションの1つです。
ニーズに応じて他のモデルに切り替えることもできます。
{
"agents": {
"defaults": {
"model": {
"primary": "openai/gpt-4o"
}
}
}
}
プロバイダー非依存のモデル切り替え
OpenClawはプロバイダー非依存のモデル切り替えメカニズムを使用しています。これは、設定内のモデル識別子を変更するだけで、ビジネスロジックを修正することなく、異なるプロバイダーのモデル間で切り替えられることを意味します。
例えば、Anthropicからローカルのollamaモデルへの切り替えは1行の変更だけです。
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.1"
}
}
}
}
すべてのプロバイダーは統一されたインターフェース抽象層を共有しているため、アプリケーションレベルのコードの変更は不要です。
プライバシー優先オプション:Venice AI
厳格なデータプライバシー要件がある場合、Venice AIは検討に値します。Veniceはログなしの推論サービスを提供しており、会話データは保存も訓練への使用もされません。
現在利用可能なVenice AIモデルには以下が含まれます。
{
"agents": {
"defaults": {
"model": {
"primary": "venice/llama-3.3-70b"
}
}
}
}
よりハイエンドなモデルもサポートされています。
{
"agents": {
"defaults": {
"model": {
"primary": "venice/claude-opus-45"
}
}
}
}
Veniceは、医療相談や法律文書など、高いレベルのプライバシー保護が必要なセンシティブなビジネスシナリオに適しています。
OpenRouterによるプロバイダーアクセスの拡張
ネイティブにサポートされている14プロバイダーに加えて、OpenRouterを通じて間接的に追加のモデルプロバイダーにアクセスできます。
- xAI - Grokシリーズモデル
- Groq - 超低レイテンシ推論アクセラレーション
- Mistral - ヨーロッパをリードするオープンソースモデル
1つのOpenRouter APIキーで、これらすべてのプロバイダーのモデルに統一的にアクセスでき、複数のキーを個別に登録・管理する必要がありません。
マルチアカウント認証とフェイルオーバー
本番環境では、単一のAPIアカウントに依存することには明確なリスクがあります。OpenClawは同じプロバイダーに対して複数の認証プロファイルを設定し、自動フェイルオーバーを実現することをサポートしています。
複数アカウントの設定
{
"providers": {
"anthropic": {
"profiles": [
{
"name": "primary",
"apiKey": "sk-ant-xxxxx-primary"
},
{
"name": "backup",
"apiKey": "sk-ant-xxxxx-backup"
}
]
}
}
}
フェイルオーバーとクールダウン追跡
プライマリプロファイルのAPI呼び出しが失敗した場合(レート制限、残高不足、サービスダウンなど)、OpenClawは自動的に次の利用可能なプロファイルに切り替えます。システムにはクールダウン追跡メカニズムが組み込まれています。
- 失敗後、プロファイルはクールダウン状態としてマークされる
- クールダウン期間中、そのプロファイルは選択されない
- クールダウン終了後、自動的に再び利用可能になる
- 複数のプロファイルが順番にローテーションし、サービスの継続性を確保
このメカニズムは、高並行性や長時間実行シナリオで特に重要であり、単一アカウントの問題によるサービス全体のダウンを効果的に防止します。
コミュニティツール:Claude Max API Proxy
Claude Maxプランに加入済みのユーザー向けに、コミュニティがClaude Max API Proxyというツールを開発しています。Claude Maxサブスクリプションを互換性のあるAPIインターフェースに変換し、OpenClawが追加のAPIクレジットを購入せずにMaxサブスクリプションを通じて直接Claudeモデルを呼び出せるようにします。
これはコミュニティが保守するサードパーティツールです。使用前にその安定性とセキュリティを評価してください。
音声テキスト変換:Deepgram
14プロバイダーの中で、Deepgramはユニークです。大規模言語モデルを提供するのではなく、音声テキスト変換に特化しています。OpenClawアシスタントが音声メッセージを処理する必要がある場合、Deepgramをトランスクリプションサービスプロバイダーとして設定できます。
{
"transcription": {
"provider": "deepgram",
"apiKey": "your-deepgram-api-key"
}
}
選択の推奨事項
14のプロバイダーから選ぶ際のガイドラインを紹介します。
- 最高品質:
anthropic/claude-opus-4-5またはopenai/gpt-4oを選択 - プライバシー保護:Venice AIモデルを選択
- ゼロコスト運用:Ollamaでローカルオープンソースモデルを選択
- 柔軟なマルチモデル切り替え:OpenRouterを統一ゲートウェイとして選択
- 中国語最適化:GLM(智譜)またはQwen(通義千問)を選択
- 音声機能:Deepgramをトランスクリプションサービスとして追加設定
どのプロバイダーを選んでも、OpenClawのプロバイダー非依存アーキテクチャにより、いつでも切り替えが可能で、単一のプラットフォームにロックインされることはありません。まずはデフォルトのAnthropic設定から始めて、ニーズの発展に応じて段階的にプロバイダーやフェイルオーバー設定を追加することをお勧めします。