なぜAIモデルにClaudeを選ぶのか
OpenClaw が対応する数多くの AI モデルのなかでも、Anthropic の Claude シリーズは、優れた日本語・中国語の理解力、長いコンテキストウィンドウ、安定した出力品質から、多くのユーザーに選ばれています。特に日常会話、テキスト分析、コーディング支援といった場面では、Claude の性能は非常に頼りになります。
この記事では、Claude API キーの取得から OpenClaw での設定完了までを詳しくご説明します。
Anthropic APIキーを取得する
まず Anthropic の公式サイトでアカウントを登録し、API キーを取得します。
- Anthropic Console にアクセスする
- アカウントを登録またはログインする
- API Keys ページに移動する
- Create Key をクリックして新しい API キーを作成する
- キーに名前を付ける(例:
openclaw-home)。あとで管理しやすくなります - 生成されたキー(
sk-ant-で始まる)をコピーする。ページを閉じると再表示できないため、確実に保存してください
利用を開始するには、Anthropic Console で支払い方法を追加してチャージする必要があります。Claude API は従量課金制で、新規アカウントには通常テスト用の無料枠が用意されています。
OpenClawでClaudeを設定する
方法1:Onboardウィザードで設定する
OpenClaw を初めてセットアップする場合は、openclaw onboard 実行時に AI モデルプロバイダーの選択画面が表示されます。Anthropic を選んで API キーを貼り付ければ完了です。
方法2:設定ファイルを手動で編集する
すでに初期設定が完了している場合は、設定ファイル ~/.config/openclaw/openclaw.json5 を直接編集できます。
{
providers: {
anthropic: {
enabled: true,
apiKey: "sk-ant-api03-xxxxxxxxxxxx",
defaultModel: "claude-sonnet-4-20250514",
// オプション:最大トークン数を設定
maxTokens: 4096
}
},
// グローバルのデフォルトプロバイダーを設定
defaultProvider: "anthropic"
}
方法3:環境変数で設定する
キーを設定ファイルに平文で書きたくない場合(セキュリティ上推奨される方法)、環境変数で渡すことができます。
export ANTHROPIC_API_KEY="sk-ant-api03-xxxxxxxxxxxx"
設定ファイルでは apiKey フィールドを省略すれば、OpenClaw が自動的に環境変数を読み込みます。
{
providers: {
anthropic: {
enabled: true,
defaultModel: "claude-sonnet-4-20250514"
}
}
}
Docker でデプロイしている場合は、キーを .env ファイルに記述するのがベストプラクティスです。
利用可能なClaudeモデル
現時点で OpenClaw で使用できる Claude モデルは以下のとおりです。
| モデル識別子 | 特徴 | 適用シーン |
|---|---|---|
claude-sonnet-4-20250514 |
性能とコストのバランスが良い | 日常会話、汎用タスク |
claude-opus-4-20250514 |
最も高い推論能力 | 複雑な分析、長文ライティング |
claude-haiku-3-20250307 |
高速・低コスト | 簡単な質問応答、高頻度の呼び出し |
日常的には Sonnet を、複雑なタスクには Opus を、レイテンシが重要な場面や大量呼び出しには Haiku を使うのがおすすめです。
設定ファイルでデフォルトモデルを指定することも、会話中に動的に切り替えることもできます。
{
providers: {
anthropic: {
enabled: true,
defaultModel: "claude-sonnet-4-20250514",
models: {
"claude-opus-4-20250514": {
maxTokens: 8192
},
"claude-haiku-3-20250307": {
maxTokens: 2048
}
}
}
}
}
設定の動作確認
設定が完了したら、OpenClaw Gateway を再起動します。
openclaw restart
Dashboard からテストメッセージを送ってみましょう。
openclaw dashboard
入力欄に何かメッセージを送り、Claude から返信があれば設定は成功です。
コマンドラインからのクイックテストも可能です。
openclaw chat "こんにちは、一言で自己紹介をお願いします"
「私は Claude です。Anthropic が開発した AI アシスタントです」のような返信が返ってくれば、準備完了です。
料金のコントロール
Claude API はトークン単位の課金で、入力と出力で料金が異なります。予期しない高額請求を避けるために、以下の対策をおすすめします。
1. Anthropic Console で利用上限を設定する:
Console にログインし、Settings > Limits で月間の利用上限を設定してください。上限に達すると、課金が続くのではなく API がエラーを返します。
2. OpenClaw で1回あたりの返信長を制限する:
{
providers: {
anthropic: {
maxTokens: 2048 // 1回の返信を最大2048トークンに制限
}
}
}
3. AIをトリガーできるユーザーを制限する:
チャンネル設定でホワイトリストを設定し、無関係な人がチャットプラットフォーム経由で API の利用枠を消費しないようにしましょう。
4. 利用量を定期的に確認する:
Anthropic Console の Usage ページで、詳細な呼び出し統計と料金の明細を確認できます。
マルチプロバイダー設定
OpenClaw は複数のプロバイダーの同時設定に対応しています。Claude をメインモデルにしつつ、Ollama をバックアップ(ローカル実行で無料)として設定できます。
{
providers: {
anthropic: {
enabled: true,
defaultModel: "claude-sonnet-4-20250514"
},
ollama: {
enabled: true,
defaultModel: "llama3"
}
},
defaultProvider: "anthropic",
fallbackProvider: "ollama"
}
Claude API が利用できない場合、OpenClaw は自動的に Ollama のローカルモデルに切り替わり、サービスの中断を防ぎます。
まとめ
Claude は OpenClaw で最も快適に使えるモデルの一つであり、設定も非常にシンプルです。環境変数でキーを管理し、利用上限を適切に設定し、Ollama をバックアップとして用意すれば、高品質かつコントロール可能な個人 AI アシスタントを構築できます。ご不明な点がありましたら、OpenClaw公式ドキュメントを参照するか、OpenClaw GitHub リポジトリでヘルプを探してください。その他のモデル接続方法については OpenClaw をご覧ください。