为什么选择Claude作为AI模型
在 OpenClaw 支持的众多 AI 模型中,Anthropic 的 Claude 系列因为出色的中文理解能力、较长的上下文窗口和稳定的输出质量,成为很多用户的首选。特别是在日常对话、文本分析和代码辅助等场景下,Claude 的表现相当可靠。
本文将详细介绍如何获取 Claude API 密钥并在 OpenClaw 中完成配置。
获取Anthropic API密钥
首先你需要在 Anthropic 官网注册账号并获取 API 密钥:
- 访问 Anthropic Console
- 注册或登录你的账号
- 进入 API Keys 页面
- 点击 Create Key 创建一个新的 API 密钥
- 为密钥起一个名字,比如
openclaw-home,方便后续管理 - 复制生成的密钥(以
sk-ant-开头),妥善保存,页面关闭后无法再次查看
在开始使用之前,你还需要在 Anthropic Console 中添加支付方式并充值。Claude API 是按量计费的,新注册账号通常会有一定的免费额度供测试使用。
在OpenClaw中配置Claude
方法一:通过Onboard向导配置
如果你是首次设置 OpenClaw,在运行 openclaw onboard 时,向导会提示你选择 AI 模型提供商。选择 Anthropic,然后粘贴你的 API 密钥即可。
方法二:手动编辑配置文件
如果你已经完成了初始化,可以直接编辑配置文件 ~/.config/openclaw/openclaw.json5:
{
providers: {
anthropic: {
enabled: true,
apiKey: "sk-ant-api03-xxxxxxxxxxxx",
defaultModel: "claude-sonnet-4-20250514",
// 可选:设置最大 token 数
maxTokens: 4096
}
},
// 设置全局默认提供商
defaultProvider: "anthropic"
}
方法三:通过环境变量配置
如果你不想将密钥明文写在配置文件中(推荐的安全做法),可以通过环境变量传递:
export ANTHROPIC_API_KEY="sk-ant-api03-xxxxxxxxxxxx"
然后在配置文件中省略 apiKey 字段,OpenClaw 会自动读取环境变量:
{
providers: {
anthropic: {
enabled: true,
defaultModel: "claude-sonnet-4-20250514"
}
}
}
对于 Docker 部署的用户,将密钥写入 .env 文件是最佳实践。
可用的Claude模型
截至目前,你可以在 OpenClaw 中使用以下 Claude 模型:
| 模型标识 | 特点 | 适用场景 |
|---|---|---|
claude-sonnet-4-20250514 |
平衡性能与成本 | 日常对话、通用任务 |
claude-opus-4-20250514 |
最强推理能力 | 复杂分析、长文写作 |
claude-haiku-3-20250307 |
速度快、成本低 | 简单问答、高频调用 |
建议日常使用选择 Sonnet,需要处理复杂任务时切换到 Opus,对延迟敏感或调用量大的场景使用 Haiku。
你可以在配置文件中设置默认模型,也可以在对话中动态切换:
{
providers: {
anthropic: {
enabled: true,
defaultModel: "claude-sonnet-4-20250514",
models: {
"claude-opus-4-20250514": {
maxTokens: 8192
},
"claude-haiku-3-20250307": {
maxTokens: 2048
}
}
}
}
}
测试配置是否生效
配置完成后,重启 OpenClaw Gateway:
openclaw restart
然后通过 Dashboard 发送一条测试消息:
openclaw dashboard
在对话框中输入任意内容,如果收到 Claude 的回复,说明配置成功。
你也可以通过命令行快速测试:
openclaw chat "你好,请用一句话介绍你自己"
如果返回类似"我是 Claude,Anthropic 开发的 AI 助手"的回复,一切就绪。
费用控制
Claude API 按 token 计费,输入和输出的费率不同。为了避免意外产生高额费用,建议采取以下措施:
1. 在 Anthropic Console 设置用量限制:
登录 Console,进入 Settings > Limits,设置每月的用量上限。达到上限后 API 会返回错误而不是继续计费。
2. 在 OpenClaw 中限制单次回复长度:
{
providers: {
anthropic: {
maxTokens: 2048 // 限制单次回复最多 2048 个 token
}
}
}
3. 限制可以触发 AI 的用户:
在频道配置中设置白名单,避免不相关的人通过你的聊天平台消耗 API 额度。
4. 定期查看用量:
在 Anthropic Console 的 Usage 页面可以查看详细的调用统计和费用明细。
多提供商配置
OpenClaw 支持同时配置多个提供商。你可以将 Claude 作为主力模型,同时配置 Ollama 作为备用(本地运行,无需付费):
{
providers: {
anthropic: {
enabled: true,
defaultModel: "claude-sonnet-4-20250514"
},
ollama: {
enabled: true,
defaultModel: "llama3"
}
},
defaultProvider: "anthropic",
fallbackProvider: "ollama"
}
当 Claude API 不可用时,OpenClaw 会自动切换到 Ollama 本地模型,保证服务不中断。
总结
Claude 是 OpenClaw 中体验最好的模型之一,配置过程也非常简单。通过环境变量管理密钥、合理设置用量限制、配合 Ollama 作为备用方案,就能搭建一个既高质量又可控的个人 AI 助手。如有疑问,请参考 OpenClaw官方文档 或前往 OpenClaw GitHub仓库 查找帮助。更多模型接入方法请访问 OpenClaw。