首页 教程 分类 Skills下载 关于
ZH EN JA KO
模型接入

OpenClaw怎么配置Claude API密钥

· 7 分钟

为什么选择Claude作为AI模型

在 OpenClaw 支持的众多 AI 模型中,Anthropic 的 Claude 系列因为出色的中文理解能力、较长的上下文窗口和稳定的输出质量,成为很多用户的首选。特别是在日常对话、文本分析和代码辅助等场景下,Claude 的表现相当可靠。

本文将详细介绍如何获取 Claude API 密钥并在 OpenClaw 中完成配置。

获取Anthropic API密钥

首先你需要在 Anthropic 官网注册账号并获取 API 密钥:

  1. 访问 Anthropic Console
  2. 注册或登录你的账号
  3. 进入 API Keys 页面
  4. 点击 Create Key 创建一个新的 API 密钥
  5. 为密钥起一个名字,比如 openclaw-home,方便后续管理
  6. 复制生成的密钥(以 sk-ant- 开头),妥善保存,页面关闭后无法再次查看

在开始使用之前,你还需要在 Anthropic Console 中添加支付方式并充值。Claude API 是按量计费的,新注册账号通常会有一定的免费额度供测试使用。

在OpenClaw中配置Claude

方法一:通过Onboard向导配置

如果你是首次设置 OpenClaw,在运行 openclaw onboard 时,向导会提示你选择 AI 模型提供商。选择 Anthropic,然后粘贴你的 API 密钥即可。

方法二:手动编辑配置文件

如果你已经完成了初始化,可以直接编辑配置文件 ~/.config/openclaw/openclaw.json5

{
  providers: {
    anthropic: {
      enabled: true,
      apiKey: "sk-ant-api03-xxxxxxxxxxxx",
      defaultModel: "claude-sonnet-4-20250514",
      // 可选:设置最大 token 数
      maxTokens: 4096
    }
  },

  // 设置全局默认提供商
  defaultProvider: "anthropic"
}

方法三:通过环境变量配置

如果你不想将密钥明文写在配置文件中(推荐的安全做法),可以通过环境变量传递:

export ANTHROPIC_API_KEY="sk-ant-api03-xxxxxxxxxxxx"

然后在配置文件中省略 apiKey 字段,OpenClaw 会自动读取环境变量:

{
  providers: {
    anthropic: {
      enabled: true,
      defaultModel: "claude-sonnet-4-20250514"
    }
  }
}

对于 Docker 部署的用户,将密钥写入 .env 文件是最佳实践。

可用的Claude模型

截至目前,你可以在 OpenClaw 中使用以下 Claude 模型:

模型标识 特点 适用场景
claude-sonnet-4-20250514 平衡性能与成本 日常对话、通用任务
claude-opus-4-20250514 最强推理能力 复杂分析、长文写作
claude-haiku-3-20250307 速度快、成本低 简单问答、高频调用

建议日常使用选择 Sonnet,需要处理复杂任务时切换到 Opus,对延迟敏感或调用量大的场景使用 Haiku。

你可以在配置文件中设置默认模型,也可以在对话中动态切换:

{
  providers: {
    anthropic: {
      enabled: true,
      defaultModel: "claude-sonnet-4-20250514",
      models: {
        "claude-opus-4-20250514": {
          maxTokens: 8192
        },
        "claude-haiku-3-20250307": {
          maxTokens: 2048
        }
      }
    }
  }
}

测试配置是否生效

配置完成后,重启 OpenClaw Gateway:

openclaw restart

然后通过 Dashboard 发送一条测试消息:

openclaw dashboard

在对话框中输入任意内容,如果收到 Claude 的回复,说明配置成功。

你也可以通过命令行快速测试:

openclaw chat "你好,请用一句话介绍你自己"

如果返回类似"我是 Claude,Anthropic 开发的 AI 助手"的回复,一切就绪。

费用控制

Claude API 按 token 计费,输入和输出的费率不同。为了避免意外产生高额费用,建议采取以下措施:

1. 在 Anthropic Console 设置用量限制:

登录 Console,进入 Settings > Limits,设置每月的用量上限。达到上限后 API 会返回错误而不是继续计费。

2. 在 OpenClaw 中限制单次回复长度:

{
  providers: {
    anthropic: {
      maxTokens: 2048  // 限制单次回复最多 2048 个 token
    }
  }
}

3. 限制可以触发 AI 的用户:

在频道配置中设置白名单,避免不相关的人通过你的聊天平台消耗 API 额度。

4. 定期查看用量:

在 Anthropic Console 的 Usage 页面可以查看详细的调用统计和费用明细。

多提供商配置

OpenClaw 支持同时配置多个提供商。你可以将 Claude 作为主力模型,同时配置 Ollama 作为备用(本地运行,无需付费):

{
  providers: {
    anthropic: {
      enabled: true,
      defaultModel: "claude-sonnet-4-20250514"
    },
    ollama: {
      enabled: true,
      defaultModel: "llama3"
    }
  },
  defaultProvider: "anthropic",
  fallbackProvider: "ollama"
}

当 Claude API 不可用时,OpenClaw 会自动切换到 Ollama 本地模型,保证服务不中断。

总结

Claude 是 OpenClaw 中体验最好的模型之一,配置过程也非常简单。通过环境变量管理密钥、合理设置用量限制、配合 Ollama 作为备用方案,就能搭建一个既高质量又可控的个人 AI 助手。如有疑问,请参考 OpenClaw官方文档 或前往 OpenClaw GitHub仓库 查找帮助。更多模型接入方法请访问 OpenClaw。

OpenClaw 是开源免费的个人AI助手,支持 WhatsApp、Telegram、Discord 等多平台接入