首页 教程 分类 Skills下载 关于
ZH EN JA KO
模型接入

Cloudflare AI Gateway 配置指南

· 7 分钟

什么是 Cloudflare AI Gateway

Cloudflare AI Gateway 是 Cloudflare 提供的 AI 请求代理服务,它可以在你的应用和 AI 供应商之间充当中间层,提供缓存、限速、日志记录和成本控制等功能。将 OpenClaw 接入 Cloudflare AI Gateway 后,你可以获得更好的请求可观测性和成本优化能力。

前置准备

在开始配置之前,你需要准备以下内容:

  • 一个 Cloudflare 账号(免费计划即可)
  • 在 Cloudflare Dashboard 中创建好 AI Gateway
  • 已安装并运行的 OpenClaw 实例
  • 你的上游模型供应商 API Key(如 OpenAI)

创建 Cloudflare AI Gateway

登录 Cloudflare Dashboard,进入 AI 菜单,点击「AI Gateway」,创建一个新的 Gateway。创建完成后你会获得一个 Gateway 端点 URL,格式如下:

https://gateway.ai.cloudflare.com/v1/{account_id}/{gateway_name}/openai

记下这个 URL,后续配置需要用到。

在 OpenClaw 中配置

编辑 OpenClaw 的配置文件,将模型供应商的 base URL 替换为 Cloudflare AI Gateway 的端点地址:

{
  "providers": {
    "cloudflare-openai": {
      "type": "openai",
      "baseUrl": "https://gateway.ai.cloudflare.com/v1/your_account_id/your_gateway/openai",
      "apiKey": "{{OPENAI_API_KEY}}",
      "models": ["gpt-4o", "gpt-4o-mini"]
    }
  }
}

也可以通过环境变量配置:

export OPENAI_BASE_URL="https://gateway.ai.cloudflare.com/v1/your_account_id/your_gateway/openai"
export OPENAI_API_KEY="sk-your-openai-key"

支持的上游供应商

Cloudflare AI Gateway 支持多个上游供应商的代理。在 OpenClaw 中,你可以为不同供应商配置不同的 Gateway 路径:

{
  "providers": {
    "cf-openai": {
      "type": "openai",
      "baseUrl": "https://gateway.ai.cloudflare.com/v1/{account_id}/{gateway}/openai"
    },
    "cf-anthropic": {
      "type": "anthropic",
      "baseUrl": "https://gateway.ai.cloudflare.com/v1/{account_id}/{gateway}/anthropic"
    },
    "cf-azure": {
      "type": "azure",
      "baseUrl": "https://gateway.ai.cloudflare.com/v1/{account_id}/{gateway}/azure-openai"
    }
  }
}

启用缓存

Cloudflare AI Gateway 支持对相同请求进行缓存,节省 API 调用费用。在 Cloudflare Dashboard 中启用缓存功能后,相同的请求会直接返回缓存结果。

在 Gateway 设置页面中:

  1. 打开「Caching」开关
  2. 设置缓存 TTL(生存时间),建议设为 3600 秒
  3. 选择缓存策略(默认即可)

缓存适合用于知识问答类场景,但不建议在需要实时性的对话场景中使用。

配置限速

为防止意外的高频请求导致费用暴涨,可以在 AI Gateway 中设置限速规则:

  1. 进入 Gateway 的「Rate Limiting」设置
  2. 设置每分钟最大请求数(如 60 次/分钟)
  3. 设置超限后的行为(返回错误或排队)

当 OpenClaw 触发限速时,会收到 429 状态码。OpenClaw 内置了重试机制,会自动在短暂延迟后重新发送请求。

日志与监控

Cloudflare AI Gateway 自动记录所有请求日志,你可以在 Dashboard 中查看:

  • 请求总数和成功率
  • Token 使用量统计
  • 响应延迟分布
  • 错误请求详情
  • 按模型的费用估算

这对于排查 OpenClaw 的模型调用问题非常有帮助。

故障排查

如果配置后模型无法正常响应,请检查以下几点:

  1. URL 格式是否正确:确保 Gateway URL 末尾包含正确的供应商标识(如 /openai
  2. API Key 是否有效:Cloudflare AI Gateway 会透传你的 API Key 到上游供应商
  3. 网络连通性:确认 OpenClaw 服务器可以访问 Cloudflare 的域名
  4. Gateway 状态:在 Cloudflare Dashboard 中检查 Gateway 是否处于活跃状态

使用 OpenClaw 的诊断命令快速检测连接:

openclaw doctor --provider cloudflare-openai

总结

Cloudflare AI Gateway 为 OpenClaw 提供了一个强大的中间代理层,无需修改核心代码即可获得缓存、限速、日志等企业级功能。配置过程只需修改 base URL,适合需要精细化管理 AI 请求的团队使用。

OpenClaw 是开源免费的个人AI助手,支持 WhatsApp、Telegram、Discord 等多平台接入