Vercel AI Gateway 简介
Vercel AI Gateway 是 Vercel 提供的 AI 请求代理服务,利用 Vercel 的全球边缘网络加速 AI API 请求。它支持多个 AI 供应商,提供统一的请求入口、缓存和日志功能。
前置要求
- Vercel 账号(Hobby 计划即可开始)
- 已有的 AI 供应商 API Key
- 运行中的 OpenClaw 实例
创建 AI Gateway
- 登录 Vercel Dashboard
- 进入项目设置或创建新项目
- 启用 AI Gateway 功能
- 获取 Gateway URL
Gateway URL 格式:
https://gateway.ai.vercel.sh/v1
在 OpenClaw 中配置
{
"providers": {
"vercel-openai": {
"type": "openai",
"baseUrl": "https://gateway.ai.vercel.sh/v1/openai",
"apiKey": "{{OPENAI_API_KEY}}",
"models": ["gpt-4o", "gpt-4o-mini"]
},
"vercel-anthropic": {
"type": "anthropic",
"baseUrl": "https://gateway.ai.vercel.sh/v1/anthropic",
"apiKey": "{{ANTHROPIC_API_KEY}}",
"models": ["claude-sonnet-4-20250514"]
}
}
}
缓存配置
Vercel AI Gateway 支持请求缓存,减少重复调用费用:
在 Gateway 控制台中配置缓存策略:
- 精确匹配缓存:相同输入返回缓存结果
- 语义缓存:语义相似的输入复用缓存
- TTL 设置:缓存过期时间
缓存适用于 FAQ 问答、知识检索等重复性高的场景。
边缘加速
Vercel 的边缘网络在全球部署了数百个节点,AI Gateway 会自动选择最近的节点处理请求,降低网络延迟。
对于部署在不同地区的 OpenClaw 实例,使用 Vercel AI Gateway 可以获得更稳定的连接质量。
日志与监控
在 Vercel Dashboard 的 AI Gateway 页面可以查看:
- 请求量趋势
- 平均延迟
- 错误率统计
- Token 用量
- 缓存命中率
速率限制
配置速率限制防止滥用:
{
"providers": {
"vercel-openai": {
"rateLimit": {
"maxRequestsPerMinute": 60,
"maxTokensPerMinute": 100000
}
}
}
}
多供应商路由
通过 Vercel AI Gateway 统一管理多个供应商:
{
"providers": {
"vercel-gw": {
"type": "openai",
"baseUrl": "https://gateway.ai.vercel.sh/v1/openai",
"apiKey": "{{OPENAI_API_KEY}}",
"models": ["gpt-4o"]
}
},
"models": {
"smart-model": {
"provider": "vercel-gw",
"model": "gpt-4o",
"temperature": 0.7
}
},
"channels": {
"telegram-main": {
"model": "smart-model"
}
}
}
与 Vercel 项目集成
如果你的 OpenClaw 部署在 Vercel 上,可以直接使用项目绑定的 Gateway:
# 在 Vercel 项目中
vercel env add AI_GATEWAY_URL
# 输入:https://gateway.ai.vercel.sh/v1
连接测试
openclaw doctor --provider vercel-openai
故障排查
- Gateway URL 不正确:确保 URL 包含供应商路径(如
/openai) - API Key 问题:Gateway 透传 API Key,确保 Key 对上游供应商有效
- 区域限制:某些供应商可能限制了特定区域的访问
- 超时问题:增加超时配置应对网络波动
{
"providers": {
"vercel-openai": {
"timeout": 45000,
"retries": 2
}
}
}
总结
Vercel AI Gateway 借助其强大的全球边缘网络,为 OpenClaw 提供了低延迟、高可靠的 AI 请求代理服务。配置简单,适合已在 Vercel 生态中的团队使用。