选择合适的AI模型供应商是搭建智能助手的关键一步。OpenClaw作为一个自托管AI助手平台,目前已支持14个模型供应商的接入,涵盖了从云端商业模型到本地开源模型的完整生态。本文将系统性地介绍所有可用供应商的配置方法,以及多账户认证、故障转移等进阶功能。
支持的供应商一览
OpenClaw目前支持以下14个供应商:
| 供应商 | 类型 | 典型用途 |
|---|---|---|
| Anthropic | 云端商业模型 | Claude系列,推理能力强 |
| OpenAI | 云端商业模型 | GPT系列,通用能力出色 |
| Amazon Bedrock | 云端托管 | AWS生态集成 |
| OpenRouter | 模型网关 | 一个Key访问多家模型 |
| Ollama | 本地推理 | 免费运行开源模型 |
| GLM | 云端商业模型 | 智谱AI,中文能力优秀 |
| Qwen | 云端商业模型 | 阿里通义千问系列 |
| MiniMax | 云端商业模型 | 海螺AI,长文本能力强 |
| Moonshot AI | 云端商业模型 | Kimi,长上下文处理 |
| Xiaomi | 云端商业模型 | 小米MiLM系列 |
| Venice AI | 隐私推理 | 无日志记录的隐私优先推理 |
| OpenCode Zen | 云端商业模型 | 代码生成专用 |
| Z.AI | 云端商业模型 | 通用多模态模型 |
| Deepgram | 语音转文字 | 音频转录服务 |
其中前13个供应商提供大语言模型服务,Deepgram则专门用于语音转文字(Transcription)功能。
快速开始:通过onboard命令配置
对于新用户来说,最简单的方式是使用交互式引导命令:
openclaw onboard
该命令会引导你逐步完成供应商选择和API Key配置。系统会自动检测你输入的Key是否有效,并生成对应的配置文件。
默认模型配置
完成onboard后,OpenClaw会在配置文件中生成默认的模型设置。核心配置结构如下:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-5"
}
}
}
}
primary 字段指定了主模型,格式为 供应商/模型名称。OpenClaw默认推荐使用Anthropic的Claude Opus 4.5作为主力模型,这是目前综合能力最强的选择之一。
你也可以根据需求切换为其他模型:
{
"agents": {
"defaults": {
"model": {
"primary": "openai/gpt-4o"
}
}
}
}
供应商无关的模型切换
OpenClaw采用了供应商无关(Provider-Agnostic)的模型切换机制。这意味着你可以在不修改业务逻辑的情况下,仅通过更改配置中的模型标识符来切换不同供应商的模型。
例如,从Anthropic切换到Ollama本地模型,只需修改一行配置:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.1"
}
}
}
}
所有供应商共享统一的接口抽象层,应用层代码无需任何改动。
隐私优先方案:Venice AI
如果你对数据隐私有严格要求,Venice AI是一个值得关注的选择。Venice提供无日志记录的推理服务,你的对话数据不会被存储或用于训练。
Venice AI目前可用的模型包括:
{
"agents": {
"defaults": {
"model": {
"primary": "venice/llama-3.3-70b"
}
}
}
}
也支持更高端的模型:
{
"agents": {
"defaults": {
"model": {
"primary": "venice/claude-opus-45"
}
}
}
}
Venice适合处理敏感业务场景,如医疗咨询、法律文书等对隐私保护要求较高的场景。
通过OpenRouter扩展更多供应商
除了原生支持的14个供应商外,你还可以通过OpenRouter间接访问更多模型提供方,包括:
- xAI — Grok系列模型
- Groq — 超低延迟推理加速
- Mistral — 欧洲开源模型领军者
只需一个OpenRouter的API Key,就能统一调度这些供应商的模型,无需分别注册和管理多个密钥。
多账户认证与故障转移
生产环境中,依赖单一API账户存在明显的风险。OpenClaw支持为同一供应商配置多个认证配置文件(Profile),实现自动故障转移。
配置多账户
{
"providers": {
"anthropic": {
"profiles": [
{
"name": "primary",
"apiKey": "sk-ant-xxxxx-primary"
},
{
"name": "backup",
"apiKey": "sk-ant-xxxxx-backup"
}
]
}
}
}
故障转移与冷却追踪
当主配置文件的API调用失败时(如限流、余额不足、服务宕机),OpenClaw会自动切换到下一个可用的配置文件。系统内置了冷却追踪(Cooldown Tracking)机制:
- 某个Profile失败后,会被标记为冷却状态
- 冷却期间该Profile不会被选中
- 冷却时间结束后自动恢复可用
- 多个Profile按顺序轮转,确保服务连续性
这套机制在高并发或长时间运行的场景中尤其有价值,可以有效避免因单一账户问题导致整个服务中断。
社区工具:Claude Max API Proxy
对于已经订阅了Claude Max套餐的用户,社区开发了一个名为Claude Max API Proxy的工具。它可以将你的Claude Max订阅转化为兼容的API接口,让OpenClaw直接通过Max订阅调用Claude模型,而不需要额外购买API额度。
这是一个社区维护的第三方工具,使用前请评估其稳定性和安全性。
语音转文字:Deepgram
在14个供应商中,Deepgram比较特殊——它不提供大语言模型,而是专注于语音转文字(Speech-to-Text)。如果你的OpenClaw助手需要处理语音消息,可以配置Deepgram作为转录服务供应商:
{
"transcription": {
"provider": "deepgram",
"apiKey": "your-deepgram-api-key"
}
}
选择建议
面对14个供应商,如何选择?以下是一些实用建议:
- 追求最佳效果:选择
anthropic/claude-opus-4-5或openai/gpt-4o - 注重隐私保护:选择 Venice AI 系列模型
- 零成本运行:选择 Ollama 接入本地开源模型
- 需要多模型灵活切换:选择 OpenRouter 作为统一网关
- 中文场景优化:选择 GLM(智谱)或 Qwen(通义千问)
- 需要语音功能:额外配置 Deepgram 作为转录服务
无论选择哪个供应商,OpenClaw的供应商无关架构都能确保你随时切换,不被任何单一平台锁定。建议从默认的Anthropic配置开始,后续根据实际需求逐步添加更多供应商和故障转移配置。