首页 教程 分类 Skills下载 关于
ZH EN JA KO
模型接入

OpenClaw模型供应商配置大全

· 8 分钟

选择合适的AI模型供应商是搭建智能助手的关键一步。OpenClaw作为一个自托管AI助手平台,目前已支持14个模型供应商的接入,涵盖了从云端商业模型到本地开源模型的完整生态。本文将系统性地介绍所有可用供应商的配置方法,以及多账户认证、故障转移等进阶功能。

支持的供应商一览

OpenClaw目前支持以下14个供应商:

供应商 类型 典型用途
Anthropic 云端商业模型 Claude系列,推理能力强
OpenAI 云端商业模型 GPT系列,通用能力出色
Amazon Bedrock 云端托管 AWS生态集成
OpenRouter 模型网关 一个Key访问多家模型
Ollama 本地推理 免费运行开源模型
GLM 云端商业模型 智谱AI,中文能力优秀
Qwen 云端商业模型 阿里通义千问系列
MiniMax 云端商业模型 海螺AI,长文本能力强
Moonshot AI 云端商业模型 Kimi,长上下文处理
Xiaomi 云端商业模型 小米MiLM系列
Venice AI 隐私推理 无日志记录的隐私优先推理
OpenCode Zen 云端商业模型 代码生成专用
Z.AI 云端商业模型 通用多模态模型
Deepgram 语音转文字 音频转录服务

其中前13个供应商提供大语言模型服务,Deepgram则专门用于语音转文字(Transcription)功能。

快速开始:通过onboard命令配置

对于新用户来说,最简单的方式是使用交互式引导命令:

openclaw onboard

该命令会引导你逐步完成供应商选择和API Key配置。系统会自动检测你输入的Key是否有效,并生成对应的配置文件。

默认模型配置

完成onboard后,OpenClaw会在配置文件中生成默认的模型设置。核心配置结构如下:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-opus-4-5"
      }
    }
  }
}

primary 字段指定了主模型,格式为 供应商/模型名称。OpenClaw默认推荐使用Anthropic的Claude Opus 4.5作为主力模型,这是目前综合能力最强的选择之一。

你也可以根据需求切换为其他模型:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "openai/gpt-4o"
      }
    }
  }
}

供应商无关的模型切换

OpenClaw采用了供应商无关(Provider-Agnostic)的模型切换机制。这意味着你可以在不修改业务逻辑的情况下,仅通过更改配置中的模型标识符来切换不同供应商的模型。

例如,从Anthropic切换到Ollama本地模型,只需修改一行配置:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/llama3.1"
      }
    }
  }
}

所有供应商共享统一的接口抽象层,应用层代码无需任何改动。

隐私优先方案:Venice AI

如果你对数据隐私有严格要求,Venice AI是一个值得关注的选择。Venice提供无日志记录的推理服务,你的对话数据不会被存储或用于训练。

Venice AI目前可用的模型包括:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "venice/llama-3.3-70b"
      }
    }
  }
}

也支持更高端的模型:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "venice/claude-opus-45"
      }
    }
  }
}

Venice适合处理敏感业务场景,如医疗咨询、法律文书等对隐私保护要求较高的场景。

通过OpenRouter扩展更多供应商

除了原生支持的14个供应商外,你还可以通过OpenRouter间接访问更多模型提供方,包括:

  • xAI — Grok系列模型
  • Groq — 超低延迟推理加速
  • Mistral — 欧洲开源模型领军者

只需一个OpenRouter的API Key,就能统一调度这些供应商的模型,无需分别注册和管理多个密钥。

多账户认证与故障转移

生产环境中,依赖单一API账户存在明显的风险。OpenClaw支持为同一供应商配置多个认证配置文件(Profile),实现自动故障转移。

配置多账户

{
  "providers": {
    "anthropic": {
      "profiles": [
        {
          "name": "primary",
          "apiKey": "sk-ant-xxxxx-primary"
        },
        {
          "name": "backup",
          "apiKey": "sk-ant-xxxxx-backup"
        }
      ]
    }
  }
}

故障转移与冷却追踪

当主配置文件的API调用失败时(如限流、余额不足、服务宕机),OpenClaw会自动切换到下一个可用的配置文件。系统内置了冷却追踪(Cooldown Tracking)机制:

  • 某个Profile失败后,会被标记为冷却状态
  • 冷却期间该Profile不会被选中
  • 冷却时间结束后自动恢复可用
  • 多个Profile按顺序轮转,确保服务连续性

这套机制在高并发或长时间运行的场景中尤其有价值,可以有效避免因单一账户问题导致整个服务中断。

社区工具:Claude Max API Proxy

对于已经订阅了Claude Max套餐的用户,社区开发了一个名为Claude Max API Proxy的工具。它可以将你的Claude Max订阅转化为兼容的API接口,让OpenClaw直接通过Max订阅调用Claude模型,而不需要额外购买API额度。

这是一个社区维护的第三方工具,使用前请评估其稳定性和安全性。

语音转文字:Deepgram

在14个供应商中,Deepgram比较特殊——它不提供大语言模型,而是专注于语音转文字(Speech-to-Text)。如果你的OpenClaw助手需要处理语音消息,可以配置Deepgram作为转录服务供应商:

{
  "transcription": {
    "provider": "deepgram",
    "apiKey": "your-deepgram-api-key"
  }
}

选择建议

面对14个供应商,如何选择?以下是一些实用建议:

  • 追求最佳效果:选择 anthropic/claude-opus-4-5openai/gpt-4o
  • 注重隐私保护:选择 Venice AI 系列模型
  • 零成本运行:选择 Ollama 接入本地开源模型
  • 需要多模型灵活切换:选择 OpenRouter 作为统一网关
  • 中文场景优化:选择 GLM(智谱)或 Qwen(通义千问)
  • 需要语音功能:额外配置 Deepgram 作为转录服务

无论选择哪个供应商,OpenClaw的供应商无关架构都能确保你随时切换,不被任何单一平台锁定。建议从默认的Anthropic配置开始,后续根据实际需求逐步添加更多供应商和故障转移配置。

OpenClaw 是开源免费的个人AI助手,支持 WhatsApp、Telegram、Discord 等多平台接入