前言
OpenAI 的 GPT 系列模型是目前最主流的大语言模型之一。OpenClaw 对 OpenAI 全系列模型提供了原生支持,包括 GPT-4、GPT-4o、GPT-4o mini 以及最新的 o3 推理模型。本文将从零开始,手把手教你完成 OpenAI 模型的完整配置。
准备工作
在开始之前,请确保满足以下条件:
| 条件 | 说明 |
|---|---|
| OpenClaw 已安装 | 运行 openclaw doctor 确认安装正常 |
| Node.js 22+ | OpenClaw 的运行时依赖 |
| OpenAI 账号 | 需要一个已绑定支付方式的账号 |
| 网络环境 | 能正常访问 OpenAI API(部分地区需要代理) |
第一步:获取 OpenAI API Key
1.1 登录 OpenAI 平台
访问 platform.openai.com 并登录你的账号。
1.2 创建 API Key
进入 API Keys 页面,点击 Create new secret key:
名称:openclaw-production(建议使用有意义的名称)
权限:All(或根据需要选择)
创建完成后,立即复制密钥并妥善保存。API Key 只会显示一次,格式如下:
sk-proj-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
1.3 设置消费限额
强烈建议在 Billing → Usage limits 中设置月度消费上限:
Hard limit: $50(根据你的预算调整)
Soft limit: $40(接近上限时会发送邮件提醒)
第二步:在 OpenClaw 中配置 OpenAI
2.1 编辑配置文件
打开 OpenClaw 的配置文件:
nano ~/.config/openclaw/openclaw.json5
在 models 部分添加 OpenAI 的配置:
{
// OpenClaw 主配置文件
models: {
openai: {
provider: "openai",
apiKey: "sk-proj-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
defaultModel: "gpt-4o",
baseUrl: "https://api.openai.com/v1", // 默认值,通常无需修改
}
}
}
2.2 使用环境变量(推荐)
为了安全性,建议通过环境变量传递 API Key,而不是写在配置文件中:
# 在 ~/.bashrc 或 ~/.zshrc 中添加
export OPENAI_API_KEY="sk-proj-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
然后配置文件中引用环境变量:
{
models: {
openai: {
provider: "openai",
apiKey: "${OPENAI_API_KEY}",
defaultModel: "gpt-4o",
}
}
}
2.3 重启 OpenClaw 使配置生效
openclaw restart
验证配置是否正确:
openclaw doctor
如果输出中显示 ✓ OpenAI connection OK,说明配置成功。
第三步:模型选择指南
OpenAI 目前提供多个模型,各有特点:
| 模型 | 特点 | 输入价格 (每百万token) | 输出价格 (每百万token) | 推荐场景 |
|---|---|---|---|---|
| gpt-4o | 旗舰多模态模型 | $2.50 | $10.00 | 日常对话、图像理解 |
| gpt-4o-mini | 轻量高效 | $0.15 | $0.60 | 简单任务、高并发 |
| gpt-4 | 经典强模型 | $30.00 | $60.00 | 复杂推理(较贵) |
| o3 | 推理增强模型 | $10.00 | $40.00 | 数学、编程、逻辑推理 |
| o3-mini | 推理模型轻量版 | $1.10 | $4.40 | 平衡推理和成本 |
3.1 配置不同模型
你可以在配置中设置多个 OpenAI 模型,并为不同频道指定不同模型:
{
models: {
"openai-main": {
provider: "openai",
apiKey: "${OPENAI_API_KEY}",
defaultModel: "gpt-4o",
},
"openai-lite": {
provider: "openai",
apiKey: "${OPENAI_API_KEY}",
defaultModel: "gpt-4o-mini",
},
"openai-reasoning": {
provider: "openai",
apiKey: "${OPENAI_API_KEY}",
defaultModel: "o3",
}
},
channels: {
telegram: {
model: "openai-main", // Telegram 使用 GPT-4o
},
discord: {
model: "openai-lite", // Discord 使用更便宜的 mini 模型
}
}
}
第四步:参数调优
4.1 温度参数 (Temperature)
温度控制输出的随机性,范围 0 到 2:
{
models: {
openai: {
provider: "openai",
apiKey: "${OPENAI_API_KEY}",
defaultModel: "gpt-4o",
parameters: {
temperature: 0.7, // 默认值,平衡创造性和一致性
// temperature: 0, // 完全确定性,适合代码生成
// temperature: 1.2, // 更有创造性,适合写作
}
}
}
}
常见场景的推荐温度值:
| 场景 | 推荐温度 | 说明 |
|---|---|---|
| 代码生成 | 0 - 0.2 | 需要精确和一致的输出 |
| 日常对话 | 0.5 - 0.8 | 自然且有变化 |
| 创意写作 | 0.8 - 1.2 | 更多样化的表达 |
| 数据提取 | 0 | 需要严格按格式输出 |
4.2 Token 限制
控制单次回复的最大长度:
parameters: {
temperature: 0.7,
maxTokens: 4096, // 单次最大输出 token 数
// GPT-4o 最大支持 16384 输出 token
// o3 最大支持 100000 输出 token
}
4.3 系统提示词
为模型设定角色和行为准则:
{
models: {
openai: {
provider: "openai",
apiKey: "${OPENAI_API_KEY}",
defaultModel: "gpt-4o",
systemPrompt: "你是一个友好的AI助手,名叫小智。你的回答简洁准确,使用中文交流。",
parameters: {
temperature: 0.7,
maxTokens: 4096,
}
}
}
}
第五步:Azure OpenAI 配置
如果你使用的是 Azure 上托管的 OpenAI 服务,配置方式略有不同:
{
models: {
"azure-openai": {
provider: "openai",
apiKey: "${AZURE_OPENAI_API_KEY}",
baseUrl: "https://your-resource.openai.azure.com/openai/deployments/your-deployment",
defaultModel: "gpt-4o", // 你在 Azure 中创建的部署名称
azureApiVersion: "2024-12-01-preview",
parameters: {
temperature: 0.7,
maxTokens: 4096,
}
}
}
}
Azure OpenAI 的优势:
- 企业级 SLA 保障
- 数据不离开你指定的 Azure 区域
- 支持私有网络部署
- 合规性认证完善
第六步:费用预估
以下是一些常见场景的月度费用参考(使用 GPT-4o):
| 使用强度 | 每日消息量 | 平均每条token | 月度费用估算 |
|---|---|---|---|
| 个人轻度 | 20 条 | ~1000 | $3 - $5 |
| 个人重度 | 100 条 | ~1500 | $15 - $25 |
| 小团队 | 500 条 | ~1200 | $50 - $80 |
| 中等规模 | 2000 条 | ~1000 | $150 - $250 |
如果预算有限,可以将日常对话切换到 gpt-4o-mini,费用可降低约 90%。
第七步:验证和测试
配置完成后,通过以下步骤验证:
# 重启服务
openclaw restart
# 检查连接状态
openclaw doctor
# 查看实时日志
openclaw logs
然后通过任意已对接的频道发送一条测试消息,确认模型能正常回复。
常见问题
API Key 无效
Error: 401 Unauthorized - Invalid API key
解决方法:确认 API Key 是否正确复制,是否以 sk- 开头,是否已在 OpenAI 后台启用。
超出配额
Error: 429 Rate limit exceeded
解决方法:检查 OpenAI 后台的用量限制,确认已绑定支付方式。新账户可能有较低的速率限制,使用一段时间后会自动提升。
网络连接问题
如果你所在的地区无法直接访问 OpenAI API,可以配置代理:
{
proxy: {
url: "http://127.0.0.1:7890", // 你的代理地址
},
models: {
openai: {
provider: "openai",
apiKey: "${OPENAI_API_KEY}",
defaultModel: "gpt-4o",
}
}
}
小结
本文介绍了在 OpenClaw 中配置 OpenAI GPT 模型的完整流程。核心步骤包括获取 API Key、编辑配置文件、选择合适的模型以及调优参数。对于大多数用户,推荐使用 GPT-4o 作为主力模型,搭配 GPT-4o mini 处理简单任务以节省费用。如果你在中国大陆或其他受限地区,Azure OpenAI 是一个稳定可靠的替代方案。