OpenCode 简介
OpenCode 是一个开放的 AI 模型访问平台,提供多种模型的统一 API 接口。它支持 OpenAI 兼容协议,可以直接在 OpenClaw 中作为模型供应商使用。
注册与获取凭证
- 访问 OpenCode 平台注册账号
- 在控制台中创建 API Key
- 查看可用模型列表和对应的计费标准
基础配置
在 OpenClaw 中添加 OpenCode 供应商:
{
"providers": {
"opencode": {
"type": "openai",
"baseUrl": "https://api.opencode.ai/v1",
"apiKey": "{{OPENCODE_API_KEY}}",
"models": ["opencode-gpt4", "opencode-claude", "opencode-llama"]
}
}
}
使用 CLI 设置密钥:
openclaw secrets set OPENCODE_API_KEY "oc-your-api-key"
模型配置
为不同场景配置模型参数:
{
"models": {
"oc-smart": {
"provider": "opencode",
"model": "opencode-gpt4",
"temperature": 0.7,
"maxTokens": 4096
},
"oc-fast": {
"provider": "opencode",
"model": "opencode-llama",
"temperature": 0.5,
"maxTokens": 2048
}
}
}
频道分配
将 OpenCode 模型分配给指定频道:
{
"channels": {
"telegram-main": {
"model": "oc-smart"
},
"discord-chat": {
"model": "oc-fast"
}
}
}
使用 CLI 进行配置:
openclaw channels set telegram-main --model oc-smart
openclaw channels set discord-chat --model oc-fast
代理配置
如果需要通过代理访问 OpenCode,可以在环境变量中配置:
export HTTPS_PROXY="http://your-proxy:8080"
或在 OpenClaw 配置中指定:
{
"providers": {
"opencode": {
"type": "openai",
"baseUrl": "https://api.opencode.ai/v1",
"apiKey": "{{OPENCODE_API_KEY}}",
"proxy": "http://your-proxy:8080"
}
}
}
重试与超时配置
为提升服务可靠性,配置请求重试和超时:
{
"providers": {
"opencode": {
"type": "openai",
"baseUrl": "https://api.opencode.ai/v1",
"apiKey": "{{OPENCODE_API_KEY}}",
"timeout": 30000,
"retries": 3,
"retryDelay": 1000
}
}
}
与其他供应商配合
OpenCode 可以作为备用供应商,与主供应商配合实现故障转移:
{
"models": {
"primary-model": {
"provider": "openai",
"model": "gpt-4o",
"fallback": "oc-smart"
},
"oc-smart": {
"provider": "opencode",
"model": "opencode-gpt4"
}
}
}
当主模型(OpenAI)不可用时,OpenClaw 会自动切换到 OpenCode 供应商。
连接测试
验证配置是否正确:
openclaw doctor --provider opencode
预期输出:
✓ Provider: opencode
✓ API connection successful
✓ Available models: 3
✓ Response time: 320ms
费用监控
在 OpenCode 控制台中可以查看 API 用量和费用。同时在 OpenClaw 中配置预算提醒:
{
"providers": {
"opencode": {
"costTracking": true,
"dailyBudget": 20.00
}
}
}
常见问题
Q: OpenCode 支持流式输出吗? 是的,OpenCode 完全支持 SSE 流式输出,OpenClaw 会自动使用流式模式。
Q: 如何查看支持的模型列表? 可以通过 API 查询:
curl https://api.opencode.ai/v1/models \
-H "Authorization: Bearer your-api-key"
Q: 延迟比较高怎么办? 检查网络路由,必要时使用代理或选择就近的 API 端点。
总结
OpenCode 为 OpenClaw 提供了灵活的模型访问方案,支持多种模型且兼容 OpenAI 协议,配置简单,适合作为主供应商或备用供应商使用。