首页 教程 分类 Skills下载 关于
ZH EN JA KO
模型接入

OpenCode 接入配置教程

· 7 分钟

OpenCode 简介

OpenCode 是一个开放的 AI 模型访问平台,提供多种模型的统一 API 接口。它支持 OpenAI 兼容协议,可以直接在 OpenClaw 中作为模型供应商使用。

注册与获取凭证

  1. 访问 OpenCode 平台注册账号
  2. 在控制台中创建 API Key
  3. 查看可用模型列表和对应的计费标准

基础配置

在 OpenClaw 中添加 OpenCode 供应商:

{
  "providers": {
    "opencode": {
      "type": "openai",
      "baseUrl": "https://api.opencode.ai/v1",
      "apiKey": "{{OPENCODE_API_KEY}}",
      "models": ["opencode-gpt4", "opencode-claude", "opencode-llama"]
    }
  }
}

使用 CLI 设置密钥:

openclaw secrets set OPENCODE_API_KEY "oc-your-api-key"

模型配置

为不同场景配置模型参数:

{
  "models": {
    "oc-smart": {
      "provider": "opencode",
      "model": "opencode-gpt4",
      "temperature": 0.7,
      "maxTokens": 4096
    },
    "oc-fast": {
      "provider": "opencode",
      "model": "opencode-llama",
      "temperature": 0.5,
      "maxTokens": 2048
    }
  }
}

频道分配

将 OpenCode 模型分配给指定频道:

{
  "channels": {
    "telegram-main": {
      "model": "oc-smart"
    },
    "discord-chat": {
      "model": "oc-fast"
    }
  }
}

使用 CLI 进行配置:

openclaw channels set telegram-main --model oc-smart
openclaw channels set discord-chat --model oc-fast

代理配置

如果需要通过代理访问 OpenCode,可以在环境变量中配置:

export HTTPS_PROXY="http://your-proxy:8080"

或在 OpenClaw 配置中指定:

{
  "providers": {
    "opencode": {
      "type": "openai",
      "baseUrl": "https://api.opencode.ai/v1",
      "apiKey": "{{OPENCODE_API_KEY}}",
      "proxy": "http://your-proxy:8080"
    }
  }
}

重试与超时配置

为提升服务可靠性,配置请求重试和超时:

{
  "providers": {
    "opencode": {
      "type": "openai",
      "baseUrl": "https://api.opencode.ai/v1",
      "apiKey": "{{OPENCODE_API_KEY}}",
      "timeout": 30000,
      "retries": 3,
      "retryDelay": 1000
    }
  }
}

与其他供应商配合

OpenCode 可以作为备用供应商,与主供应商配合实现故障转移:

{
  "models": {
    "primary-model": {
      "provider": "openai",
      "model": "gpt-4o",
      "fallback": "oc-smart"
    },
    "oc-smart": {
      "provider": "opencode",
      "model": "opencode-gpt4"
    }
  }
}

当主模型(OpenAI)不可用时,OpenClaw 会自动切换到 OpenCode 供应商。

连接测试

验证配置是否正确:

openclaw doctor --provider opencode

预期输出:

✓ Provider: opencode
  ✓ API connection successful
  ✓ Available models: 3
  ✓ Response time: 320ms

费用监控

在 OpenCode 控制台中可以查看 API 用量和费用。同时在 OpenClaw 中配置预算提醒:

{
  "providers": {
    "opencode": {
      "costTracking": true,
      "dailyBudget": 20.00
    }
  }
}

常见问题

Q: OpenCode 支持流式输出吗? 是的,OpenCode 完全支持 SSE 流式输出,OpenClaw 会自动使用流式模式。

Q: 如何查看支持的模型列表? 可以通过 API 查询:

curl https://api.opencode.ai/v1/models \
  -H "Authorization: Bearer your-api-key"

Q: 延迟比较高怎么办? 检查网络路由,必要时使用代理或选择就近的 API 端点。

总结

OpenCode 为 OpenClaw 提供了灵活的模型访问方案,支持多种模型且兼容 OpenAI 协议,配置简单,适合作为主供应商或备用供应商使用。

OpenClaw 是开源免费的个人AI助手,支持 WhatsApp、Telegram、Discord 等多平台接入