百度千帆简介
百度千帆大模型平台是百度推出的企业级 AI 开发平台,提供文心一言(ERNIE)系列模型以及众多第三方模型的 API 访问。千帆平台在中文理解和生成方面表现优秀,特别适合面向中文用户的 OpenClaw 部署。
获取 API 凭证
- 访问 qianfan.baidubce.com 并注册百度智能云账号
- 进入千帆大模型平台控制台
- 创建应用,获取 API Key 和 Secret Key
- 开通需要使用的模型服务
基础配置
百度千帆提供了 OpenAI 兼容的 API 端点,可以直接在 OpenClaw 中使用:
{
"providers": {
"qianfan": {
"type": "openai",
"baseUrl": "https://qianfan.baidubce.com/v2",
"apiKey": "{{QIANFAN_API_KEY}}",
"models": [
"ernie-4.0-8k",
"ernie-3.5-8k",
"ernie-speed-8k",
"ernie-lite-8k"
]
}
}
}
设置密钥:
openclaw secrets set QIANFAN_API_KEY "your-qianfan-api-key"
模型选择
千帆平台提供多个 ERNIE 模型:
| 模型 | 特点 | 适用场景 |
|---|---|---|
| ernie-4.0-8k | 旗舰模型,最强能力 | 复杂推理、创作 |
| ernie-3.5-8k | 平衡性能与成本 | 通用对话 |
| ernie-speed-8k | 快速响应 | 简单问答 |
| ernie-lite-8k | 轻量经济 | 大量简单任务 |
| ernie-char-8k | 角色扮演 | 虚拟角色对话 |
定义模型配置
{
"models": {
"ernie-smart": {
"provider": "qianfan",
"model": "ernie-4.0-8k",
"temperature": 0.7,
"maxTokens": 4096
},
"ernie-fast": {
"provider": "qianfan",
"model": "ernie-speed-8k",
"temperature": 0.5,
"maxTokens": 2048
},
"ernie-roleplay": {
"provider": "qianfan",
"model": "ernie-char-8k",
"temperature": 0.9,
"maxTokens": 2048
}
}
}
频道分配
将千帆模型分配到各频道:
{
"channels": {
"wechat-main": {
"model": "ernie-smart",
"systemPrompt": "你是一个智能助手,使用文心一言大模型,擅长中文对话和知识问答。"
},
"feishu-team": {
"model": "ernie-fast"
}
}
}
角色扮演配置
利用 ERNIE-Char 模型配置虚拟角色:
{
"skills": {
"virtual-teacher": {
"model": "ernie-roleplay",
"systemPrompt": "你是一位耐心的中文老师,擅长用简单易懂的方式解释复杂概念。你会根据学生的水平调整教学方式,善于举例和类比。"
}
}
}
使用千帆的函数调用
ERNIE 4.0 支持函数调用,可以与 OpenClaw 的工具系统配合:
{
"models": {
"ernie-tools": {
"provider": "qianfan",
"model": "ernie-4.0-8k",
"supportsFunctionCalling": true,
"temperature": 0.5
}
}
}
网络优化
千帆 API 服务器在国内,从国内服务器访问延迟极低。如果 OpenClaw 部署在海外,建议:
- 使用国内服务器部署 OpenClaw:获得最佳延迟
- 使用 CDN 加速:减少跨境网络延迟
- 配置合理的超时时间:
{
"providers": {
"qianfan": {
"timeout": 60000,
"retries": 2
}
}
}
内容安全
千帆平台内置了内容安全审核,不合规的内容会被自动过滤。在 OpenClaw 中需要处理这种情况:
{
"providers": {
"qianfan": {
"errorHandling": {
"contentFilter": "warn"
}
}
}
}
连接测试
openclaw doctor --provider qianfan
常见问题
Q: 提示「模型未开通」怎么办? 在千帆控制台的模型服务页面,手动开通需要使用的模型。
Q: 请求频率受限怎么处理? 千帆默认有 QPS 限制,需要在控制台申请提升配额,或在 OpenClaw 中配置请求队列。
Q: 支持流式输出吗? 支持,OpenClaw 默认使用流式模式,千帆 API 完全兼容。
总结
百度千帆是国内部署 OpenClaw 的优秀选择,ERNIE 系列模型在中文场景下表现出色,且服务器在国内,延迟极低。结合 OpenClaw 的多频道管理能力,可以打造高质量的中文 AI 助手。