通义千问(Qwen)模型概述
通义千问是阿里云推出的大语言模型系列,在中文理解和生成能力上表现尤为突出。Qwen系列涵盖从轻量级到超大规模的多个型号,适用于从日常对话到复杂推理的各种场景。对于面向中文用户的应用来说,Qwen是一个极具竞争力的选择。
OpenClaw将Qwen作为原生支持的提供商之一,你可以通过统一的模型格式qwen/模型名称直接调用通义千问的各个型号。
获取API密钥
要使用通义千问的API服务,你需要在阿里云平台完成以下步骤:
- 注册并登录阿里云账户。
- 在阿里云控制台中搜索并开通"模型服务灵积(DashScope)"。
- 在DashScope控制台的API Key管理页面创建新的API密钥。
- 记录下你的API密钥,后续配置需要用到。
阿里云通常为新用户提供一定额度的免费调用量,方便你在正式使用前进行测试。
快速配置
使用OpenClaw的交互式引导工具可以快速完成配置:
openclaw onboard
在引导流程中选择Qwen作为提供商,输入你的DashScope API密钥,选择默认模型即可。
手动编辑配置文件
在openclaw.json中手动配置Qwen模型:
{
"agents": {
"defaults": {
"model": {
"primary": "qwen/qwen-max"
}
}
}
}
认证配置
{
"providers": {
"qwen": {
"auth": [
{
"key": "你的DashScope API密钥"
}
]
}
}
}
和所有OpenClaw提供商一样,你可以配置多个API密钥实现账户轮换和故障转移:
{
"providers": {
"qwen": {
"auth": [
{ "key": "密钥A", "profile": "主账户" },
{ "key": "密钥B", "profile": "备用账户" }
]
}
}
}
当主密钥遭遇速率限制时,OpenClaw会自动切换到备用密钥,同时对主密钥进行冷却追踪,等冷却期结束后再将其重新纳入轮换池。
Qwen系列模型推荐
通义千问提供多个不同规格的模型,以下是主要选项:
- qwen/qwen-max:旗舰模型,综合能力最强,适合复杂推理、内容创作和专业问答。
- qwen/qwen-plus:均衡型号,在性能和成本之间取得良好平衡,适合大部分日常场景。
- qwen/qwen-turbo:快速响应型号,延迟最低,成本最优,适合简单对话和高并发场景。
- qwen/qwen-long:长上下文型号,支持超长文本输入,适合文档分析和长文总结。
选择模型时需要根据你的实际需求在能力、速度和成本之间做出权衡。对于大多数场景,qwen-plus是一个不错的起点。
中文场景的优势
Qwen在以下中文场景中表现特别出色:
- 中文创意写作:诗歌、散文、小说等文学创作。
- 中文知识问答:中国历史、文化、法律等领域的专业问答。
- 中英翻译:高质量的中英双向翻译。
- 代码生成:支持中文注释和文档的代码生成。
配置故障转移链
为了确保服务的高可用性,建议为Qwen配置故障转移:
{
"agents": {
"defaults": {
"model": {
"primary": "qwen/qwen-max",
"fallback": "openrouter/qwen/qwen-2.5-72b-instruct"
}
}
}
}
当阿里云直连API出现问题时,可以通过OpenRouter作为备用通道访问Qwen模型。
注意事项
使用Qwen模型时有几点需要注意:
- 区域限制:DashScope的API服务器部署在中国大陆,从海外访问可能存在较高延迟。
- 内容合规:Qwen模型遵循中国大陆的内容审核标准,部分敏感话题的回答可能受到限制。
- 计费方式:DashScope按Token数量计费,不同模型的单价不同,建议在控制台关注用量。
验证与测试
完成配置后,发送一条中文测试消息验证Qwen是否正常响应。你可以尝试一些中文特有的任务来体验Qwen的中文能力,例如文言文翻译或成语解释。检查OpenClaw日志确认请求已正确路由到Qwen提供商。