Z.AI 简介
Z.AI 是一个新兴的 AI 模型服务平台,提供多种高质量模型的 API 访问。其 API 兼容 OpenAI 格式,可以方便地接入 OpenClaw。
获取 API 凭证
- 访问 Z.AI 官网注册账号
- 进入开发者控制台
- 创建 API Key
- 查看可用模型和计费信息
基础配置
{
"providers": {
"zai": {
"type": "openai",
"baseUrl": "https://api.z.ai/v1",
"apiKey": "{{ZAI_API_KEY}}",
"models": ["zai-large", "zai-medium", "zai-fast"]
}
}
}
设置密钥:
openclaw secrets set ZAI_API_KEY "zai-your-api-key"
模型选择
Z.AI 提供不同层级的模型:
| 模型 | 特点 | 适用场景 |
|---|---|---|
| zai-large | 最强推理能力 | 复杂任务 |
| zai-medium | 平衡性价比 | 通用对话 |
| zai-fast | 低延迟响应 | 快速问答 |
模型配置
{
"models": {
"zai-smart": {
"provider": "zai",
"model": "zai-large",
"temperature": 0.7,
"maxTokens": 4096
},
"zai-quick": {
"provider": "zai",
"model": "zai-fast",
"temperature": 0.5,
"maxTokens": 2048
}
}
}
频道分配
{
"channels": {
"telegram-main": {
"model": "zai-smart"
},
"discord-quick": {
"model": "zai-quick"
}
}
}
CLI 方式:
openclaw channels set telegram-main --model zai-smart
openclaw channels set discord-quick --model zai-quick
高级参数配置
Z.AI 支持一些特殊参数来优化输出质量:
{
"models": {
"zai-custom": {
"provider": "zai",
"model": "zai-large",
"temperature": 0.6,
"topP": 0.9,
"frequencyPenalty": 0.3,
"presencePenalty": 0.3,
"maxTokens": 4096
}
}
}
frequencyPenalty:减少重复内容presencePenalty:鼓励多样性
故障转移配置
将 Z.AI 作为备用供应商:
{
"models": {
"primary": {
"provider": "openai",
"model": "gpt-4o",
"fallback": "zai-smart"
}
}
}
或将 Z.AI 作为主供应商,其他作为备份:
{
"models": {
"zai-smart": {
"provider": "zai",
"model": "zai-large",
"fallback": "openai-backup"
}
}
}
连接测试
openclaw doctor --provider zai
预期输出:
✓ Provider: zai
✓ API connection successful
✓ Available models: 3
✓ Response time: 280ms
费用管理
配置费用追踪和预算限制:
{
"providers": {
"zai": {
"costTracking": true,
"dailyBudget": 15.00,
"alertThreshold": 0.8
}
}
}
常见问题
Q: API 响应慢怎么办?
检查网络连接,尝试使用代理。也可以切换到 zai-fast 模型以获取更低延迟。
Q: 如何查看使用量? 在 Z.AI 控制台的用量统计页面查看,或通过 OpenClaw 的费用追踪功能监控。
Q: 支持函数调用吗?
zai-large 模型支持函数调用,可以配合 OpenClaw 的工具系统使用。
总结
Z.AI 为 OpenClaw 提供了又一个可靠的模型供应商选择。其 API 兼容 OpenAI 格式,配置简便,适合作为多供应商策略中的一员。