Moonshot AI与Kimi大模型
月之暗面(Moonshot AI)是国内领先的AI公司之一,其旗舰产品Kimi以超长上下文窗口著称。Kimi能够处理高达数十万Token的输入,这使得它在长文档分析、多轮深度对话等场景中具有独特优势。
OpenClaw原生支持Moonshot AI作为模型提供商。你可以在OpenClaw中直接调用Kimi系列模型,享受其强大的长上下文处理能力。
获取Moonshot API密钥
- 访问Moonshot AI的开放平台(platform.moonshot.cn)并注册账户。
- 完成实名认证(如平台要求)。
- 在API管理页面创建新的API密钥。
- 保存好你的密钥,它是后续配置的关键。
Moonshot通常提供新用户免费额度,足够你完成初始测试和评估。
使用Onboard快速配置
openclaw onboard
选择Moonshot AI作为模型提供商,输入API密钥,选择默认模型型号。引导工具会自动生成正确的配置文件。
手动配置
在openclaw.json中进行手动配置:
{
"agents": {
"defaults": {
"model": {
"primary": "moonshot/moonshot-v1-128k"
}
}
}
}
认证设置
{
"providers": {
"moonshot": {
"auth": [
{
"key": "你的Moonshot API密钥"
}
]
}
}
}
支持多密钥轮换配置:
{
"providers": {
"moonshot": {
"auth": [
{ "key": "密钥A", "profile": "主账户" },
{ "key": "密钥B", "profile": "备用账户" }
]
}
}
}
OpenClaw的多账户认证机制会在主密钥触发速率限制时自动切换到备用密钥。失败的密钥会进入冷却状态,冷却结束后自动恢复使用。
可用模型
Moonshot AI提供不同上下文长度的模型版本:
- moonshot/moonshot-v1-8k:8K上下文窗口,适合短对话和简单问答,响应速度快,成本最低。
- moonshot/moonshot-v1-32k:32K上下文窗口,适合中等长度的文档处理和多轮对话。
- moonshot/moonshot-v1-128k:128K上下文窗口,旗舰型号,适合超长文档分析和复杂对话。
选择模型时的关键考虑因素是上下文需求。如果你的使用场景不涉及长文本,选择较小的上下文版本可以获得更快的响应速度和更低的成本。
长上下文场景实践
Moonshot的128K上下文窗口特别适合以下场景:
- 长文档问答:上传整篇论文、报告或合同,直接基于全文进行问答。
- 多轮深度对话:在不丢失历史上下文的情况下进行数十轮连续对话。
- 代码审查:一次性传入多个代码文件进行整体审查和分析。
- 会议纪要生成:处理长时间会议的完整转录文本,生成结构化纪要。
配置故障转移
{
"agents": {
"defaults": {
"model": {
"primary": "moonshot/moonshot-v1-128k",
"fallback": "qwen/qwen-long"
}
}
}
}
将Qwen的长上下文模型作为备选是一个合理的故障转移策略,两者都具备优秀的中文能力和长上下文支持。
使用建议
- 合理选择上下文长度:不要默认使用128K版本。大部分日常对话8K或32K就足够了,使用更小的上下文窗口可以显著降低成本和延迟。
- 注意速率限制:Moonshot的API有并发和RPM限制,高频调用场景建议配置多个API密钥。
- 中文优先:Kimi模型在中文理解和生成上做了大量优化,中文场景下的表现通常优于英文场景。
验证配置
配置完成后发送一条测试消息。你可以尝试发送一段较长的文本让模型进行总结,以验证长上下文功能是否正常。查看OpenClaw日志确认请求已正确路由到Moonshot提供商。
至此,你已经成功在OpenClaw中接入了月之暗面的Kimi大模型。长上下文能力将为你的对话体验带来质的提升。