Mistral AI 简介
Mistral AI 是一家法国 AI 公司,提供高性能且价格友好的大语言模型。其模型在多项基准测试中表现优异,特别是在欧洲语言和代码生成方面。Mistral 的 API 兼容 OpenAI 格式,在 OpenClaw 中接入非常简便。
获取 API Key
- 访问 console.mistral.ai 并注册账号
- 进入 API Keys 页面
- 点击「Create new key」
- 复制生成的 API Key
基础配置
在 OpenClaw 中添加 Mistral 供应商:
{
"providers": {
"mistral": {
"type": "openai",
"baseUrl": "https://api.mistral.ai/v1",
"apiKey": "{{MISTRAL_API_KEY}}",
"models": [
"mistral-large-latest",
"mistral-medium-latest",
"mistral-small-latest",
"open-mistral-nemo"
]
}
}
}
设置密钥:
openclaw secrets set MISTRAL_API_KEY "your-mistral-api-key"
模型选择指南
Mistral 提供多个层级的模型:
| 模型 | 特点 | 适用场景 | 价格 |
|---|---|---|---|
| mistral-large-latest | 最强性能 | 复杂推理、长文本 | 较高 |
| mistral-medium-latest | 平衡性能 | 通用对话 | 中等 |
| mistral-small-latest | 快速响应 | 简单问答 | 较低 |
| open-mistral-nemo | 开源模型 | 基础对话 | 最低 |
| codestral-latest | 代码专用 | 编程辅助 | 中等 |
定义模型配置
为不同场景创建模型配置:
{
"models": {
"mistral-smart": {
"provider": "mistral",
"model": "mistral-large-latest",
"temperature": 0.7,
"maxTokens": 4096
},
"mistral-fast": {
"provider": "mistral",
"model": "mistral-small-latest",
"temperature": 0.5,
"maxTokens": 2048
},
"mistral-code": {
"provider": "mistral",
"model": "codestral-latest",
"temperature": 0.2,
"maxTokens": 8192
}
}
}
使用 Codestral 进行代码生成
Codestral 是 Mistral 专为编程设计的模型,支持 80+ 编程语言:
{
"skills": {
"code-assistant": {
"model": "mistral-code",
"systemPrompt": "你是一个编程助手,使用 Codestral 模型。请提供清晰、有注释的代码,并解释关键逻辑。"
}
}
}
为频道分配模型
{
"channels": {
"telegram-main": {
"model": "mistral-smart"
},
"discord-dev": {
"model": "mistral-code"
},
"whatsapp-quick": {
"model": "mistral-fast"
}
}
}
JSON 模式
Mistral 支持 JSON 输出模式,适合需要结构化数据的技能:
{
"models": {
"mistral-json": {
"provider": "mistral",
"model": "mistral-large-latest",
"responseFormat": {"type": "json_object"},
"temperature": 0.3
}
}
}
函数调用
Mistral 模型支持函数调用(Function Calling),可以与 OpenClaw 的工具系统配合使用:
{
"models": {
"mistral-tools": {
"provider": "mistral",
"model": "mistral-large-latest",
"supportsFunctionCalling": true,
"temperature": 0.5
}
}
}
成本优化策略
- 按场景选模型:简单问答用 small,复杂推理用 large
- 控制 maxTokens:根据实际需求设置,避免浪费
- 使用 OpenClaw 的模型路由:根据消息内容自动选择模型
{
"routing": {
"rules": [
{"match": "代码|编程|bug", "model": "mistral-code"},
{"match": ".*", "model": "mistral-fast"}
]
}
}
连接验证
openclaw doctor --provider mistral
预期输出:
✓ Provider: mistral
✓ API connection successful
✓ Model mistral-large-latest available
✓ Model mistral-small-latest available
✓ Response time: 180ms
总结
Mistral AI 提供了高性价比的模型选择,特别是 Codestral 在代码场景中表现出色。通过合理搭配不同层级的模型,可以在 OpenClaw 中实现性能与成本的最佳平衡。