🦙
Ollama
本地模型 AI 模型与路由安装命令
npx clawhub@latest install ollama
安装说明
1
确认环境
确保已安装 Node.js 22+ 和 OpenClaw。在终端运行 openclaw --version 确认 OpenClaw 正常工作。
2
执行安装
在终端中运行上方安装命令,ClawHub 会自动下载并安装 Ollama 到 ~/.openclaw/skills/ 目录。
3
验证安装
运行 openclaw skills list 查看已安装技能列表,确认 Ollama 已出现在列表中。
4
配置参数(可选)
根据下方介绍中的配置说明,在 ~/.config/openclaw/openclaw.json5 中添加技能的配置项。
手动安装方式:将 Skill 文件夹复制到
~/.openclaw/skills/ 或项目目录下的 skills/ 文件夹,确保文件夹中包含 SKILL.md 文件。
本地运行
离线可用
隐私保护
详细介绍
Ollama 技能让 OpenClaw 连接本地运行的 Ollama 服务,使用开源大模型进行完全离线的 AI 对话。
核心功能
- 本地模型:使用 Llama 3、Mistral、Qwen、Gemma 等开源模型
- 完全离线:数据不出本机,适合隐私敏感场景
- 模型管理:列出、拉取、删除本地模型
- 自定义模型:使用 Modelfile 创建自定义模型
- 多模型并行:同时加载多个模型,按需切换
配置说明
{
skills: {
ollama: {
baseUrl: "http://localhost:11434",
defaultModel: "llama3.1:8b",
keepAlive: "5m"
}
}
}
使用场景
- 隐私要求高、数据不能外传的场景
- 没有网络连接时的离线 AI 助手
- 本地开发测试,不消耗 API 额度
- 运行针对特定任务微调过的自定义模型
系统要求
需要安装 Ollama 并预先下载模型。建议至少 8GB 显存(GPU)或 16GB 内存(CPU 推理)。