首页 教程 分类 Skills下载 关于
ZH EN JA KO
🦙

Ollama

本地模型 AI 模型与路由

安装命令

npx clawhub@latest install ollama

安装说明

1
确认环境

确保已安装 Node.js 22+ 和 OpenClaw。在终端运行 openclaw --version 确认 OpenClaw 正常工作。

2
执行安装

在终端中运行上方安装命令,ClawHub 会自动下载并安装 Ollama 到 ~/.openclaw/skills/ 目录。

3
验证安装

运行 openclaw skills list 查看已安装技能列表,确认 Ollama 已出现在列表中。

4
配置参数(可选)

根据下方介绍中的配置说明,在 ~/.config/openclaw/openclaw.json5 中添加技能的配置项。

手动安装方式:将 Skill 文件夹复制到 ~/.openclaw/skills/ 或项目目录下的 skills/ 文件夹,确保文件夹中包含 SKILL.md 文件。
本地运行 离线可用 隐私保护

详细介绍

Ollama 技能让 OpenClaw 连接本地运行的 Ollama 服务,使用开源大模型进行完全离线的 AI 对话。

核心功能

  • 本地模型:使用 Llama 3、Mistral、Qwen、Gemma 等开源模型
  • 完全离线:数据不出本机,适合隐私敏感场景
  • 模型管理:列出、拉取、删除本地模型
  • 自定义模型:使用 Modelfile 创建自定义模型
  • 多模型并行:同时加载多个模型,按需切换

配置说明

{
  skills: {
    ollama: {
      baseUrl: "http://localhost:11434",
      defaultModel: "llama3.1:8b",
      keepAlive: "5m"
    }
  }
}

使用场景

  • 隐私要求高、数据不能外传的场景
  • 没有网络连接时的离线 AI 助手
  • 本地开发测试,不消耗 API 额度
  • 运行针对特定任务微调过的自定义模型

系统要求

需要安装 Ollama 并预先下载模型。建议至少 8GB 显存(GPU)或 16GB 内存(CPU 推理)。