首页 教程 分类 Skills下载 关于
ZH EN JA KO
🤖

模型接入

(33 篇)
OpenClaw各模型API费用对比和省钱技巧
详细对比各AI模型的API费用,分享预算控制配置和实用省钱策略,帮助你用最低成本运行OpenClaw
OpenClaw多模态和视觉模型配置教程
详解如何在OpenClaw中配置和使用多模态视觉模型,支持图片理解、OCR、图表分析等功能
OpenClaw支持的AI模型全面对比评测
全面对比OpenClaw支持的各大AI模型,从速度、质量、费用和隐私四个维度帮助你选择最合适的模型
OpenClaw通过OpenRouter接入多模型教程
介绍如何通过OpenRouter一个API Key接入Claude、GPT、Gemini等多种模型,实现模型路由和故障切换
OpenClaw本地大模型选型和部署指南
全面介绍如何在本地部署大模型并接入OpenClaw,涵盖Ollama、LM Studio等方案,以及不同硬件条件下的模型选型建议
OpenClaw配置OpenAI GPT模型完整教程
详细讲解如何在OpenClaw中配置OpenAI GPT系列模型,包括API密钥获取、模型选择、参数调优和费用控制
OpenClaw接入Google Gemini模型教程
详细介绍如何在OpenClaw中配置Google Gemini模型,涵盖API密钥获取、模型选择、Vertex AI方案和免费额度利用
openclaw models 模型管理命令教程
使用 openclaw models 命令管理模型配置、测试模型性能和切换默认模型。
OpenClaw接入小米大模型与Z.AI
在OpenClaw中配置小米大模型和Z.AI服务,接入更多国产AI模型选择。
OpenClaw接入Venice AI隐私推理服务
详细介绍如何在OpenClaw中配置Venice AI隐私推理服务,使用venice/llama-3.3-70b等模型实现隐私优先的AI对话。
OpenClaw接入通义千问(Qwen)模型
在OpenClaw中配置阿里云通义千问Qwen系列模型,包括Qwen-Max、Qwen-Plus等型号的接入指南。
OpenClaw模型供应商配置大全
详解OpenClaw支持的14个AI模型供应商的配置方法,包括Anthropic、OpenAI、Ollama等,以及多账户认证、故障转移和模型切换机制。
OpenClaw接入月之暗面(Moonshot AI)
在OpenClaw中配置Moonshot AI(月之暗面)的Kimi大模型,实现超长上下文对话和智能问答。
OpenClaw按频道配置不同AI模型
详解如何在OpenClaw中为不同聊天频道或平台配置不同的AI模型,实现灵活的多模型调度。
OpenClaw多模型故障转移与自动切换
深入讲解OpenClaw的多模型故障转移机制,包括多账户认证轮换、冷却追踪和自动切换策略。
OpenClaw接入MiniMax海螺AI
在OpenClaw中配置MiniMax海螺AI大模型,实现高质量中文对话和多模态交互。
OpenClaw接入智谱GLM(ChatGLM)模型
详解如何在OpenClaw中配置智谱AI的GLM系列大模型,包括GLM-4等型号的接入与优化。
OpenClaw语音转文字:Deepgram转录服务配置
在OpenClaw中配置Deepgram语音转文字服务,实现语音消息的自动转录与AI处理。
OpenClaw接入Amazon Bedrock教程
手把手教你在OpenClaw中配置Amazon Bedrock,通过AWS托管服务访问Claude、Llama等顶级大模型。
OpenClaw接入Ollama免费本地模型教程
详细介绍如何在OpenClaw中接入Ollama运行免费的本地AI模型,包括Ollama安装、模型下载、配置对接和硬件要求说明。
OpenClaw怎么配置Claude API密钥
完整讲解如何在OpenClaw中配置Anthropic Claude API,包括密钥获取、配置文件编写、模型选择和费用控制。
Z.AI 模型接入教程
在 OpenClaw 中接入 Z.AI 服务,使用其提供的高质量 AI 模型。
vLLM 本地推理服务器搭建教程
使用 vLLM 搭建高性能本地推理服务器,为 OpenClaw 提供自托管模型能力。
Vercel AI Gateway 配置教程
通过 Vercel AI Gateway 在 OpenClaw 中接入多个 AI 供应商,享受边缘网络加速。
Together AI 模型接入教程
在 OpenClaw 中接入 Together AI,以低成本使用 Llama、Mixtral 等热门开源模型。
百度千帆大模型平台接入教程
在 OpenClaw 中接入百度千帆大模型平台,使用文心一言等国产大模型。
OpenCode 接入配置教程
在 OpenClaw 中接入 OpenCode 服务,获取灵活的模型访问能力。
NVIDIA NIM 推理服务接入教程
将 NVIDIA NIM 推理服务接入 OpenClaw,利用 GPU 加速获得极致推理性能。
Mistral 模型配置教程
在 OpenClaw 中配置 Mistral AI 模型,体验高性价比的欧洲 AI 模型服务。
LiteLLM 统一代理接入教程
使用 LiteLLM 作为统一代理,在 OpenClaw 中管理多个模型供应商的访问和负载均衡。
Kilocode 接入配置教程
在 OpenClaw 中配置 Kilocode 模型供应商,实现代码生成与智能编程助手功能。
Hugging Face 模型接入教程
在 OpenClaw 中接入 Hugging Face Inference API,使用海量开源模型驱动你的 AI 助手。
Cloudflare AI Gateway 配置指南
详细介绍如何在 OpenClaw 中配置 Cloudflare AI Gateway,实现模型请求缓存、限速和日志监控。

开始使用 OpenClaw

开源免费,一条命令安装,连接你的 WhatsApp、Telegram、Discord 等聊天平台