跳转到内容

第8章 模型接入全攻略

一句话:OpenClaw 支持 30+ 模型提供商,国产模型首推 DeepSeek / Kimi / MiniMax / GLM,云厂商 Coding Plan 首月 ¥7.9 性价比拉满。


所有模型都使用 provider/model 格式指定:

{
agents: {
defaults: {
model: {
primary: "deepseek/deepseek-v3.2", // 国产直连
// primary: "minimax/MiniMax-M2.7", // MiniMax
// primary: "openrouter/anthropic/claude-sonnet-4-6", // 通过 OpenRouter
},
},
},
}

推荐通过环境变量设置(比写在配置文件里更安全):

Terminal window
export DEEPSEEK_API_KEY="sk-xxxxx"
export MINIMAX_API_KEY="xxxxx"
export MOONSHOT_API_KEY="sk-xxxxx"
export ZAI_API_KEY="xxxxx"
export OPENROUTER_API_KEY="sk-or-xxxxx"

也可以通过配置文件的 env 段集中管理(参见第 4 章 4.7 节)。


注意:以下定价信息截至 2026 年 3 月,请以各平台官网为准。

2026 年最具性价比的入门方式——一个专用 Key 就能切换多家国产模型,首月仅 ¥7.9。

阿里云百炼 Coding Plan

项目详情
首月价¥7.9(Lite 套餐自 2026-03-20 起停止新购,Pro 套餐首月 ¥39.9)
支持模型Qwen3.5-Plus、GLM-4.7、Kimi K2.5、MiniMax-M2.5
Key 格式sk-sp- 开头
Base URLhttps://coding.dashscope.aliyuncs.com/v1
{
agents: {
defaults: {
model: { primary: "dashscope-coding/qwen3.5-plus" },
},
},
models: {
providers: {
"dashscope-coding": {
api: "openai-completions",
baseUrl: "https://coding.dashscope.aliyuncs.com/v1",
},
},
},
}
Terminal window
export DASHSCOPE_CODING_API_KEY="sk-sp-xxxxx"

腾讯云 LKEAP Coding Plan

项目详情
首月价¥7.9
支持模型混元 2.0、Kimi K2.5、GLM-4.7、MiniMax-M2.5、tc-code
Base URLhttps://api.lkeap.cloud.tencent.com/coding/v3
{
agents: {
defaults: {
model: { primary: "lkeap-coding/hunyuan-2.0" },
},
},
models: {
providers: {
"lkeap-coding": {
api: "openai-completions",
baseUrl: "https://api.lkeap.cloud.tencent.com/coding/v3",
},
},
},
}
Terminal window
export LKEAP_CODING_API_KEY="sk-sp-xxxxx"

百度千帆 Coding Plan

项目详情
首月价¥7.9
支持模型GLM-4.7、MiniMax-M2.5、Kimi-K2.5、文心等

注意:以下定价信息截至 2026 年 3 月,请以各平台官网为准。定价可能随时调整。

除了云厂商聚合方案,各独立模型厂商也提供自己的订阅 Plan(或按量计费),直接使用自家最新模型:

DeepSeek 不提供订阅制 Coding Plan,采用纯按量计费模式。价格极低,适合用量波动大的开发者。

项目详情
计费模式按量计费(无月费)
代表模型DeepSeek-V3.2,128K context
输入价格¥2.0/百万 token(缓存命中 ¥0.2/百万 token)
输出价格¥3.0/百万 token
新用户福利注册赠送 500 万–1000 万免费 token
错峰优惠每日 00:30–08:30 输入/输出再打折

提示:也可通过阿里云百炼、腾讯云 LKEAP、百度千帆等云厂商 Coding Plan 间接使用 DeepSeek 系列模型。

Kimi Code Plan 基于 K2.5 模型(256K–512K context),分四档订阅:

套餐月费定位
Andante(行板)¥49/月入门,含 Kimi 会员权益
Moderato(中板)¥99/月推荐档,每周更新额度,多设备登录
Allegretto¥199/月高级用户,更高并发上限
Allegro¥699/月重度开发,最高限额
  • 额度按 5 小时滚动窗口 + 每周重置
  • 仅统计未命中缓存的 token,缓存命中不消耗额度
  • 3 倍额度活动已从限时转为永久
  • 年付可享优惠(Andante ¥39/月起,Moderato ¥79/月起)
  • 兼容 Claude Code、Kimi CLI、VS Code 插件等

MiniMax Token Plan(原 Coding Plan 升级)

Section titled “MiniMax Token Plan(原 Coding Plan 升级)”

2026 年 3 月,MiniMax 将 Coding Plan 升级为 Token Plan,搭载 M2.7 编程模型。分为标准版和极速版两条产品线:

标准版:

套餐月费定位
Starter¥29/月轻度使用,不含多模态权益
Plus¥49/月主力档,赠送多模态额度
Max¥119/月重度使用,高并发

极速版(100+ TPS 高速推理):

套餐月费
Plus-极速¥98/月
Max-极速¥199/月
Ultra-极速¥899/月
  • 额度按 5 小时滚动窗口重置
  • Plus 及以上赠送海螺视频、语音合成、音乐生成等多模态额度
  • API 按量:M2.7 输入 $0.30/M、输出 $1.20/M
  • 年付可省约 17%
  • 兼容 Claude Code、Cursor、VS Code 插件等

智谱 GLM Coding Plan 基于 GLM-5 / GLM-4.7 模型(200K context),分三档订阅:

套餐月费可用模型
Lite¥49/月GLM-4.7
Pro¥149/月GLM-4.7 + GLM-5
Max¥469/月GLM-4.7 + GLM-5(最高优先级)
  • 额度按 5 小时滚动窗口 + 每周重置(Lite ~80 prompts/5h,Pro ~400/5h,Max ~1600/5h)
  • GLM-5 调用消耗 3 倍额度(仅 Pro/Max 可用)
  • 2026 年 2 月取消首购优惠并调价
  • 连续包季享 9 折,包年享 7 折
  • 兼容 Claude Code、Cursor、VS Code 插件等
方案费用特点
通义千问 QwenOAuth 免费 2000 次/天零成本体验
小米 MiMo免费mimo-v2-flash,262K context
Ollama完全免费本地运行,无需网络

{
agents: {
defaults: {
model: { primary: "deepseek/deepseek-v3.2" },
},
},
models: {
providers: {
deepseek: {
api: "openai-completions",
baseUrl: "https://api.deepseek.com/v1",
},
},
},
}
Terminal window
export DEEPSEEK_API_KEY="sk-xxxxx"
{
agents: {
defaults: {
model: { primary: "moonshot/kimi-k2.5" },
},
},
}
Terminal window
export MOONSHOT_API_KEY="sk-xxxxx"

注意:MiniMax M2.7 于 2026-03-18 发布,晚于本书基于的 OpenClaw v2026.3.13。使用 M2.7 需要在 models.providers 中手动配置模型定义(见下方)。M2.5 可通过 openclaw onboard 向导或 openclaw configure 自动配置,也可以手动添加 models.providers.minimax 配置块(见下方完整示例)。

{
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.7" },
// 内置版本:minimax/MiniMax-M2.5(无需额外 provider 配置)
},
},
// M2.7 需要手动添加 provider 配置(M2.5 不需要)
models: {
mode: "merge",
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
apiKey: "${MINIMAX_API_KEY}",
api: "anthropic-messages",
models: [{
id: "MiniMax-M2.7",
name: "MiniMax M2.7",
reasoning: true,
input: ["text"],
cost: { input: 0.3, output: 1.2 },
contextWindow: 204800,
maxTokens: 131072,
}],
},
},
},
}
Terminal window
export MINIMAX_API_KEY="xxxxx"
{
agents: {
defaults: {
model: { primary: "zai/glm-5" },
},
},
}
Terminal window
export ZAI_API_KEY="xxxxx"
{
agents: {
defaults: {
model: { primary: "qianfan/ernie-4-turbo" },
},
},
}
Terminal window
export QIANFAN_API_KEY="xxxxx"
{
agents: {
defaults: {
model: { primary: "dashscope/qwen3.5-plus" },
},
},
}

或使用 OAuth 免费额度(2000 次/天):

Terminal window
openclaw plugins enable qwen-portal-auth
openclaw gateway restart # 需要重启 Gateway 加载插件
openclaw models auth login --provider qwen-portal --set-default

MiMo 使用 Anthropic Messages API 兼容格式,需要配置 Custom Provider:

{
agents: {
defaults: {
model: { primary: "xiaomi/mimo-v2-flash" },
},
},
models: {
providers: {
xiaomi: {
baseUrl: "https://api.xiaomimimo.com/anthropic",
api: "anthropic-messages",
apiKey: "XIAOMI_API_KEY",
models: [{
id: "mimo-v2-flash",
name: "Xiaomi MiMo V2 Flash",
contextWindow: 262144,
maxTokens: 65536,
cost: { input: 0, output: 0 },
}],
},
},
},
}
Terminal window
export XIAOMI_API_KEY="xxxxx"

{
agents: {
defaults: {
model: { primary: "anthropic/claude-sonnet-4-6" },
// 或 "anthropic/claude-opus-4-6"(更强但更贵)
},
},
}
Terminal window
export ANTHROPIC_API_KEY="sk-ant-xxxxx"

需要海外手机号注册、海外信用卡付款。国内可通过 OpenRouter 使用。

{
agents: {
defaults: {
model: { primary: "openai/gpt-5.4" },
},
},
}
Terminal window
export OPENAI_API_KEY="sk-xxxxx"

注意:Gemini 通过插件支持,使用前需确认插件已启用。模型 ID 请以 openclaw models list --provider google 实际输出为准。

{
agents: {
defaults: {
model: { primary: "google/gemini-3-flash-preview" },
// 其他可选:google/gemini-3.1-pro-preview
},
},
}
Terminal window
export GEMINI_API_KEY="xxxxx"
# 或通过 onboard:openclaw onboard --auth-choice gemini-api-key

Ollama 让你在本地运行开源模型,完全免费、完全离线:

Terminal window
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉取推荐的国产开源模型
ollama pull qwen2.5:14b # 通义千问 14B
ollama pull glm4:9b # GLM4 9B
ollama pull deepseek-coder-v2:16b # DeepSeek Coder

配置:

{
agents: {
defaults: {
model: { primary: "ollama/qwen2.5:14b" },
},
},
models: {
providers: {
ollama: { baseUrl: "http://localhost:11434", api: "ollama" },
},
},
}

硬件需求:7B 模型约需 8GB 内存/显存,14B 约需 16GB,70B 约需 48GB。


8.6 OpenRouter(一个 Key 用所有模型)

Section titled “8.6 OpenRouter(一个 Key 用所有模型)”

OpenRouter 是一个模型聚合平台,一个 API Key 可以访问上百个模型:

{
agents: {
defaults: {
model: {
primary: "openrouter/anthropic/claude-sonnet-4-6",
// 或 "openrouter/openai/gpt-5.4"
// 或 "openrouter/auto" // 自动选择最优模型
},
},
},
}
Terminal window
export OPENROUTER_API_KEY="sk-or-v1-xxxxx"

OpenRouter 格式:openrouter/provider/model


OpenClaw 的模型回退分两个阶段:

第一阶段:fallbacks 列表

{
agents: {
defaults: {
model: {
primary: "deepseek/deepseek-v3.2",
fallbacks: [
"minimax/MiniMax-M2.5", // 第一备选
"moonshot/kimi-k2.5", // 第二备选
],
},
},
},
}

主模型返回错误时,按顺序尝试 fallbacks 列表中的模型。

第二阶段:自动降级

如果 fallbacks 也全部失败,Gateway 会在日志中记录错误并通知用户模型不可用。


模型上下文编码能力Tool Calling中文成本
DeepSeek V3.2128K极低
MiniMax M2.7205K很强
Kimi K2.5256K
GLM-5200K很强
Qwen3.5-Plus1M很强
Claude Sonnet 4.61M很强很好
GPT-5.4272K(最大 1M)很强很好较高

Agent 的核心能力依赖 Tool Calling(工具调用)。不同模型的 Tool Calling 可靠性差异较大:

  • 可靠:Claude Sonnet/Opus、GPT-5.4、MiniMax M2.7、Kimi K2.5
  • 较好:DeepSeek V3.2、GLM-5、Qwen3.5
  • 一般:小型本地模型(7B 以下),Tool Calling 容易出错

建议:如果 Agent 需要频繁使用工具(浏览器、代码执行等),优先选择 Tool Calling 可靠性高的模型。


云厂商 Coding Plan 月费固定,不怕超支。适合日常使用。

高频场景用便宜模型,fallbacks 里放贵但强的模型做兜底:

{
agents: {
defaults: {
model: {
primary: "deepseek/deepseek-v3.2", // 便宜
fallbacks: ["minimax/MiniMax-M2.5"], // 备选
},
},
},
}

如果使用 Heartbeat 心跳(第 10 章),开启 lightContext: true 可以大幅降低每次心跳的 token 消耗。

设置 imageMaxDimensionPx 压缩用户发送的图片,减少 token 消耗:

{
agents: {
defaults: {
imageMaxDimensionPx: 800, // 极限省 token
},
},
}

对话过长时,上下文中的旧消息会重复消耗 token。及时 /compact 或让 Agent 自动 compaction 可以控制成本。


主题要点
统一格式provider/model,API Key 通过环境变量设置
Coding Plan云厂商首月 ¥7.9,一个 Key 多家模型
国产首选DeepSeek(零门槛按量)、MiniMax(编码强)、Kimi(长上下文)
国际模型通过 OpenRouter 使用,或直连(需海外账户)
本地模型Ollama,推荐 qwen2.5:14b
Failoverprimary + fallbacks 两阶段回退
成本控制Coding Plan 封顶 / fallbacks 降级 / 图片压缩 / Compact

下一章进入多 Agent 架构——让多个 Agent 协同工作。