返回首页
tips2026-02-21

OpenClaw 省钱终极指南

作者: @lijiuer92查看原文
AD SLOT — TOP

OpenClaw 省钱终极指南

作者: @lijiuer92 | 来源: X/Twitter | 日期: 2026-02-21


OpenClaw 目前最强开源 AI Agent,它真的能干活。但大多数人第一个月的账单会吓一跳,包括韭二哥。

这篇指南浓缩了韭二哥深挖 GitHub Issues、社区案例、官方 Changelog 后的全部发现。

三句话概括:

  1. 你 80% 的钱花在了你不知道的地方(心跳守护进程、会话膨胀、未用 Skill 注入)
  2. 2026年2月的版本更新(Sonnet 4.6 + 1M Context + 嵌套子 Agent)彻底改写了性价比公式
  3. 照着韭二哥做 10 步配置,月花从 $200+ 砍到 $10-50 不是玄学,是社区已验证的事实

不想看原理的,直接拖到结尾跳到第六节"10 步省钱清单"和"速查配置模板"。

想理解为什么的,从头看。

一、你的钱到底花在哪了

大多数 OpenClaw 用户对自己的钱怎么花掉的一无所知。这不怪你——OpenClaw 的计费发生在 API 层,界面上不会弹窗告诉你"这条消息花了 $0.30"。

我们拆解了 token 消耗的完整架构,发现五个吞金黑洞。按杀伤力排序:

黑洞 1:心跳守护进程——你睡了,它在烧钱

OpenClaw 有一个叫 Heartbeat Daemon 的后台机制。它每 30 分钟自动唤醒 Agent,检查有没有新任务——比如你让它监控邮箱、跟踪价格、定时提醒。

问题是:每次心跳都是一次完整的 API 调用,携带全部对话历史。当你的会话累积到 17-21 万 token 时,一次心跳的输入就是 17-21 万 token。按 Sonnet 的价格算,一次心跳 $0.51-$0.63。一天 48 次。一个月 $720-$900。

你没看错。你什么都没做,Agent 自己在后台烧掉了你一个月的伙食费。

解法在这篇文章的第六节。一行配置改动,这笔钱直接归零。

黑洞 2:会话累积——用得越久,每句话越贵

OpenClaw 在每次 API 调用中发送完整的对话历史。第 1 轮对话大约 1,000 token,第 10 轮 15,000,第 50 轮可能超过 10 万。

这制造了一个反直觉的现象:第 1 轮你说"你好"花 $0.003,第 50 轮你说同样的"你好"花 $0.30——贵了 100 倍。

一个社区用户记录了 120 小时的使用过程。到 20 万 token 后,每次提问要等 1-2 分钟,最后直接崩溃。

你花了更多的钱,得到了更差的体验。

黑洞 3:系统 Prompt——每次请求都付的"底租"

OpenClaw 在每次 API 调用中重新发送系统 Prompt。包括 Agent 身份(SOUL.md)、工具列表(TOOLS.md)、所有启用的 Skill 描述、配置参数。典型大小 5,000-10,000 token。

每天 100 次交互,系统 Prompt 月消耗 $67.50。

你没问它任何问题,就已经在付钱了。

而最新的 v2026.2.17 版本把 bootstrap prompt cap 从 24,000 提升到 150,000 字符。这意味着系统 Prompt 可以更大了,更多 Skill 可以同时加载。但如果你不管理好,"底租"也会跟着涨。

黑洞 4:Skill 注入——你装了但没用的 Skill 也在花钱

每个启用的 Skill 会向系统 Prompt 注入 200-400 token 的描述信息。

你装了 18 个 Skill 但只用 5 个?那 13 个未使用的 Skill 每次请求浪费 3,200 token。

黑洞 5:工作区文件注入——最荒诞的浪费

GitHub Issue #9157 揭示了一个 bug:OpenClaw 在每条消息中注入工作区文件列表,浪费了 93.5% 的 token 预算。如果你的工作目录文件多,这一项就能让 token 消耗翻倍。

二、2 月版本更新:你必须知道的 3 件事

2026 年 2 月 12-19 日,OpenClaw 在 7 天内发了 4 个稳定版。这不是常规 bugfix,而是一次平台级跃迁。三个关键更新直接影响你的钱包和效率。

更新 1:Anthropic Sonnet 4.6——免费升级,性能翻倍

2 月 17 日,Anthropic 发布了 Claude Sonnet 4.6。一句话总结:Opus 级智能,Sonnet 级定价。

ARC-AGI-2 从 13.6% 到 58.3%,是 4.3 倍的提升。这个测试衡量的是模型的推理和泛化能力,而这恰好是 Agent 最需要的。

价格?$3/$15 per MTok。和 Sonnet 4.5 一模一样。免费升级。

更值得关注的数据:在用户偏好测试中,Sonnet 4.6 vs Opus 4.5 的偏好率是 59:41。超过一半的人觉得 Sonnet 4.6 不比 Opus 4.5 差。而 Sonnet 的价格只有 Opus 的 60%。

这意味着什么?如果你之前默认用 Opus,现在可以把 80% 的任务切到 Sonnet 4.6,效果不降,成本直降 40%。

更新 2:1M Context——记忆扩容 5 倍,但有悬崖

OpenClaw(v2026.2.17)集成了 Anthropic 的 100 万 token 上下文窗口 beta。开启后,上下文窗口从 200K 扩到 1M。

听起来很美,对吧?但这里有一个你必须知道的定价陷阱。

Anthropic 对超过 200K 的输入采用阶梯定价。关键陷阱:这是全量的。一旦总量超过 200K,所有 token 全部翻倍。从 199K 到 201K,你的账单不是多了 2K token 的钱,而是所有 201K token 的单价都翻了。

200K 是成本悬崖。

正确用法:1M context 适合偶尔需要加载大量参考文档的场景(代码审查、长文档分析),不适合让日常对话膨胀到这个规模。即使有 1M,你也应该在 200K 之前主动触发 compaction。

已知的坑:

  • Issue #11292:旧版本的 compaction 系统以为有 1M 空间,但 API 实际执行 200K 限制,导致崩溃。v2026.2.17 已修复。
  • Issue #11057:1M 只对 API tier 4 付费用户开放,Claude Max/Pro 订阅用户无法使用。这个 issue,至今未关。

更新 3(OpenClaw 自有功能):嵌套子 Agent

OpenClaw v2026.2.15 引入了嵌套子 Agent。以前子 Agent 不能再 spawn 子 Agent,现在可以了。

  • 最深 5 层,官方推荐 2 层
  • 理论上最多 31 个并发 Agent 会话(1 + 5 + 25)
  • 每个都有独立 context
  • 每个都在烧你的 token

正确做法:给子 Agent 指定便宜模型。主 Agent 用 Opus 做决策和编排,子 Agent 用 Sonnet 或者 GLM 智谱等国产大模型做执行做简单任务。两层路由,成本可控,同时复杂性可控。

三、模型路由——让对的模型做对的事

所有省钱策略中,模型路由的 ROI 最高。它同时优化成本和质量:便宜模型处理简单任务,最好的模型只用在刀刃上。

策略 1:级联式路由

先用最便宜的模型试答。如果置信度低,升级。实际分布:90% 在 Haiku 层解决,8% 升级 Sonnet,2% 到 Opus。社区报告 60-87% 成本削减。

策略 2:任务类型路由

按任务直接分配,一句话:按对的模型做对的事情。

策略 3:Opus-as-Orchestrator

最精妙的模式。Opus 只做"将军":分析任务、制定计划、分配给便宜模型执行、审核结果。

成本对比(100K token/天):

  • 全 Opus:$3.00/天
  • Opus 调度 + Sonnet 执行:$1.92/天,省 36%
  • Opus 调度 + Haiku 执行:$0.84/天,省 72%

OpenClaw v2026.2.15 引入的嵌套子 Agent 让这个模式更强:

Agent(Opus)→ 一级子 Agent(Sonnet)→ 二级子 Agent(Haiku)

三层模型自动匹配三层嵌套。

而 OpenClaw v2026.2.17 新增了按模型配置 thinking 开关。Thinking(扩展推理)会生成大量中间 token。简单任务完全不需要。Sonnet 关 thinking + Opus 开 thinking,是精细化省钱的一步好棋。

四、Prompt Caching——Agent 场景的免费午餐

普通聊天应用的系统 Prompt 可能只有几百 token,缓存收益有限。但 OpenClaw 的系统 Prompt 动辄 5,000-10,000 token。每次请求中,约 40-60% 的 input token 是完全重复的。

Anthropic 的 Prompt Caching 给这部分 90% 折扣。轻度使用省 86%,中度省 88%,重度省 89%。这只是系统 Prompt 部分。对高频交互的 Agent,已经是几百美元的差距。

五、本地模型——零 API 成本的边界

OpenClaw 原生支持 Ollama 自动发现。两行命令搞定:

ollama pull qwen3:32b

OpenClaw 自动检测,所有本地调用:$0

质量底线:14B 以上。社区共识是 8B 模型在工具调用时频繁产生幻觉,而这对 Agent 场景是致命的。

六、10 步省钱清单(按优先级排序)

第 1 步:禁用原生心跳(预期省 $150-900/月)

agents.defaults.heartbeat.every: "0m"

一行改动,ROI 最高。

第 2 步:任务完成后立刻重置会话

用 /compact 压缩或直接重启。一个用户靠这一步从 $150 降到 $35。

第 3 步:切换默认模型到 Sonnet 4.6

agents.defaults.model: "anthropic/claude-sonnet-4-6"

比 Opus 便宜 40%,59% 的人觉得不比 Opus 差。

第 4 步:禁用不用的 Skill

审计过去 30 天实际用了哪些。每禁一个省 200-400 token/次。

第 5 步:设置 thinkingDefault: "minimal"

跳过链式思维,省 50% 推理 token。进阶:Sonnet 关 thinking,Opus 开 thinking。

第 6 步:启用 Prompt 缓存

系统 Prompt 部分省 86-89%。自动生效,把静态内容前置可最大化命中率。

第 7 步:配置 safeguard compaction

compaction.mode: "safeguard"
targetTokens: 50000

省 token 又保记忆。如果开了 1M context,务必设在 200K 前触发。

第 8 步:实施模型路由

50% Haiku + 30% Sonnet 4.6 + 20% Opus。大多数交互不需要强模型。

第 9 步:控制 output 长度

SOUL.md 加一句"Be concise"。配合 max_tokens 硬限制。投入零,回报 30-50%。

第 10 步:部署本地模型(可选)

ollama pull qwen3:32b

心跳和简单查询全走本地,月花直接砍半。

七、真实案例——别人怎么省的

案例 1:$150 → $35/月(77% 削减)

APIYI 社区成员。三步操作:任务完成即重置、禁用 13 个未用 Skill、启用 Prompt 缓存。投入不到 1 小时。

案例 2:$1,200 → $50/月(96% 削减)

GitHub 用户 wassupjay。智能会话管理 + 完整模型路由 + 心跳切本地 + output 限制。

案例 3:120 小时踩坑后的 9 步优化(50% 削减)

原状:4,671 次异常循环、20 万 token 后每次等 1-2 分钟。核心改动:compaction 切 safeguard + sub-agent 换便宜模型。2 小时完成。

案例 4:$400/月,但不想省

Hacker News 用户 bobjordan。从 Disneyland 通过 Telegram 协调多个开发实例。"Better ROI than hiring staff." 如果 $400/月替代了月薪 $5,000 的部分工作,ROI 是 12.5 倍。

八、安全提醒——v2026.2.19 必须升级

这不是省钱话题,但太重要了必须说。v2026.2.19 包含 40+ 条安全修复。

九、速查配置模板

这套配置做了什么:默认 Sonnet 4.6,失败回退 Haiku,心跳关闭,推理最小化,50K 自动压缩,子 Agent 用 Haiku,Sonnet 关 thinking / Opus 开 thinking。

月预期花费:中度 $30-60,重度 $80-150。


数据来源:全部基于 GitHub 第一手来源(Releases v2026.2.12-v2026.2.19, Issues #9157/#11042/#11057/#11292 等),Anthropic 官方公告,社区案例(APIYI/wassupjay/ClawHosters),Stanford FrugalGPT 研究。定价数据基于 2026-02-21 快照,建议每月复查。

本文由李韭二和 Manus、Claude Code Max 以及 Gemini Deepsearch 协作完成

AD SLOT — BOTTOM