OpenClaw 省钱终极指南
OpenClaw 省钱终极指南
作者: @lijiuer92 | 来源: X/Twitter | 日期: 2026-02-21
OpenClaw 目前最强开源 AI Agent,它真的能干活。但大多数人第一个月的账单会吓一跳,包括韭二哥。
这篇指南浓缩了韭二哥深挖 GitHub Issues、社区案例、官方 Changelog 后的全部发现。
三句话概括:
- 你 80% 的钱花在了你不知道的地方(心跳守护进程、会话膨胀、未用 Skill 注入)
- 2026年2月的版本更新(Sonnet 4.6 + 1M Context + 嵌套子 Agent)彻底改写了性价比公式
- 照着韭二哥做 10 步配置,月花从 $200+ 砍到 $10-50 不是玄学,是社区已验证的事实
不想看原理的,直接拖到结尾跳到第六节"10 步省钱清单"和"速查配置模板"。
想理解为什么的,从头看。
一、你的钱到底花在哪了
大多数 OpenClaw 用户对自己的钱怎么花掉的一无所知。这不怪你——OpenClaw 的计费发生在 API 层,界面上不会弹窗告诉你"这条消息花了 $0.30"。
我们拆解了 token 消耗的完整架构,发现五个吞金黑洞。按杀伤力排序:
黑洞 1:心跳守护进程——你睡了,它在烧钱
OpenClaw 有一个叫 Heartbeat Daemon 的后台机制。它每 30 分钟自动唤醒 Agent,检查有没有新任务——比如你让它监控邮箱、跟踪价格、定时提醒。
问题是:每次心跳都是一次完整的 API 调用,携带全部对话历史。当你的会话累积到 17-21 万 token 时,一次心跳的输入就是 17-21 万 token。按 Sonnet 的价格算,一次心跳 $0.51-$0.63。一天 48 次。一个月 $720-$900。
你没看错。你什么都没做,Agent 自己在后台烧掉了你一个月的伙食费。
解法在这篇文章的第六节。一行配置改动,这笔钱直接归零。
黑洞 2:会话累积——用得越久,每句话越贵
OpenClaw 在每次 API 调用中发送完整的对话历史。第 1 轮对话大约 1,000 token,第 10 轮 15,000,第 50 轮可能超过 10 万。
这制造了一个反直觉的现象:第 1 轮你说"你好"花 $0.003,第 50 轮你说同样的"你好"花 $0.30——贵了 100 倍。
一个社区用户记录了 120 小时的使用过程。到 20 万 token 后,每次提问要等 1-2 分钟,最后直接崩溃。
你花了更多的钱,得到了更差的体验。
黑洞 3:系统 Prompt——每次请求都付的"底租"
OpenClaw 在每次 API 调用中重新发送系统 Prompt。包括 Agent 身份(SOUL.md)、工具列表(TOOLS.md)、所有启用的 Skill 描述、配置参数。典型大小 5,000-10,000 token。
每天 100 次交互,系统 Prompt 月消耗 $67.50。
你没问它任何问题,就已经在付钱了。
而最新的 v2026.2.17 版本把 bootstrap prompt cap 从 24,000 提升到 150,000 字符。这意味着系统 Prompt 可以更大了,更多 Skill 可以同时加载。但如果你不管理好,"底租"也会跟着涨。
黑洞 4:Skill 注入——你装了但没用的 Skill 也在花钱
每个启用的 Skill 会向系统 Prompt 注入 200-400 token 的描述信息。
你装了 18 个 Skill 但只用 5 个?那 13 个未使用的 Skill 每次请求浪费 3,200 token。
黑洞 5:工作区文件注入——最荒诞的浪费
GitHub Issue #9157 揭示了一个 bug:OpenClaw 在每条消息中注入工作区文件列表,浪费了 93.5% 的 token 预算。如果你的工作目录文件多,这一项就能让 token 消耗翻倍。
二、2 月版本更新:你必须知道的 3 件事
2026 年 2 月 12-19 日,OpenClaw 在 7 天内发了 4 个稳定版。这不是常规 bugfix,而是一次平台级跃迁。三个关键更新直接影响你的钱包和效率。
更新 1:Anthropic Sonnet 4.6——免费升级,性能翻倍
2 月 17 日,Anthropic 发布了 Claude Sonnet 4.6。一句话总结:Opus 级智能,Sonnet 级定价。
ARC-AGI-2 从 13.6% 到 58.3%,是 4.3 倍的提升。这个测试衡量的是模型的推理和泛化能力,而这恰好是 Agent 最需要的。
价格?$3/$15 per MTok。和 Sonnet 4.5 一模一样。免费升级。
更值得关注的数据:在用户偏好测试中,Sonnet 4.6 vs Opus 4.5 的偏好率是 59:41。超过一半的人觉得 Sonnet 4.6 不比 Opus 4.5 差。而 Sonnet 的价格只有 Opus 的 60%。
这意味着什么?如果你之前默认用 Opus,现在可以把 80% 的任务切到 Sonnet 4.6,效果不降,成本直降 40%。
更新 2:1M Context——记忆扩容 5 倍,但有悬崖
OpenClaw(v2026.2.17)集成了 Anthropic 的 100 万 token 上下文窗口 beta。开启后,上下文窗口从 200K 扩到 1M。
听起来很美,对吧?但这里有一个你必须知道的定价陷阱。
Anthropic 对超过 200K 的输入采用阶梯定价。关键陷阱:这是全量的。一旦总量超过 200K,所有 token 全部翻倍。从 199K 到 201K,你的账单不是多了 2K token 的钱,而是所有 201K token 的单价都翻了。
200K 是成本悬崖。
正确用法:1M context 适合偶尔需要加载大量参考文档的场景(代码审查、长文档分析),不适合让日常对话膨胀到这个规模。即使有 1M,你也应该在 200K 之前主动触发 compaction。
已知的坑:
- Issue #11292:旧版本的 compaction 系统以为有 1M 空间,但 API 实际执行 200K 限制,导致崩溃。v2026.2.17 已修复。
- Issue #11057:1M 只对 API tier 4 付费用户开放,Claude Max/Pro 订阅用户无法使用。这个 issue,至今未关。
更新 3(OpenClaw 自有功能):嵌套子 Agent
OpenClaw v2026.2.15 引入了嵌套子 Agent。以前子 Agent 不能再 spawn 子 Agent,现在可以了。
- 最深 5 层,官方推荐 2 层
- 理论上最多 31 个并发 Agent 会话(1 + 5 + 25)
- 每个都有独立 context
- 每个都在烧你的 token
正确做法:给子 Agent 指定便宜模型。主 Agent 用 Opus 做决策和编排,子 Agent 用 Sonnet 或者 GLM 智谱等国产大模型做执行做简单任务。两层路由,成本可控,同时复杂性可控。
三、模型路由——让对的模型做对的事
所有省钱策略中,模型路由的 ROI 最高。它同时优化成本和质量:便宜模型处理简单任务,最好的模型只用在刀刃上。
策略 1:级联式路由
先用最便宜的模型试答。如果置信度低,升级。实际分布:90% 在 Haiku 层解决,8% 升级 Sonnet,2% 到 Opus。社区报告 60-87% 成本削减。
策略 2:任务类型路由
按任务直接分配,一句话:按对的模型做对的事情。
策略 3:Opus-as-Orchestrator
最精妙的模式。Opus 只做"将军":分析任务、制定计划、分配给便宜模型执行、审核结果。
成本对比(100K token/天):
- 全 Opus:$3.00/天
- Opus 调度 + Sonnet 执行:$1.92/天,省 36%
- Opus 调度 + Haiku 执行:$0.84/天,省 72%
OpenClaw v2026.2.15 引入的嵌套子 Agent 让这个模式更强:
Agent(Opus)→ 一级子 Agent(Sonnet)→ 二级子 Agent(Haiku)
三层模型自动匹配三层嵌套。
而 OpenClaw v2026.2.17 新增了按模型配置 thinking 开关。Thinking(扩展推理)会生成大量中间 token。简单任务完全不需要。Sonnet 关 thinking + Opus 开 thinking,是精细化省钱的一步好棋。
四、Prompt Caching——Agent 场景的免费午餐
普通聊天应用的系统 Prompt 可能只有几百 token,缓存收益有限。但 OpenClaw 的系统 Prompt 动辄 5,000-10,000 token。每次请求中,约 40-60% 的 input token 是完全重复的。
Anthropic 的 Prompt Caching 给这部分 90% 折扣。轻度使用省 86%,中度省 88%,重度省 89%。这只是系统 Prompt 部分。对高频交互的 Agent,已经是几百美元的差距。
五、本地模型——零 API 成本的边界
OpenClaw 原生支持 Ollama 自动发现。两行命令搞定:
ollama pull qwen3:32b
OpenClaw 自动检测,所有本地调用:$0
质量底线:14B 以上。社区共识是 8B 模型在工具调用时频繁产生幻觉,而这对 Agent 场景是致命的。
六、10 步省钱清单(按优先级排序)
第 1 步:禁用原生心跳(预期省 $150-900/月)
agents.defaults.heartbeat.every: "0m"
一行改动,ROI 最高。
第 2 步:任务完成后立刻重置会话
用 /compact 压缩或直接重启。一个用户靠这一步从 $150 降到 $35。
第 3 步:切换默认模型到 Sonnet 4.6
agents.defaults.model: "anthropic/claude-sonnet-4-6"
比 Opus 便宜 40%,59% 的人觉得不比 Opus 差。
第 4 步:禁用不用的 Skill
审计过去 30 天实际用了哪些。每禁一个省 200-400 token/次。
第 5 步:设置 thinkingDefault: "minimal"
跳过链式思维,省 50% 推理 token。进阶:Sonnet 关 thinking,Opus 开 thinking。
第 6 步:启用 Prompt 缓存
系统 Prompt 部分省 86-89%。自动生效,把静态内容前置可最大化命中率。
第 7 步:配置 safeguard compaction
compaction.mode: "safeguard"
targetTokens: 50000
省 token 又保记忆。如果开了 1M context,务必设在 200K 前触发。
第 8 步:实施模型路由
50% Haiku + 30% Sonnet 4.6 + 20% Opus。大多数交互不需要强模型。
第 9 步:控制 output 长度
SOUL.md 加一句"Be concise"。配合 max_tokens 硬限制。投入零,回报 30-50%。
第 10 步:部署本地模型(可选)
ollama pull qwen3:32b
心跳和简单查询全走本地,月花直接砍半。
七、真实案例——别人怎么省的
案例 1:$150 → $35/月(77% 削减)
APIYI 社区成员。三步操作:任务完成即重置、禁用 13 个未用 Skill、启用 Prompt 缓存。投入不到 1 小时。
案例 2:$1,200 → $50/月(96% 削减)
GitHub 用户 wassupjay。智能会话管理 + 完整模型路由 + 心跳切本地 + output 限制。
案例 3:120 小时踩坑后的 9 步优化(50% 削减)
原状:4,671 次异常循环、20 万 token 后每次等 1-2 分钟。核心改动:compaction 切 safeguard + sub-agent 换便宜模型。2 小时完成。
案例 4:$400/月,但不想省
Hacker News 用户 bobjordan。从 Disneyland 通过 Telegram 协调多个开发实例。"Better ROI than hiring staff." 如果 $400/月替代了月薪 $5,000 的部分工作,ROI 是 12.5 倍。
八、安全提醒——v2026.2.19 必须升级
这不是省钱话题,但太重要了必须说。v2026.2.19 包含 40+ 条安全修复。
九、速查配置模板
这套配置做了什么:默认 Sonnet 4.6,失败回退 Haiku,心跳关闭,推理最小化,50K 自动压缩,子 Agent 用 Haiku,Sonnet 关 thinking / Opus 开 thinking。
月预期花费:中度 $30-60,重度 $80-150。
数据来源:全部基于 GitHub 第一手来源(Releases v2026.2.12-v2026.2.19, Issues #9157/#11042/#11057/#11292 等),Anthropic 官方公告,社区案例(APIYI/wassupjay/ClawHosters),Stanford FrugalGPT 研究。定价数据基于 2026-02-21 快照,建议每月复查。
本文由李韭二和 Manus、Claude Code Max 以及 Gemini Deepsearch 协作完成