烧了 200 美金,我终于把 OpenClaw 折腾成了真干活的 AI 员工

cover

装好 OpenClaw 的那个晚上,我兴奋地跟它聊了两个小时。

第二天早上查账单,傻了:100 美元没了。

就聊了两个小时。没有写代码,没有自动化任何东西,就是”你好””你能做什么””帮我搜一下今天的新闻”。100 美元。

这不是个例。社区里有人月账单 3600 美元,有人一觉醒来因为自动化任务死循环多出了四位数。有人打个招呼就用掉 3 万 Token,完成一个简单任务直接顶到 128K 上下文上限。

OpenClaw 免费,但 Token 不免费。

经过一个月的折腾——换模型、调配置、砍 Skill、优化记忆、搭工作流——我终于把它从一个”烧钱聊天机器人”变成了一个真正在干活的 AI 员工。月费稳定在 80 美元左右,每天帮我处理 4-5 个自动化任务。

今天分享这个过程中踩过的所有坑,以及最终让 OpenClaw 真正”干活”的完整方案。

第一课:搞清楚钱花在哪里了

OpenClaw 本身是开源免费的。你花钱买的是三样东西:

  1. 服务器:$5-20/月(云服务器或本地电脑免费)
  2. 模型 API:$1-150+/月(这是大头)
  3. 你的时间:无价(前期配置确实耗时间)

模型 API 费用是最大的变量,也是最容易失控的部分。为什么?因为 OpenClaw 的 Token 消耗有六个”隐形吞金兽”:

吞金兽 1:System Prompt 重复计费。 每次对话,OpenClaw 都会把完整的系统提示词发给模型。8000 Token 的 System Prompt,每天聊 50 次,就是 40 万 Token。光这一项,用 Claude Sonnet 一个月就是 36 美元。

吞金兽 2:后台自动任务。 你以为 OpenClaw 空闲时不花钱?错。它有心跳检测、标题生成、消息摘要等后台任务,每一个都在默默调 API。有用户发现,30% 的 Token 消耗来自这些”你没有要求它做”的后台操作。

吞金兽 3:对话历史累积。 随着对话越来越长,每次请求携带的上下文越来越大。第一句话可能只用 1000 Token,第 20 句话可能携带 50000 Token 的历史。

吞金兽 4:Skill 选择困难症。 装了 30 个 Skill,Agent 每次都要把所有 Skill 的描述发给模型,让它判断用哪个。光 Skill 目录就可能占 5000+ Token。

吞金兽 5:记忆系统无差别存储。 原生记忆会把所有对话内容都存下来,检索时全部拉出来灌进上下文。大量过时、重复的记忆在消耗 Token。

吞金兽 6:忘了关的自动化任务。 三个月前设置的测试任务还在跑,每天默默调用 API。社区数据显示,闲置自动化任务占月费的 10-30%。

搞清楚钱花在哪里,才能有针对性地省钱。

第二课:模型选择比任何优化都重要

这是我花了 50 美元买来的教训:不同任务用不同模型。

一开始我全部用 Claude Sonnet——效果好,但贵。后来我发现,80% 的日常任务用便宜模型完全够用。

我最终的模型配置:

任务类型 模型 单价 原因
复杂推理/编码 Claude Sonnet $3/$15 只在真正需要时用
日常对话/简单任务 DeepSeek V3.2 $0.27/$0.42 便宜 60 倍,日常够用
后台任务(标题/摘要) GLM-4-Flash 免费 白嫖智谱免费额度
定时任务/格式化 Qwen3-Turbo $0.10/$0.30 中文好,便宜

关键配置——把后台任务模型单独设置:

1
2
3
4
5
6
7
{
"models": {
"default": "deepseek/deepseek-chat",
"task": "zhipu/glm-4-flash",
"reasoning": "anthropic/claude-sonnet-4-6"
}
}

仅这一步,我的月费从 150 美元降到了 60 美元。后台任务模型降级,可以砍掉 60% 的隐性消耗。

更进阶的玩法是”收费模型调教 + 免费模型执行”:

  1. 用 Claude 把复杂任务的流程调通
  2. 让 Claude 把流程固化成脚本或 Skill
  3. 切换到免费模型执行这些已固化的任务

脚本保留了 Claude 的优化逻辑,免费模型只负责执行。效果不打折,成本降到接近零。

第三课:记忆优化——从”健忘 + 烧钱”到”长记性 + 省钱”

OpenClaw 原生记忆系统有两个问题:一是”健忘”——会话满了就截断早期上下文;二是”费钱”——什么都存,什么都召回,Token 消耗暴涨。

我试了三种记忆插件方案:

方案 1:QMD 上下文管理

QMD 是一个向量记忆管理工具,把对话记忆转成向量存储,按相关性检索而不是全量灌入。

1
2
3
# 安装
bun install -g qmd
qmd init --backend openclaw

核心配置:

1
2
3
4
5
6
7
8
9
10
{
"memory": {
"backend": "qmd",
"qmd": {
"max_retrievals": 6,
"truncation_limit": 10,
"enableHybridSearch": true
}
}
}

max_retrievals: 6 是实测最优值——平衡记忆精度和 Token 消耗。设太大,Token 降不下来;设太小,Agent 记不住重要信息。

实测效果:上下文从 17K 降到 9.3K,Token 消耗降低约 45%。

方案 2:mem0 云端记忆

Token 优化效果最好,实测**降低 72%**。但需要依赖外部云服务,隐私敏感场景不适用。

方案 3:LanceDB 本地记忆

隐私优先方案,记忆全部存在本地 LanceDB 数据库。优化效果略低于 mem0,但足够日常使用。

一个重要的避坑点: 安装记忆插件后,一定要禁用原生记忆插件:

1
openclaw plugins disable memory-core

否则两套记忆系统同时运行,反而更费 Token。

第四课:砍 Skill,越少越好

这条反直觉。刚开始我疯狂装 Skill——浏览器控制、GitHub 管理、邮件助手、天气查询、日历同步……装了 30 多个。

结果发现:Skill 装得越多,Agent 越慢、越贵、越笨。

原因很简单:每次对话,Agent 都要把所有 Skill 的描述发给模型,让它判断该调用哪个。30 个 Skill 的描述加起来可能占 8000+ Token。模型还经常选错 Skill,浪费更多轮次。

我的做法:只保留 5 个核心 Skill,其他全部禁用。

1
2
3
4
5
# 禁用不常用的 Skill
openclaw skills disable weather-check
openclaw skills disable stock-price
openclaw skills disable calendar-sync
# ...只保留真正每天都用的

最终保留的 5 个 Skill:

  1. Web Browser — 搜索和信息提取(每天都用)
  2. File Manager — 文件操作(自动化核心)
  3. GitHub Agent — 代码管理(工作需要)
  4. Markdown Writer — 内容创作(每天都用)
  5. 企业微信通道 — 消息推送(工作流终端)

Skill 从 30 个砍到 5 个,每次对话的 Token 消耗**直接减少 6000+**。

第五课:让它真正干活——5 个实战工作流

配置优化完成后,OpenClaw 终于从”聊天玩具”变成了”干活工具”。以下是我目前每天在跑的 5 个工作流:

工作流 1:每日信息早报(定时触发)

每天早上 8 点,Agent 自动搜索 5 个行业关键词的最新资讯,整理成结构化早报,推送到企业微信群。

成本:约 $0.15/天(用 DeepSeek 执行)

工作流 2:GitHub PR 自动审查(事件触发)

有新 PR 提交时,Agent 自动 review 代码变更,检查安全漏洞、测试覆盖、编码规范,生成审查报告。

成本:约 $0.30/次(PR 审查用 Claude Sonnet,值得花这个钱)

工作流 3:客户咨询自动回复(实时触发)

企业微信收到客户消息时,Agent 根据知识库自动回复常见问题。回答不了的标记为”待人工处理”。

成本:约 $0.05/天(用免费模型 + 本地知识库)

工作流 4:竞品监控周报(定时触发)

每周五下午 4 点,Agent 搜索竞品的最新动态、产品更新、融资消息,整理成分析报告。

成本:约 $0.50/次(需要搜索 + 长文生成,但一周只跑一次)

工作流 5:代码变更日志(事件触发)

每天收盘时,Agent 汇总当天所有 Git 提交,生成 changelog,推送到团队频道。

成本:约 $0.08/天

5 个工作流加起来,月费约 $20-30。 加上日常零散对话,总费用稳定在 $80 左右。

一个月的账单明细

坦诚地晒一下我这一个月的花费:

阶段 时间 花费 状态
第 1 周 安装 + 瞎聊 $100 纯烧钱
第 2 周 换模型 + 调配置 $50 开始优化
第 3 周 记忆优化 + 砍 Skill $30 初见成效
第 4 周 工作流上线 $20 真正干活
总计 $200

从第 4 周开始,OpenClaw 终于进入了”正向循环”——花的钱能换来实际的产出。按现在的配置,预计后续月费稳定在 $60-80。

$80/月,换来一个 7×24 小时在线的 AI 员工。 不请假、不摸鱼、不需要社保。怎么算都值。

给新手的 5 条建议

如果你刚开始养龙虾,这 5 条建议能帮你少烧至少 100 美元:

1. 先别用 Claude。 用 DeepSeek 或 Qwen 的免费额度把 OpenClaw 跑通。确认你真的需要它之后,再考虑上付费模型。

2. 第一天就装记忆插件。 不要等到账单炸了再优化。QMD + 向量记忆是基本操作。

3. Skill 只装你今天就要用的。 不要”以后可能用得上”。用不上就是在浪费 Token。

4. 设置账单告警。 在 API 提供商后台设好每日/每月消费上限。血的教训。

5. 先自动化一个小任务。 不要一上来就想搞”全自动化办公”。先让 Agent 帮你做一件重复的小事——每天抓一次新闻、每周生成一次周报。跑稳了再加。

写在最后

回头看这 200 美元,前 100 美元是学费,后 100 美元是投资。

学费让我明白了一件事:OpenClaw 不是装好就能用的产品,是需要调教的基础设施。 就像买了一台服务器,你还得装系统、配网络、部署应用。它给你的是能力,不是现成的解决方案。

投资的 100 美元让我得到了一个真正能干活的 AI 员工——它每天帮我节省 2-3 小时的重复工作。按时薪算,一个月省下来的时间价值远超 80 美元。

有人说 Agent 时代还早。我觉得不早了。当你真的花时间把 OpenClaw 调教好的那一刻,你就知道——未来已经来了。


你在 OpenClaw 上花了多少钱?有没有找到好的省钱方法?你的 Agent 现在在帮你做什么?评论区聊聊你的养虾经验——踩过的坑,是最好的攻略。