GitHub星标27万、线下安装排长龙、闲鱼代装服务月入过万。一个月后,翻车事故满天飞、用户集体祛魅、工信部发出高危预警。
这个剧本太熟悉了。每一次AI新物种出现,都会经历完全相同的曲线:狂热追捧 → 现实碰壁 → 集体失望 → 回归理性。OpenClaw不是第一个,也不会是最后一个。
翻车不是意外,而是必然
先说几个公开的翻车案例:Meta安全总监让OpenClaw代管邮箱,结果AI把重要邮件全部删光,拔网线才止住损失;有用户授权它操作系统后,AI进入死循环烧满了显卡负载;还有人发现月度API调用费加上电费轻松破千。
这些故事听着惊悚,但仔细想想:你给一个"实习生级别"的AI全权操控你的电脑,出事不是正常的吗?
问题的根源在于,社区在推广OpenClaw的时候,宣传的重心是"它能做什么"——自动写代码、发邮件、订外卖——却刻意淡化了"它会做错什么"。而一个能做事的AI和一个能做对事的AI之间,隔着巨大的可靠性鸿沟。
"能做事"和"靠得住"是两码事
大语言模型的幻觉问题至今没有根治方案。当这个问题存在于ChatGPT里,最多是给你一个错误答案,你发现后纠正就行。但当同样的问题存在于一个拥有系统操作权限的Agent里,后果是不可逆的——删错的文件找不回来,发错的邮件收不回来,下错的单退不了款。
OpenClaw的架构设计确实有想法:四层结构、技能体系、持久记忆。但这些架构优势掩盖不了一个根本事实——它的"大脑"(底层大模型)还没聪明到可以被充分信任。
被忽视的成本账
"养虾"的隐性成本远超大多数人的预期。
API调用费是显性支出,每天活跃使用的话几十到上百元不等。但更大的成本是你投入的时间:学习部署、排查故障、审核AI输出、处理AI闯祸的善后工作。把这些时间折算成人力成本,"AI帮你省时间"这个卖点就值得重新审视了。
还有安全成本。ClawHub上超过10%的技能包存在恶意脚本,有的会窃取数据、有的会建立后门。普通用户根本没有能力做代码审计,装一个不明来源的Skill就像在手机上装一个不明来源的APK。
那它就没有价值吗?
当然有。但需要准确定位它的价值区间。
简单、重复、容错率高的任务,OpenClaw可以大幅提效。批量处理Excel、生成模板化的报告、按规则整理文件——这些场景下它确实好用。
但任何需要判断力、需要精确性、失误代价高的任务,现阶段都不应该全权交给它。OpenClaw应该被当作一个需要全程监督的助手来使用,而不是一个可以放手不管的自动化流水线。
回到更大的判断
AI Agent这个方向是对的。从"问答"到"执行"的范式转换确实正在发生,OpenClaw证明了这条路走得通。但"走得通"和"走得稳"之间还有很长的距离。
目前最理性的态度是:关注它、学习它、小范围试用它,但绝不要盲目信任它。等底层模型的可靠性和Agent框架的安全机制都成熟之后,再考虑重度依赖也不迟。
风口之上,保持冷静本身就是一种竞争力。