说个可能不受欢迎的观点:龙虾对我来说是退步。
我是开发者,用龙虾之前一直用 Claude Code 写代码、处理文件、做自动化。最近龙虾刷屏,装了 OpenClaw 认真用了两周,最后还是回来了。
说说原因。
龙虾的问题:任务越复杂越容易出错
OpenClaw 处理简单任务确实顺滑——「帮我整理这个文件夹」「帮我写一份报告」,这类有明确边界的任务它做得很好。
但一旦任务复杂起来,比如「帮我分析这批数据,找出异常,生成报告,发给指定邮箱」——多步骤、多工具调用——它开始出现不可预测的行为。中途卡住、步骤搞错顺序、工具调用失败不报错就跳过。
而且最糟糕的是:它出错了你不一定知道,因为它还是会给你一个「完成」的反馈。
Claude Code 给我的感觉:我在驾驶,它在辅助
用 Claude Code,我知道每一步在干什么,出了问题我能定位。它更像一个高效的结对编程伙伴,而不是一个「你说完它自己跑」的黑盒。
对于需要准确性的工作,我宁愿多花 20% 的时间在人工确认上,也不想事后去 debug 龙虾做了一半的烂摊子。
龙虾适合什么人
我觉得龙虾真正的受益者是非技术用户——那些以前完全不会用 AI 工具的人,龙虾降低了门槛,让他们能跑起来一些自动化流程,这是真实的价值。
但对于已经有能力用好 Claude Code 或者 Cursor 的开发者来说,龙虾不一定是升级,可能是降级。
不知道有没有人跟我感受一样?还是我用法不对?
4 个赞
开发者 +1,有同感。
我的经历更极端一点——我是从 Cursor 切到龙虾再切回 Cursor 的。
Cursor 在代码场景里的体验太好了:直接在编辑器里对话、Tab 自动补全、能读整个项目上下文。这种「贴身」的编程辅助体验,龙虾给不了。
龙虾的 Agent 模式更适合「宏观任务」——帮你跑完一整个流程,你不用盯着。但正因为不用盯着,你也不知道中间发生了什么。对于代码这种需要逐行确认的工作,这反而是劣势。
不过我现在是两个都用:写代码用 Cursor,跑自动化流程用 OpenClaw。比如我写完一个数据处理脚本,用 Cursor 写代码,写完之后用 OpenClaw 定时跑。各司其职。
Claude Code 我也试过,体验跟楼主说的一样,更像结对编程。如果你习惯命令行工作流,Claude Code 确实比 Cursor 更顺手。
1 个赞
觉得楼主的对比不太公平。
Claude Code 和 OpenClaw 根本不是同一类工具。一个是「AI 辅助编程」,一个是「AI Agent 平台」。这就像拿菜刀和料理机比——菜刀切得精准,但你不能指望每个人都会用菜刀;料理机按个按钮就行,但精细操控肯定不如菜刀。
龙虾的设计目标从来不是取代开发者工具链。它的价值是让 非开发者 也能用 AI 做自动化。这两个目标用户群体重合度其实很低。
你作为开发者觉得龙虾是退步,跟非技术用户觉得龙虾是救星,这两个判断可以同时成立。不矛盾。
1 个赞
非技术用户来说一句:龙虾对我来说就是好用啊。
我是做市场运营的,之前用 ChatGPT 网页版写文案、分析数据,但每次都得手动把数据粘贴进去,再手动把结果拷出来。
装了 EasyClaw 之后(OpenClaw 我真装不了),现在每天的日报它自动帮我从各个后台拉数据、生成图表、发到飞书群里。这以前得花我一个小时的事情,现在 5 分钟。
楼主说的那些问题我没遇到过,可能是因为我的任务没那么复杂。但对我来说,龙虾的价值是实实在在的——它把我从重复劳动里解放了出来。
Claude Code 我看了一下需要用命令行,直接劝退。不是每个人都想学编程的。
2 个赞
其实最好的方案是两者配合用,我现在就是这么干的。
我的工作流:
编码阶段 → Claude Code
- 写代码、调试、code review
- 需要精准控制每一步
- 人在 loop 里
自动化阶段 → OpenClaw
- 定时任务、批处理、数据流水线
- 配好之后不用盯着
- 人不在 loop 里
沟通阶段 → Molili(当贝的中文版)
- 中文场景的文案撰写、邮件回复、会议纪要
- Molili 的中文 prompt 优化做得好,同样的任务 Token 消耗比原版 OpenClaw 少不少
- 而且它的飞书/钉钉集成比原版丝滑
三个工具各占一个生态位,没有谁替代谁。
楼主说「龙虾是退步」,我觉得更准确的说法是「把龙虾当编程工具用是退步」。龙虾本来就不是编程工具,硬要当编程工具用,体验当然不好。
1 个赞
「它出错了你不一定知道」这句太真实了。龙虾最大的坑就是给你一个自信满满的「已完成」,然后你发现结果是错的
1 个赞
说个实际案例。
上周用 OpenClaw 做了个任务:从 Notion 里提取一个月的项目进度数据,按团队分组统计,生成 Excel 报告发到企微群。
结果龙虾的执行过程是这样的:
- Notion 数据提取
(正常)
- 按团队分组
(正常)
- 生成 Excel
(有两个团队的数据被重复计入了,导致总数对不上)
- 发送企微
(把错误的报告发出去了)
它每一步都给了「成功」的反馈,包括第 3 步。我是群里其他同事指出数据不对我才发现的。
后来排查发现是 Notion API 返回的数据有分页,龙虾在第二次请求时把第一页的部分数据又拉了一遍。这种 bug 如果是自己写代码,一定能在测试阶段发现。但交给 Agent,你根本没机会看到中间过程。
所以楼主说得对:需要准确性的工作,Claude Code 那种人在 loop 里的模式更靠谱。 龙虾适合容错率高的日常任务。
2 个赞
谢谢大家的讨论,看了所有回复之后我调整一下自己的观点。
确实如几位朋友说的,Claude Code 和龙虾不是同一类工具,拿来直接比较不太公平。我最初的「退步」感受,本质上是因为我把开发者的需求投射到了一个面向大众的工具上。
楼上那位做市场运营的朋友说得好——对他来说龙虾是实实在在的效率提升。这个价值不应该被开发者视角否定。
我现在的结论:
- 编码 → Claude Code / Cursor
- 自动化 → OpenClaw / 封装版
- 两者配合 > 只用其中一个
不过关于龙虾「静默失败」的问题,这确实是产品设计上需要改进的地方。不管面向谁,出错了不报错都是 bug。
2 个赞