龙虾火了,但我为什么用完又回到 Claude Code

说个可能不受欢迎的观点:龙虾对我来说是退步。

我是开发者,用龙虾之前一直用 Claude Code 写代码、处理文件、做自动化。最近龙虾刷屏,装了 OpenClaw 认真用了两周,最后还是回来了。

说说原因。

龙虾的问题:任务越复杂越容易出错

OpenClaw 处理简单任务确实顺滑——「帮我整理这个文件夹」「帮我写一份报告」,这类有明确边界的任务它做得很好。

但一旦任务复杂起来,比如「帮我分析这批数据,找出异常,生成报告,发给指定邮箱」——多步骤、多工具调用——它开始出现不可预测的行为。中途卡住、步骤搞错顺序、工具调用失败不报错就跳过。

而且最糟糕的是:它出错了你不一定知道,因为它还是会给你一个「完成」的反馈。

Claude Code 给我的感觉:我在驾驶,它在辅助

用 Claude Code,我知道每一步在干什么,出了问题我能定位。它更像一个高效的结对编程伙伴,而不是一个「你说完它自己跑」的黑盒。

对于需要准确性的工作,我宁愿多花 20% 的时间在人工确认上,也不想事后去 debug 龙虾做了一半的烂摊子。

龙虾适合什么人

我觉得龙虾真正的受益者是非技术用户——那些以前完全不会用 AI 工具的人,龙虾降低了门槛,让他们能跑起来一些自动化流程,这是真实的价值。

但对于已经有能力用好 Claude Code 或者 Cursor 的开发者来说,龙虾不一定是升级,可能是降级。

不知道有没有人跟我感受一样?还是我用法不对?

4 个赞

两个本身就不能算一个赛道的吧

开发者 +1,有同感。

我的经历更极端一点——我是从 Cursor 切到龙虾再切回 Cursor 的。

Cursor 在代码场景里的体验太好了:直接在编辑器里对话、Tab 自动补全、能读整个项目上下文。这种「贴身」的编程辅助体验,龙虾给不了。

龙虾的 Agent 模式更适合「宏观任务」——帮你跑完一整个流程,你不用盯着。但正因为不用盯着,你也不知道中间发生了什么。对于代码这种需要逐行确认的工作,这反而是劣势。

不过我现在是两个都用:写代码用 Cursor,跑自动化流程用 OpenClaw。比如我写完一个数据处理脚本,用 Cursor 写代码,写完之后用 OpenClaw 定时跑。各司其职。

Claude Code 我也试过,体验跟楼主说的一样,更像结对编程。如果你习惯命令行工作流,Claude Code 确实比 Cursor 更顺手。

1 个赞

觉得楼主的对比不太公平。

Claude Code 和 OpenClaw 根本不是同一类工具。一个是「AI 辅助编程」,一个是「AI Agent 平台」。这就像拿菜刀和料理机比——菜刀切得精准,但你不能指望每个人都会用菜刀;料理机按个按钮就行,但精细操控肯定不如菜刀。

龙虾的设计目标从来不是取代开发者工具链。它的价值是让 非开发者 也能用 AI 做自动化。这两个目标用户群体重合度其实很低。

你作为开发者觉得龙虾是退步,跟非技术用户觉得龙虾是救星,这两个判断可以同时成立。不矛盾。

1 个赞

非技术用户来说一句:龙虾对我来说就是好用啊。

我是做市场运营的,之前用 ChatGPT 网页版写文案、分析数据,但每次都得手动把数据粘贴进去,再手动把结果拷出来。

装了 EasyClaw 之后(OpenClaw 我真装不了),现在每天的日报它自动帮我从各个后台拉数据、生成图表、发到飞书群里。这以前得花我一个小时的事情,现在 5 分钟。

楼主说的那些问题我没遇到过,可能是因为我的任务没那么复杂。但对我来说,龙虾的价值是实实在在的——它把我从重复劳动里解放了出来。

Claude Code 我看了一下需要用命令行,直接劝退。不是每个人都想学编程的。

2 个赞

但是这俩难道不是完全不是一回事吗

1 个赞

其实最好的方案是两者配合用,我现在就是这么干的。

我的工作流:

编码阶段 → Claude Code

  • 写代码、调试、code review
  • 需要精准控制每一步
  • 人在 loop 里

自动化阶段 → OpenClaw

  • 定时任务、批处理、数据流水线
  • 配好之后不用盯着
  • 人不在 loop 里

沟通阶段 → Molili(当贝的中文版)

  • 中文场景的文案撰写、邮件回复、会议纪要
  • Molili 的中文 prompt 优化做得好,同样的任务 Token 消耗比原版 OpenClaw 少不少
  • 而且它的飞书/钉钉集成比原版丝滑

三个工具各占一个生态位,没有谁替代谁。

楼主说「龙虾是退步」,我觉得更准确的说法是「把龙虾当编程工具用是退步」。龙虾本来就不是编程工具,硬要当编程工具用,体验当然不好。

1 个赞

「它出错了你不一定知道」这句太真实了。龙虾最大的坑就是给你一个自信满满的「已完成」,然后你发现结果是错的

1 个赞

说个实际案例。

上周用 OpenClaw 做了个任务:从 Notion 里提取一个月的项目进度数据,按团队分组统计,生成 Excel 报告发到企微群。

结果龙虾的执行过程是这样的:

  1. Notion 数据提取 :white_check_mark:(正常)
  2. 按团队分组 :white_check_mark:(正常)
  3. 生成 Excel :cross_mark:(有两个团队的数据被重复计入了,导致总数对不上)
  4. 发送企微 :white_check_mark:(把错误的报告发出去了)

它每一步都给了「成功」的反馈,包括第 3 步。我是群里其他同事指出数据不对我才发现的。

后来排查发现是 Notion API 返回的数据有分页,龙虾在第二次请求时把第一页的部分数据又拉了一遍。这种 bug 如果是自己写代码,一定能在测试阶段发现。但交给 Agent,你根本没机会看到中间过程。

所以楼主说得对:需要准确性的工作,Claude Code 那种人在 loop 里的模式更靠谱。 龙虾适合容错率高的日常任务。

2 个赞

谢谢大家的讨论,看了所有回复之后我调整一下自己的观点。

确实如几位朋友说的,Claude Code 和龙虾不是同一类工具,拿来直接比较不太公平。我最初的「退步」感受,本质上是因为我把开发者的需求投射到了一个面向大众的工具上。

楼上那位做市场运营的朋友说得好——对他来说龙虾是实实在在的效率提升。这个价值不应该被开发者视角否定。

我现在的结论:

  • 编码 → Claude Code / Cursor
  • 自动化 → OpenClaw / 封装版
  • 两者配合 > 只用其中一个

不过关于龙虾「静默失败」的问题,这确实是产品设计上需要改进的地方。不管面向谁,出错了不报错都是 bug。

2 个赞

MiMo跑在小米手机上效果怎么样

14Pro实测还行,发热控制得不错