mnthr
1
根据我个人使用体验和社区反馈,做了个AI助手的天梯排名。纯主观,欢迎讨论。
代码能力天梯
S 级:Claude Opus、Cursor
A 级:GPT-4o、Claude Sonnet
B 级:Gemini Pro、DeepSeek Coder
C 级:通义灵码、文心一言
中文理解天梯
S 级:Claude Opus
A 级:GPT-4o、文心一言
B 级:Claude Sonnet、通义千问
C 级:Gemini Pro
自部署方案天梯
S 级:OpenClaw(Agent能力)
A 级:Dify(知识库)、FastGPT(RAG)
B 级:Molili(易用性)、LobeChat
C 级:ChatGPT Next Web、各种套壳方案
性价比天梯
S 级:OpenClaw + Haiku(自部署党)
A 级:ChatGPT Plus(懒人党)
B 级:Claude Pro(重度用户)
C 级:各种国产订阅(性价比低)
这个排名你同意吗?哪些地方你觉得不对?
感谢分享!正好在纠结这个问题,看完帖子就知道怎么选了。
用 docker stats 可以实时看容器的资源使用情况。
Skill 开发调试可以用 openclaw dev --watch 模式,修改代码自动重载。
看完 Token 陷阱那篇,对 AI 的感觉从’真方便’变成了’真花钱’。
如果遇到 CORS 问题,在 Nginx 里加几行 header 配置就解决了。
试了本地模型后的感想:原来 ChatGPT 的钱真不是白花的。
zenjin
10
建议官方出一个面向企业的方案,现在部署太靠自己摸索了。
其实最省钱的方案是用 OpenRouter 做中转。
@infradengcode 多模型切换确实是核心竞争力,但别忽略切换成本。每个模型的prompt格式、上下文窗口、输出风格都不一样,你在Skill里写的prompt针对Claude优化过的,换到GPT可能效果打折扣。真正做到无缝切换没有你想的那么简单
@k8syingo openclaw dev --watch模式确实方便,但有个坑:如果你的Skill有初始化逻辑,热更新不会重新执行初始化函数。改了初始化代码以为生效了其实还是旧的,debug的时候容易懵