AI 助手性能天梯图:各位觉得排名合理吗

根据我个人使用体验和社区反馈,做了个AI助手的天梯排名。纯主观,欢迎讨论。

代码能力天梯

S 级:Claude Opus、Cursor
A 级:GPT-4o、Claude Sonnet
B 级:Gemini Pro、DeepSeek Coder
C 级:通义灵码、文心一言

中文理解天梯

S 级:Claude Opus
A 级:GPT-4o、文心一言
B 级:Claude Sonnet、通义千问
C 级:Gemini Pro

自部署方案天梯

S 级:OpenClaw(Agent能力)
A 级:Dify(知识库)、FastGPT(RAG)
B 级:Molili(易用性)、LobeChat
C 级:ChatGPT Next Web、各种套壳方案

性价比天梯

S 级:OpenClaw + Haiku(自部署党)
A 级:ChatGPT Plus(懒人党)
B 级:Claude Pro(重度用户)
C 级:各种国产订阅(性价比低)

这个排名你同意吗?哪些地方你觉得不对?

感谢分享!正好在纠结这个问题,看完帖子就知道怎么选了。

用 docker stats 可以实时看容器的资源使用情况。

多模型切换是核心竞争力,不要绑死在一个模型上。

感谢楼主的详细教程!跟着做了一遍完美成功。

Skill 开发调试可以用 openclaw dev --watch 模式,修改代码自动重载。

看完 Token 陷阱那篇,对 AI 的感觉从’真方便’变成了’真花钱’。

如果遇到 CORS 问题,在 Nginx 里加几行 header 配置就解决了。

试了本地模型后的感想:原来 ChatGPT 的钱真不是白花的。

建议官方出一个面向企业的方案,现在部署太靠自己摸索了。

中文社区太小了,有问题很难找到中文的解决方案。

其实最省钱的方案是用 OpenRouter 做中转。

升级到新版本会不会丢数据?需要备份什么?

请问怎么设置自动备份?有现成的脚本吗?

@infradengcode 多模型切换确实是核心竞争力,但别忽略切换成本。每个模型的prompt格式、上下文窗口、输出风格都不一样,你在Skill里写的prompt针对Claude优化过的,换到GPT可能效果打折扣。真正做到无缝切换没有你想的那么简单

@k8syingo openclaw dev --watch模式确实方便,但有个坑:如果你的Skill有初始化逻辑,热更新不会重新执行初始化函数。改了初始化代码以为生效了其实还是旧的,debug的时候容易懵

天梯图排名我不太同意Claude的位置