AutoClaw默认接的模型不太满意想换一个。请问怎么切换底层模型?支持哪些模型?
2 个赞
AutoClaw换模型很简单,改config.yaml里的模型配置就行:
model:
provider: "deepseek" # 或 openai / anthropic / moonshot 等
api_base: "https://api.deepseek.com/v1"
api_key: "你的Key"
model_name: "deepseek-chat"
支持的主流模型:
- DeepSeek(V3/R1)——便宜好用,推荐
- OpenAI(GPT-4o等)——综合强但贵
- Claude(需要能访问)——长文本能力强
- Kimi(moonshot)——128K长上下文
- 千问(通义)——国产,价格中等
- 本地模型(ollama)——免费但能力弱
改完重启AutoClaw就生效了。
省钱建议: 可以配两个模型——简单任务走DeepSeek,复杂任务走GPT-4o/Claude。在任务配置里指定用哪个模型。
4 个赞
接ollama本地模型的配置:
model:
provider: "ollama"
api_base: "http://localhost:11434"
model_name: "deepseek-r1:7b"
本地模型好处是不花API钱而且数据不出本地。坏处是能力差不少,复杂任务搞不定。适合简单的文本处理和测试。
4 个赞
我从GPT-4o换到DeepSeek以后月成本从200多降到20块,日常使用体验差距不大。强烈推荐先试DeepSeek,不够用了再上贵的模型。
3 个赞
换模型之前记得先清缓存,不然配置文件会冲突报错
我就是没清缓存换模型结果聊天记录全没了,血的教训
每次换模型都要重新测一遍效果,挺麻烦
换模型之前记得先清缓存,不然配置文件会冲突报错
同意,我从GPT换到Claude差别很大