最近在折腾一件事:把Claude Code的默认模型换成GLM-4,同时搭了一套私有记忆库。为什么这么干?因为我越来越觉得上下文工程比模型本身更重要。
为什么要换内核?
Claude Code默认只能用Claude模型,但实际工作中不同任务适合不同模型。比如处理中文文档,国产模型理解更准;跑批量任务,便宜的模型更划算。
换内核的核心价值是灵活性——让工具适应需求,而不是需求迁就工具。
私有记忆库怎么搭?
我搭了一个基于Markdown的本地长期记忆系统,叫AI_Common。结构大概是这样的:
显式知识层:
- 编码规范文档
- 项目架构说明
- 常用API文档
经验知识层:
- Bug复盘日志(存在Milvus向量库里)
- 踩坑记录
- 最佳实践
动态知识层:
- 通过MCP接入的最新技术文档
- 实时更新的依赖版本信息
什么是上下文工程?
很多人关注模型选哪个、Prompt怎么写,但忽略了一个更关键的问题:你喂给AI的信息质量决定了输出质量。
上下文工程(Context Engineering)就是系统性地管理和优化给AI的输入信息。包括:
- 信息筛选:不是给得越多越好,而是给最相关的
- 分层组织:按重要度和使用频率分层,常用的放近处
- 动态加载:根据当前任务自动匹配需要的上下文
- 定期更新:知识库不是建完就不管了,要持续维护
实际效果
配置好这套系统后,最明显的变化:
- AI不再反复问已经解决过的问题
- 生成的代码风格跟项目一致性提高了
- 处理历史遗留代码时,AI能参考之前的Bug记录
- 切换模型后,项目知识不会丢失
核心观点
模型在不断进化,半年前的旗舰可能现在已经不是最优选择了。但你积累的上下文工程体系——编码规范、Bug复盘、最佳实践——这些不会过时,而且会随着项目的推进越来越有价值。
与其纠结选哪个模型,不如花时间把上下文工程做好。这才是长期收益最高的投入。
大家有搭过类似的记忆系统吗?效果怎么样?