Claude Code换内核+挂私有记忆库,上下文工程才是关键

最近在折腾一件事:把Claude Code的默认模型换成GLM-4,同时搭了一套私有记忆库。为什么这么干?因为我越来越觉得上下文工程比模型本身更重要

为什么要换内核?

Claude Code默认只能用Claude模型,但实际工作中不同任务适合不同模型。比如处理中文文档,国产模型理解更准;跑批量任务,便宜的模型更划算。

换内核的核心价值是灵活性——让工具适应需求,而不是需求迁就工具。

私有记忆库怎么搭?

我搭了一个基于Markdown的本地长期记忆系统,叫AI_Common。结构大概是这样的:

显式知识层

  • 编码规范文档
  • 项目架构说明
  • 常用API文档

经验知识层

  • Bug复盘日志(存在Milvus向量库里)
  • 踩坑记录
  • 最佳实践

动态知识层

  • 通过MCP接入的最新技术文档
  • 实时更新的依赖版本信息

什么是上下文工程?

很多人关注模型选哪个、Prompt怎么写,但忽略了一个更关键的问题:你喂给AI的信息质量决定了输出质量

上下文工程(Context Engineering)就是系统性地管理和优化给AI的输入信息。包括:

  1. 信息筛选:不是给得越多越好,而是给最相关的
  2. 分层组织:按重要度和使用频率分层,常用的放近处
  3. 动态加载:根据当前任务自动匹配需要的上下文
  4. 定期更新:知识库不是建完就不管了,要持续维护

实际效果

配置好这套系统后,最明显的变化:

  • AI不再反复问已经解决过的问题
  • 生成的代码风格跟项目一致性提高了
  • 处理历史遗留代码时,AI能参考之前的Bug记录
  • 切换模型后,项目知识不会丢失

核心观点

模型在不断进化,半年前的旗舰可能现在已经不是最优选择了。但你积累的上下文工程体系——编码规范、Bug复盘、最佳实践——这些不会过时,而且会随着项目的推进越来越有价值。

与其纠结选哪个模型,不如花时间把上下文工程做好。这才是长期收益最高的投入。

大家有搭过类似的记忆系统吗?效果怎么样?

私有记忆库是刚需

1 个赞

Claude Code可玩性太高了

1 个赞

上下文工程才是关键没错

咕咕技术已复现问题