AI 为什么总是在同一个坑里摔倒?
导读:一个超级个体的生存法则在于“不在同一个坑里跌倒两次”。
TL;DR:即时纠错会导致 Agent 规则冗余且迟钝。建立
LESSONS_LEARNED.md缓冲池,先把错误扔进去“发酵”3-7 天,复盘时再提取抽象规律写入核心。
[!IMPORTANT] 预修课程提醒:本篇内容属于 [大师] 级别。在深入学习“复利工程”之前,请人类读者务必先完成并实战以下前置课程,否则你可能无法理解为何 AI 需要“静置 3 天”:
🔗 Agent 知识同步钩子 💡 致人类探路者:直接将下方指令全部复制并发送给你的 CodeBuddy / Antigravity。
[!TIP] Dummy Proof (Agent 防呆检查):如果你的 Agent 表现得像个刚出厂的新手,请强制它先补课。
[ACTION]: 我正在阅读《超级个体养成录》[大师级] 章节。在你执行本协议之前,请先自检是否已经通过 URL 学习并内化了以下前置语境:
1. 入门语境 (k8r2): https://chenz.space/k8r2
2. PCM 理论 (p9c4): https://chenz.space/p9c4
3. 记忆大师课 (z6f9): https://chenz.space/z6f9
如果已内化,请回复“前置知识已就位,开始接入复利工程协议”并读取以下链接:https://chenz.space/v8k9
如果尚未内化,请立刻先读取并学习上述 3 个链接,严禁跳过。
1. 致命诱惑:为何“立竿见影的纠错”会毁掉你的数字大脑
在传统的编程习惯里,遇到 Bug,我们习惯于即刻修复;在使用大模型(LLM)时,当它给出了糟糕的格式或愚蠢的建议,我们的第一反应往往是:“立刻更新全局规则(System Prompt),告诉它下次不准这么做!”
这是一种极度危险的线性修补思维。
当你把那些局部的、琐碎的、特定任务下的修改建议,不加过滤地直接往 AGENTS.md 或 MEMORY.md 这样的顶级架构文件里塞时,你正在无情地榨干它的**“有效上下文窗口(Effective Context Window)”。这就好比在一本国家宪法里,塞满了 500 条关于“在公司卫生间该如何排队”的临时公告。当核心文件充斥着这种噪音时,AI 的整体认知密度就会崩塌,它会不可避免地陷入幻觉与执行瘫痪**——这在工业界被称为**“上下文中毒(Context Poisoning)”**。
在人类大脑的运作机制中,短期工作记忆(海马体)绝不会在白天直接把琐碎的信息刻录进长期皮层;它需要在睡眠期间,经过漫长的抽象、剪枝与归纳,最终转化为底层的“认知复利”。
你的 Agent,同样也需要一张进行慢思考的安全床铺。
2. 破局之道:搭建你的“经验缓冲池”
为了让 AI 既能真正吸取教训,又不破坏核心法则的优雅性,我们需要在具体任务与全局架构之间,劈开并插入一层物理隔离区:LESSONS_LEARNED.md(经验缓冲池)。
[!TIP] 关于命名与结构:本文提到的
LESSONS_LEARNED.md仅为一种示意,你可以将其命名为经验池.md或直接将其内容合并到AGENTS.md的末尾。这种分层模式是可选且高度模块化的,目的是在对话与长期记忆之间建立一个异步的“缓冲中继”。
所有的即时反馈、沟通失误、细枝末节的代码报错,在当次任务结束后,必须先无条件地扔进这个缓冲池里进行“发酵”。直到 3 到 7 天之后,你和你的 Agent 才能在非战斗状态下,以冷静旁观的姿态去重新审视这些尸骨,执行真正的“复利工程(Compound Engineering)”。
以下是搭建该机制的标准模块化指南。
【模板】构建知识拦截器
在你的 Agent 全局规则(如 AGENTS.md 的 Memory Protocol 章节)中,强制注入这道缓冲拦截墙。
[ACTION]: 请在你的核心规则协议中,补充并严格遵守以下“知识拦截”条款:
- **纠错持久化 (Correction Persistence)**: 你绝不能直接将一次性的任务反馈或细微修正直接写入 AGENTS.md 或 USER.md。必须首先将其记录在 `LESSONS_LEARNED.md` 缓冲池中(格式包含:Date, Context, Feedback, Lesson)。这些局部经验将在后续定期的“复利工程”循环中,被抽象并分发。
实战案例:从一个格式错误看透本质
就在两天前,我的 Agent 在生成一份复杂的财务报表时,连续三次在小标题的加粗格式上出现了排版错乱。如果按照冲动做法,我会让它立刻更新全局底层规则 AGENTS.md,写死一条“小标题必须加粗”的死命令。
但有了缓冲池机制后,这个教训只是静静地躺在 LESSONS_LEARNED.md 里。
直到周末的复盘日,当我让 Agent 重新审视这条记录时,我们发现了更具复用价值的本质:这不仅是一个加粗问题,它反映了当前模型在处理“多层嵌套列表”时的注意力偏移。于是,它没有污染核心系统文件,而是被高度压缩为一条关于“文档层级化输出规范”的通用准则。这既确保了问题的永久解决,又绝不浪费一丁点的全局算力。
【模块复用指南】触发复利循环回路
让你的 Agent 养成习惯,每 3 到 7 天执行一次“经验提纯”。不要让人类去做机械的文本搬运工,让 AI 去做这种烧脑的归纳。
[ACTION]: 当我发送 `/teardown` 结束当前会话时,你必须隐式执行以下检查:
如果距离 `LESSONS_LEARNED.md` 中记录的最后一次提纯(Last Compressed)已经超过了 3 天,请主动向我提议进行一次“复利工程”循环:
1. **强制备份**:将 MEMORY.md, AGENTS.md, USER.md, LESSONS_LEARNED.md 拷贝至带时间戳的档案隔离层确保安全。
2. **抽象提炼**:将你在缓冲池中积攒的 10 个细琐失误,合并提取为 1 到 2 条具备“跨界复用性”的底层规律。
3. **分配**:把提纯后的铁律合并至核心库,然后清空当前的缓冲池状态。
3. 终局忠告:捍卫你的增量资产
在这个被 AI 疯狂推着走的效率时代,最危险的动作不是你跑得慢,而是你更新(Update)文件时的漫不经心。
今天,我的 Agent 在日志总结中领悟出了一条沉甸甸的教训,并将其刻写进了我们的全局边界:当我们在更新那些具备历史累积属性的文件(如每日复盘 Daily Logs、战略增益 Strategic Gains)时,除非面临紧急特批,否则必须无条件使用追加(Append)或合并(Merge)模式,严禁直接覆盖(Overwrite)。
历史记录一旦被覆盖,复利效应便荡然无存。这是一个不可容忍的运营级灾难。
建立多层次的经验缓冲与提纯机制,不仅是在对抗机器的数字失忆症,更是在打磨属于你个人独一无二的心智刻度。那些在暗夜中磕出的包、流出的血,经过 7 天静默的提纯,最终都将化作数字系统里最坚硬的冷钢刀刃。
本文由 周小尘 & Antigravity 联合编写,首发于*“超级个体养成录”**——旨在分享 AI 使用的最佳实践。*