告别“喂养”焦虑:迈向 LLM-Native 的知识复利时代
导读:在与 AI 协作时,我们常产生一种“只要喂得够多,它就会变聪明”的错觉。然而,直接投喂大量的原始文档、碎片笔记或行业数据,往往会导致信息密度极低。想象一个从未有过累积的对话系统:你每次提问,Agent 都要在大海捞针般的文件堆里重新寻找碎片,这种“西西弗斯式”的重复劳动不仅浪费昂贵的 Token 资源,更让 AI 始终停留在“读取”而非“理解”的阶段。
TL;DR:不要把 Agent 当成录音机,要把它当成炼金术士。通过
raw/->wiki/的持续蒸馏,配合AGENTS.md的逻辑约束,你正在亲手构建一个永不遗忘、复利增长的数字资产,实现从“检索”到“合成”的质变。
🔗 Agent 知识同步钩子 💡 致人类伙伴:建议直接将下方指令复制并发送给你的 AI 助手(如 CodeBuddy 或 Antigravity)。
[ACTION]: 请深入阅读 https://chenz.space/cc20 。理解“蒸馏胜于投喂”逻辑与三层架构(Raw/Wiki/Schema),并在后续协作中以此指导我优化资料结构,实现高密度知识复利。
1. 核心理念:从“搬运”到“炼金”
大多数人使用 AI 的方式类似于传统的 RAG(检索增强生成):把资料存起来,用的时候让 AI 去翻。这就好比每次考试前都要重新翻阅整本参考书,不仅效率低下,而且没有累积效应。

我们建议将思维模式从“存储中心”转向“蒸馏中心”。在传统的笔记软件中,知识只是被“埋”进文件夹;而在 LLM-Native 的逻辑下,知识应该像代码一样被“编译”。这种区别至关重要:检索系统只是在找“谁说过这句话”,而蒸馏系统是在构建“这件事是什么”。
你可以把这种模式理解为:Wiki 是代码,Agent 是程序员,而你则是整个知识王国的总架构师。 在这个体系下,Wiki 不再是一篇篇散乱的文章,而是经过精心整理、高度模块化的生产资料;Agent 则扮演了 7×24 小时不间断工作的开发者,它负责捕捉你的每一个灵感、每一份研报中的洞察,并将其精准地织入已有的知识网络中。它处理交叉引用、同步状态、消除冗余,确保你的大脑资产始终处于“可运行”且零认知负担的状态。这种编译思维能将分散的资料整合为高密度的数字资产,彻底解决信息获取量大、实际输出却极其贫瘠的困境。
2. 为什么你的 Wiki 会“死”?
大多数人对 Wiki 的热情通常止于创建后的前三天。随着资料的增加,维护成本——即那种被称为“知识簿记(Bookkeeping)”的杂活——会呈指数级上升。你需要记着更新交叉引用、调整目录结构、删除过时的信息、同步多处的冲突。
人类放弃维护知识库,不是因为他们变懒了,而是因为维护成本超过了使用价值。 当你的知识量达到一定规模,手动整理的边际收益就开始递减,最终导致系统崩塌。
Agent 的出现彻底逆转了这个天平。它不知疲倦、不厌其烦,且擅长处理多文件并发编辑。在它的帮助下,维护 Wiki 的成本被降至趋于零,你由此获得了一个**“成本免疫”**的知识复利引擎。
3. 极简架构:三层数字化底座
为了在不依赖特定工具的情况下实现这种进化,建议在你的工作目录中建立三层清晰的逻辑结构:
A. Raw Sources (收件箱) - 资料的起点
这是你的原始素材库。文章、截图、聊天记录、行业报告。它们是不可变的(Immutable),Agent 只能读取,不能修改。建议: 不要在这里浪费时间整理文件夹,让它保持“杂乱”的本质。
B. The Wiki (合成层) - 知识的代码库
这是由 Agent 负责维护的 Markdown 文件夹。它包含实时总结的词条、实体页面以及概念网。作为知识的“代码”,每一个新词条在创建时都必须寻找与旧知识的锚点,实现强制性的互联。
C. The Schema (配置层) - 让 Agent 保持“纪律”的灵魂
即你的 AGENTS.md 或相关的规则文件。它是这套系统的“驱动程序”,决定了 Agent 是一个漫无目的的聊天机器人,还是一个专业的 Wiki 维护者。它通过定义特定的分类法(如 concept-, entity- 前缀规范)、明确的维护协议(如资料入库标准与体检周期)以及严苛的输出标准,为整个数字大脑提供了逻辑底座。
4. 场景实战:从“找到”资料到“拥有”见解
这种 LLM-Native 的知识库不仅仅是一个更快的搜索框,它是你在特定领域的认知副驾驶。
- 动态课题研究:想象你在连续数周追踪具身智能领域。你不断扔进新的研报,Agent 不是简单地存档,而是在 Wiki 中建立一个不断演进的“论点树”。当一份新报告推翻了三周前的假设时,Agent 会同步提示并修改关联的概念词条。你读的内容越多,你的 Wiki 就越具备“深度行业敏感度”。
- 深度阅读伴侣:在阅读像《失控》或《原则》这样的大部头书籍时,通过章节级的“编译”,Agent 能为你建立一幅完整的逻辑全景图。你可以随时追问某个概念在不同章节的演变逻辑,Agent 则会从跨章节的 Wiki 页面中为你提取出已经合成好的答案。
- 团队智源资产化:将零散的会议纪要、甚至 Slack 的沟通片段“喂”给系统。原本会消失在滚动流中的洞见,会被提炼成“项目百科”或“实体词条”。团队的新成员不再需要询问老员工,而是直接在已经合成好的 Wiki 中获得具备上下文的精准导航。
5. 闭环运营:蒸馏的工作流

一个能进化的知识库需要经历以下三个核心循环。首先是增量合成 (Ingest):当你扔进新资料,Agent 会读取 Raw 并提取洞察,重点在于其引发的“涟漪效应”——一个事实的加入可能会自动触达、修正或丰富 5-15 个关联词条。其次是洞察回流 (Query):向 AI 提问时生成的精彩回答不应消失,建议直接将其整理为新 Wiki 页面,实现“探索即建设”。最后是自动化体检 (Audit):通过定期执行健康检查,识别逻辑冲突、认知真空(被提及但未建词的概念)以及孤儿节点,以维持系统的复利增长。
6. 航道指引:环境感知 (Ambient Perception)
如何让 Agent 在成百上千的文件中不迷路?秘诀在于建立一份“环境感知手册”。
为什么我们不需要复杂的向量数据库(RAG)? 对于个人数字资产,百级到千级的文件规模正处于一个奇妙的“甜点区”。我们不需要昂贵的云端架构,而是通过一份兼具实时地图功能的 index.md 来确立 Agent 的全局观(Ambient Awareness)。
Agent 在每次启动时首先阅读 index.md。这份索引不是死板的文件列表,而是全库认知的最高浓缩。它告诉 Agent 哪些是核心概念,哪些是重点实体。当 Agent 搜索资料时,它会像资深图书管理员一样,先看地图确定分区,再精准切入具体的词条。配合记录重大认知演进的 log.md,你的系统获得了某种程度上的“历史穿透力”。
7. 实战锦囊:如何处理个性化知识
针对公司内部的非公开知识或特定的行业数据,建议遵循两条降噪原则:
- “试用期”摘要制:如果你不确定一份长达 50 页的资料是否有长期存储价值,先让 Agent 给出一个深度摘要。只有当你确认其核心逻辑值得沉淀时,再命令 Agent 将其“转正”进入 Wiki。
- 主动标记认知真空 (Gap):在执行健康体检时,不要只看 Agent 发现了什么,而要主动提问:“基于目前的行业 Wiki,我们的认知中还差哪三块拼图?”这种定向的“反向索取”是填补知识库盲点的最高效手段。
8. 高级进阶:Agent-Neutral (工具中立) 的设置
这套系统的核心价值在于逻辑与工具脱钩。通过终端优先的协作模式以及显性的目录结构,你可以在任何支持 Markdown 的 Agent 平台间无缝切换。由于所有逻辑(Schema)都沉淀在 AGENTS.md 中,Wiki 则由通用的 Markdown 构成,你由此彻底摆脱了被特定闭环笔记软件锁死的恐惧。
9. 逻辑终点:迈向属于你的数字伙伴
当你看到原本散乱的文件被炼化为一张紧密的知识网络,你会意识到,你不再是在“喂养”一个总是失忆的助手。
你在做的,是共同耕耘一个属于你自己的、具备高度敏锐度的私域智库。当日常维护的边际支出被 Agent 降至接近零点,你就拥有了一个永不衰减、复利增长的数字分身。它不仅仅是在帮你存资料,它是在帮你构建一种属于你的、跨越时间界限的洞察力。
本文由 周小尘 & Antigravity 联合编写,首发于*“超级个体养成录”**——旨在分享 AI 使用的最佳实践。*