Karpathy的LLM知识库:5分钟搭建你的AI第二大脑
Andrej Karpathy's LLM Wiki Method: Build Your AI Second Brain in 5 Minutes
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
Andrej Karpathy(前 Tesla AI 总监、OpenAI 联合创始人)最近在 X 上分享了一个方法:用 Claude Code + 普通 Markdown 文件构建个人知识库——不需要向量数据库、不需要 Embedding 模型、不需要任何复杂基础设施。帖子一发出就在 X 上爆了。
Nick Saraev 是一位专注 AI 自动化的 YouTube 创作者,他不仅复现了 Karpathy 的方法,还展示了自己用它搭建的两套实战系统:一套管理 36 个 YouTube 视频的知识图谱,一套作为个人"第二大脑"接入他的 AI 执行助理。
核心洞察:知识管理不需要复杂——一个文件夹 + Markdown 文件 + Claude Code 就够了。知识像银行存款一样复利增长,而不是每次对话后消失。
一、为什么这个方法炸了:普通 AI 对话的致命问题
普通 AI 聊天是"短暂的"(ephemeral)——对话结束,知识就消失了。
你可能和 Claude 讨论过 50 个话题,但下次开新对话时,它什么都不记得。你每次都要重新解释背景、重新上传文件、重新建立上下文。
Karpathy 的方法解决的就是这个问题:让知识像银行存款一样复利增长。每次你喂入新资料,它不是覆盖旧知识,而是和已有知识建立关联、补充空白、形成网络。
"Normal AI chats are ephemeral — the knowledge disappears after the conversation. But this method makes knowledge compound like interest in a bank." (普通 AI 聊天是短暂的——知识在对话后就消失了。但这个方法让知识像银行利息一样复利增长。)
X 上有人把 383 个散落文件和 100 多份会议记录整理成一个 Wiki 后,查询时的 token 消耗降低了 95%。
二、架构极简:就是一个文件夹
整个系统的架构简单到让人不敢相信:
我的知识库/
├── raw/ ← 你扔原始材料的地方(文章、PDF、会议记录、视频字幕……)
├── wiki/ ← Claude Code 自动生成的知识页面
│ ├── index.md ← 自动维护的总索引(所有工具、概念、人物、来源的目录)
│ └── log.md ← 操作历史(每次更新的记录)
└── CLAUDE.md ← 告诉 Claude Code 这个项目怎么运作的指令文件
就这些。没有向量数据库、没有 Embedding 模型、没有 chunking 管线。 就是普通的文件夹和 Markdown 文件。
Karpathy 自己说:"I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files."(我以为需要用复杂的 RAG,但 LLM 在自动维护索引文件方面做得很好。)
三、工作原理:喂入 → 拆解 → 关联 → 查询
第一步:喂入原始材料(Data Ingest)
把任何你想记住的东西丢进 raw/ 文件夹:
- 网页文章(可以用 Obsidian Web Clipper 一键保存)
- PDF 文档
- YouTube 视频字幕
- 会议记录
- 任何文本
第二步:让 Claude Code 消化(Processing)
告诉 Claude Code:"我刚往 raw 文件夹扔了一篇叫 XX 的文章,请帮我消化。"
Claude Code 会:
- 通读全文,理解内容
- 拆成多个 Wiki 页面——不是简单地复制一份,而是按概念、人物、组织、工具等分别建页
- 建立页面间的超链接关系——比如一篇关于 AI 安全的文章会自动链接到"OpenAI"页面、"对齐研究"页面等
- 更新 index.md——把新内容加入总索引
- 记录到 log.md——留下操作历史
Nick 演示了用一篇 "AI 2027" 长文做消化:Claude Code 花了约 10 分钟,从一篇文章中生成了 23 个 Wiki 页面——6 个人物页、5 个组织页、1 个 AI 系统页、多个概念页和分析页。
第三步:查询和探索(Q&A)
一旦知识库建好,你可以:
- 直接提问:"关于 XX 话题,我的知识库里有什么?"
- 发现关联:在 Obsidian 的图谱视图中看到概念之间的连接
- 识别空白:Claude 会告诉你"这个领域你的资料不够,建议补充 XX"
四、Nick 的两套实战系统
系统一:YouTube 知识图谱
Nick 把自己最近 36 个 YouTube 视频的字幕一次性灌入系统。
效果: Obsidian 图谱中出现了清晰的知识网络——哪些工具被反复提到(Claude Code、Perplexity、VS Code)、哪些技术框架相互关联(WAT Framework、Permission Mode)、哪些概念是核心节点(MCP Server、RAG、Vibe Coding)。
实际用途:
- 快速查询"我在哪些视频里讲过这个工具"
- 发现自己内容中的知识空白
- 给其他项目提供上下文(比如让另一个 AI Agent 通过读取这个 Wiki 来了解他的频道内容)
系统二:个人第二大脑 → 接入 AI 执行助理
更有意思的是第二个系统——Nick 的私人"第二大脑",里面存的是:
- 个人生活事项
- 不同业务线的信息
- 员工信息
- Q2 季度目标
- 会议记录
关键操作: 他把这个 Wiki 接入了自己的 AI 执行助理(一个叫 Herk 2 的项目)。在执行助理的 CLAUDE.md 里写着:
当你需要了解关于我和我的业务的信息时,
去读 herkbrain 文件夹的 wiki,
先读 hot cache → 再读 index → 再搜索具体页面
Hot Cache 机制: 一个约 500 字的缓存文件,存放最近一次交互的要点——这样执行助理不需要每次都遍历整个 Wiki,大多数时候读 Hot Cache 就够了,大幅节省 token。
五、维护:定期"体检"(Linting)
Karpathy 建议定期对 Wiki 做"健康检查":
- 找出不一致的数据
- 用网络搜索补充缺失信息
- 发现有趣的新关联
- 推荐可能需要添加的新文章
Nick 的做法是:每次发布新 YouTube 视频后,就说一句"帮我把新视频消化进 Wiki",系统就自动更新。
六、LLM Wiki vs 传统 RAG:什么时候用哪个?
Nick 让 Claude Code 做了一个对比:
| 维度 | LLM Wiki(Karpathy 方法) | 传统语义搜索 RAG |
|---|---|---|
| 检索方式 | 读索引 + 跟随链接 | 向量相似度搜索 |
| 理解深度 | 深层关系理解(因为有超链接) | 表面相似度匹配 |
| 基础设施 | 纯 Markdown 文件 | Embedding 模型 + 向量数据库 + Chunking 管线 |
| 成本 | 基本免费(只付 token) | 持续的计算和存储成本 |
| 维护 | 跑一次 lint + 加新文章 | 数据变更时需要重新 embed |
| 适用规模 | 数百页 → 很好 | 数百万文档 → 必须 |
结论: 如果你的知识库在几百页以内(大多数个人和小团队的场景),Wiki 方法更简单、更便宜、关系理解更深。只有当规模达到百万文档级别时,才需要传统 RAG。
设置步骤(5 分钟)
- 下载 Obsidian(免费,obsidian.md)→ 创建一个新 Vault
- 打开 Claude Code → 导航到这个 Vault 文件夹
- 粘贴 Karpathy 的 prompt(他的 GitHub Gist 里有) + 补充一句"你现在是我的 LLM Wiki Agent,帮我实现这个系统"
- Claude Code 自动创建:raw/、wiki/、index.md、log.md、CLAUDE.md
- 开始喂入第一篇文章——用 Obsidian Web Clipper 保存到 raw/ → 告诉 Claude Code "请消化"
就这样。
金句收录
"Normal AI chats are ephemeral. But this method makes knowledge compound like interest in a bank." (普通 AI 聊天是短暂的。但这个方法让知识像银行利息一样复利增长。)
"I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files." — Andrej Karpathy (我以为需要用复杂的 RAG,但 LLM 在自动维护索引文件方面做得很好。)
"You don't need a fancy vector database, embeddings, or complex infrastructure. It's literally just a folder with markdown files." (你不需要花哨的向量数据库、embedding 或复杂基础设施。就是一个存 Markdown 文件的文件夹。)
"One user turned 383 scattered files into a compact wiki and dropped token usage by 95%." (一个用户把 383 个散落文件整理成 Wiki 后,token 消耗降低了 95%。)
"This is how 2026 AI agentic software will be made — you just give it a high-level idea and it goes and builds it out." (这就是 2026 年 AI 智能体软件的构建方式——你只需要给它一个高层想法,它就去实现。)
时间线索引
| 时间 | 内容 |
|---|---|
| [00:00] | 展示成果:36 个 YouTube 视频的知识图谱 |
| [01:36] | 介绍 Karpathy 的 X 帖子和核心思想 |
| [03:11] | 为什么这是大事:知识复利 vs 对话遗忘 |
| [03:34] | 架构解析:raw/ + wiki/ + index + log |
| [05:57] | 动手搭建:下载 Obsidian + 创建 Vault |
| [07:03] | 粘贴 Karpathy prompt + 补充指令 |
| [08:35] | 演示:喂入第一篇文章(AI 2027) |
| [11:35] | 观看 Claude Code 实时生成 23 个 Wiki 页面 |
| [13:16] | 探索知识图谱:点击链接、跟踪关系 |
| [14:02] | 接入 AI 执行助理 + Hot Cache 机制 |
| [15:34] | 维护:Linting 和健康检查 |
| [16:02] | LLM Wiki vs 传统 RAG 对比 |
| [17:14] | 适用规模:几百页用 Wiki,百万文档用 RAG |
评论
还没有评论,来第一个留言吧 ✨