用Obsidian+Claude打造你的AI第二大脑
I Built an AI Second Brain Using Obsidian + Claude (Copy Me)
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
AI Edge 是一个专注于 AI 工具实战应用的 YouTube 频道,由内容创作者兼创业者 Miles Deutsche 运营。Miles 在本期视频中展示了一套"AI 第二大脑"系统——将 Obsidian 笔记软件与 Claude Code 结合,构建一个持续进化、跨 LLM 可复用的个人知识网络。
这套系统的灵感直接来自 OpenAI 联合创始人 Andrej Karpathy 在 X 上发布的"LLM Wiki"框架(获得超过 1600 万次浏览)。Karpathy 的核心洞察是:传统 RAG(检索增强生成)每次都在从零开始重新发现知识,没有积累效应。而 Wiki 模式则让 LLM 增量构建并维护一个结构化的互链文档网络,每一次新信息的注入都会更新已有认知,形成真正的"记忆复利"。
Miles 在此基础上加入了 Obsidian 的可视化图谱,使这套系统不仅能被 AI 查询,还能被人类直观地浏览和发现隐藏关联。
一、核心问题:AI 为什么总在"失忆"?
Miles 开篇直击 AI 用户的共同痛点:上下文断裂。
"The biggest problem with AI is that it often doesn't remember what it needs to to give you the right outcome."(AI 最大的问题是它往往记不住给出正确结果所需要的东西。)
具体表现为三个层面:
- 会话间失忆:你在一个对话中上传了文档、问了问题,关闭后开新对话,AI 对之前的内容毫无记忆
- 跨模型不可迁移:当你从一个 LLM 切换到另一个,所有积累的上下文几乎无法带走
- 重复劳动:每次都需要重新给 AI 背景信息、个人偏好、业务数据
他的判断是:我们已经从"提示工程"(Prompt Engineering)时代进入了"记忆系统工程"(Memory Systems Engineering)时代。 核心不再是如何写一个好的提示词,而是如何从底层构建一套架构,让之后的每一次交互都自带准确上下文。
二、什么是 Obsidian?为什么选它?
Obsidian 本质上是一个笔记应用,但与 Notion 等线性笔记工具不同,它的核心特性是图谱化:
- 每个笔记是一个节点
- 笔记之间可以通过双向链接形成网络
- 提供"Graph View"(图谱视图),能直观看到知识点之间的连接
Miles 用一个类比解释了它的价值:你的大脑通过不同记忆之间形成连接和模式来工作,Obsidian 做的是完全相同的事情,只是让你能用可视化的方式看到它。
关键优势在于:
- 所有数据存储在本地文件夹——你完全拥有自己的数据
- 文件格式是 Markdown——任何 LLM 都能直接读取
- 可以直接被 Claude Code 编辑——AI 和知识库之间零摩擦
三、系统架构:从信息输入到智能输出的完整链路
Miles 展示了整个系统的架构图:
信息输入(文章/笔记/字幕/推文)
↓
Claude Code 组织整理(自动建立链接)
↓
Obsidian 知识库(可视化图谱 + 结构化 Wiki)
↓
AI 查询时调用整个知识库 → 精准输出
关键机制:当你向知识库添加一篇新文章时,Claude Code 不只是简单存储,而是会:
- 阅读全文并提取关键信息
- 主动查找与已有知识点的关联——比如文章提到 Sam Altman,它会自动链接到你知识库中已有的 Sam Altman 页面
- 更新相关主题的摘要,标注新旧数据的矛盾之处
这正是 Karpathy 框架的核心——从"被动检索"升级为"主动整合"。
四、5 分钟搭建指南:从零开始
Miles 强调这套系统的搭建只需要 5 分钟:
第一步:下载 Obsidian
- 从 obsidian.md 下载安装
- 创建一个新的 Vault(保管库),本质上就是你电脑上的一个文件夹
第二步:连接 Claude Code
- 在 Claude Code 的桌面应用(或 VS Code/终端)中,将工作目录指向 Obsidian Vault 所在的文件夹
- 这样 Claude Code 就能直接读写你的 Obsidian 笔记
第三步:注入 Karpathy 的 Wiki 构建提示词
- 复制 Karpathy 公开发布的系统提示词,粘贴到 Claude Code 中
- Claude Code 会根据提示词的指引,开始构建 Wiki 结构
第四步:灌入初始数据
- 从你的 Claude 聊天记录中导出关于你个人的信息
- 从 Notion 等工具导出已有笔记(CSV 格式)
- 直接粘贴你想保存的文章、推文等
Miles 特别提到一个实用技巧:你可以问 Claude 聊天"你记得关于我的什么信息",然后把它的回答粘贴到 Claude Code 中作为初始种子数据。
五、实战演示:从一篇文章到知识网络
Miles 用"AI 2027"这篇热门文章做了完整演示:
- 保存文章:通过 Obsidian 的 Chrome 扩展,一键将网页文章保存到知识库
- 告诉 Claude Code "请消化这篇文章":Claude Code 读取全文,提取关键信息
- 自动建立连接:Claude Code 发现文章提到了 Sam Altman、Nvidia、Claude 等已有知识点,自动创建双向链接
- 生成新节点:从文章中提炼出"Intelligence Explosion"(智能爆炸)等新概念,创建独立页面并链回源文章
这个过程最打动人的地方是:你不需要手动整理——AI 替你完成了知识的结构化和关联化。
六、实际应用:从"聊天机器人"到"战略顾问"
Miles 展示了一个真实的商业决策场景,证明这套系统的实用价值远超普通 AI 对话:
他向 Claude Code 提问:"Based on my content strategy and the AI 2027 timeline, what beginner's guide videos should I prioritize in the next 3 months?"(基于我的内容策略和 AI 2027 时间线,未来三个月我应该优先做哪些入门指南视频?)
Claude Code 的回答让他感到惊讶——因为建议与他已经在做的事情高度一致:
- 扩展入门指南系列到 Grok 和 Perplexity
- Q2 推出付费产品作为变现层
- 构建软件护城河(equity play)
- 降低团队对 2027 AI 时间线的风险
"I've never done a prompt before, and all of this stuff is already in my head. So it's doing a pretty good job at synthesizing it."(我从来没有专门做过这样的提问,这些东西本来就在我脑子里。它的综合能力相当不错。)
核心洞察:当 AI 拥有你的完整知识图谱时,它不再是一个通用聊天机器人,而是变成了一个了解你所有业务细节的战略顾问。
七、三大战略升级:让系统持续进化
Miles 提出了三个进阶优化方向:
1. Hot Cache(热缓存)
- 为 Obsidian 知识库生成一份 500 字的精简摘要
- Agent 每次查询时先读这份摘要获取即时上下文
- 解决的问题:避免 Agent 每次都要扫描整个知识库
2. Self-Maintaining Wiki(自维护 Wiki)
- 在 Claude Code 中设置定时任务,每周自动做一次"健康检查"
- 清理重复内容、修复断裂链接、合并相似主题
- 解决的问题:知识库在快速增长时容易变得混乱
3. Agent Integration(Agent 集成)
- 将 Obsidian 数据接入 OpenClaw 等自主 Agent 框架
- 连接 Discord 机器人、研究型 Agent
- 解决的问题:让知识库不只服务于你本人的手动查询,而是自动驱动各种 AI 工作流
八、局限性与替代方案:诚实的自我评估
Miles 难能可贵地讨论了这套系统的局限:
- 不适合非视觉型用户:如果你不喜欢查看图谱、不会主动探索连接,普通文件夹可能就够了
- 需要持续维护:虽然 AI 能自动化大部分工作,但你仍需要定期向系统添加内容
- 不是唯一选择:如果你的生活已经在 Notion 上,可以通过 Notion API + Claude Code 实现类似效果
- 连 Karpathy 自己也承认不是每天都用——但他看到了长期积累的价值
Miles 的观点是:Obsidian 提供的是一种独特的"复合式"知识组织方式——时间越久、数据越多,网络效应越强。 如果你愿意投入初始的搭建时间,长期回报将远超投入。
金句收录
-
"The biggest problem with AI is that it often doesn't remember what it needs to to give you the right outcome." (AI 最大的问题是它往往记不住给出正确结果所需要的东西。)
-
"We've moved away from the era of prompt engineering to memory systems engineering." (我们已经从提示工程时代进入了记忆系统工程时代。)
-
"Your brain forms connections between different memories and forms patterns between different things that you learn. This is the exact same." (你的大脑在不同记忆之间形成连接,在你学到的不同事物之间形成模式。这(Obsidian)做的完全一样。)
-
"Every single conversation that you have with AI now isn't wasted." (你和 AI 的每一次对话现在都不会被浪费。)
-
"Most people's experience with LLMs looks like this: the LLM is always rediscovering knowledge from scratch on every question. There's no accumulation." (大多数人使用 LLM 的体验是这样的:LLM 每次提问都在从零开始重新发现知识,没有任何积累。)— Andrej Karpathy
-
"Instead of just retrieving from raw documents at query time, the LLM incrementally builds and maintains a persistent wiki." (LLM 不再只是在查询时从原始文档中检索,而是增量地构建和维护一个持久的 Wiki。)— Andrej Karpathy
-
"Think of the possibilities here. You could have a database for your personal life, your ideas, your business." (想想这里的可能性。你可以为你的个人生活、你的想法、你的业务各建一个数据库。)
-
"The quicker you can start building this, the better. This will always be with you, even if you switch to another AI later." (越早开始构建越好。这将永远属于你,即使以后你换了其他 AI。)
时间线索引
| 时间 | 内容 |
|---|---|
| [00:00] | 展示已建成的 AI 第二大脑——Obsidian 知识图谱 |
| [00:45] | AI 的核心问题:跨会话/跨模型的记忆断裂 |
| [01:35] | 视频目标:手把手教你搭建这套系统 |
| [01:50] | 致谢 Andrej Karpathy 的 LLM Wiki 框架(X 上获 1600 万浏览) |
| [02:45] | 深入痛点:反复给 AI 上下文的低效循环 |
| [03:15] | 什么是 Obsidian:笔记 + 思维导图 + 文件管理三合一 |
| [04:12] | 如何用 Claude Code 自动建立知识连接 |
| [05:15] | 完整系统架构图:输入 → 整理 → 知识库 → 查询输出 |
| [06:00] | 网络效应:每一次 AI 对话都在给第二大脑增值 |
| [07:30] | 实际演示:Miles 的个人知识库内容展示 |
| [08:10] | 搭建教程开始:下载 Obsidian、创建 Vault |
| [08:55] | 导入 Karpathy 提示词到 Claude Code |
| [10:10] | 初始数据灌入技巧:从 Claude 聊天/Notion 导入 |
| [11:00] | Obsidian 图谱设置:Orphan 节点管理 |
| [11:55] | 实操演示:用 Chrome 扩展保存"AI 2027"文章到 Obsidian |
| [12:25] | Claude Code 自动消化文章并建立关联的完整过程 |
| [14:30] | 高级技巧:多知识库分区(个人/业务/内容) |
| [15:00] | 实用场景演示:基于知识库做内容策略决策 |
| [16:15] | 关键判断:从"提示工程"到"记忆系统工程"的范式转移 |
| [17:00] | 局限性讨论:什么人可能不需要这套系统 |
| [17:50] | Karpathy 原文引用:Wiki 模式 vs 传统 RAG 的本质区别 |
| [19:50] | 三大战略升级:热缓存、自维护 Wiki、Agent 集成 |
| [21:55] | 总结:越早开始构建,复利效应越强 |
评论
还没有评论,来第一个留言吧 ✨