Claude 失忆症的解法:用 NotebookLM 打造永久记忆
Claude Code + NoteBookLM = Infinite Memory
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
Jack Roberts 是一位连续创业者,卖掉上一家拥有 6 万付费用户的科技公司后,现在专注于教创业者如何用 AI 经营业务。他的频道以"拿来就能用的 AI 系统"著称——不讲理论,直接给工作流、给 Skill 文件、给具体操作步骤。
这期视频解决的是一个几乎所有 Claude 重度用户都踩过的坑:Claude 没有跨会话记忆。每次开新窗口,之前讨论过的一切——你的业务背景、决策逻辑、长期目标——全部归零。把文件塞进上下文能解决问题,但代价是 token 狂烧、成本飙升。
Jack 的方案是:把 Google NotebookLM 接进 Claude,让 NotebookLM 充当 Claude 的外置大脑。一次 API 调用,语义检索,只取用得到的那一块,不烧无用的 token。
这个视频最值得记住的一件事:效率不等于把更多东西塞进上下文,而是学会只取你需要的那一块。
一、问题根源:Claude 的失忆症
Claude 的记忆问题不是 bug,是设计机制使然。每个会话(session)都是孤立的,不携带任何前序记忆。有三个直接后果:
- 上下文归零:你花了三天告诉 Claude 你的业务背景、你的偏好、你的决策框架,下次开窗口全没了
- 重复加载成本:把相关文档塞进上下文"续命"是可行的,但文档越多,token 消耗越大,成本越高,而且上下文窗口是有上限的
- 记忆质量下降:Claude 能记住"放在窗口里的东西",但无法像人一样跨时间建立对你的理解
Jack 把这个问题叫做"amnesia"(失忆症),并指出 Anthropic 自己也在改进——但在官方解决方案成熟之前,NotebookLM 是目前最实用的替代品。
二、为什么是 NotebookLM?
NotebookLM 是 Google 开发的"智能研究助手",底层是一个 RAG 系统(Retrieval-Augmented Generation,检索增强生成)。
RAG 的核心原理:把大量文档转换成向量存储在数据库里,当你查询时,系统语义搜索最相关的片段,只把那几段相关内容返回给你——而不是把整个数据库全部塞进上下文。
这和 Obsidian 接 Claude 的本质区别是什么?
Obsidian 等方案的问题是把大量笔记直接读入上下文——100 篇笔记进去,context 被塞满,token 全烧掉,Claude 可能还没看到你真正需要的那一篇。
NotebookLM 的方案是:你问一个问题 → 系统在向量数据库里找最相关的片段 → 只把"钻石"返回给 Claude。Claude 处理的信息量极小,但精准度极高。
Jack 的比喻很形象:"把哈利·波特和魔戒所有书籍同时塞进上下文,我会在这里坐很久。用这个方法,它直接找到我需要的那几段。"
NotebookLM 的另一个优势是免费额度极为慷慨——包括生成信息图、音频播客、视频等资产,全部包含在免费套餐里,对大多数个人用户而言足够用。
三、怎么接入?两个 Skill
Jack 在视频里分享了两个可以直接下载使用的 Skill 文件,整个接入过程不需要写代码。
Skill 1:NotebookLM 连接 Skill
功能:在 Claude Code(或 Claude Co-Work)里直接调用 NotebookLM 的各种功能。
工作原理:
- 把 Skill 文件拖入 Claude,输入"execute this skill"
- Claude Code 自动运行 Python 脚本(从 GitHub 下载),在本地建立与 NotebookLM 的非官方连接
- 你在浏览器里完成 NotebookLM 登录,脚本抓取认证 token
- 此后,在 Claude 里就可以直接创建 Notebook、添加来源、提问、生成资产
接入后能做什么:
- 创建新 Notebook、查询已有 Notebook
- 下载 NotebookLM 生成的视频、音频、信息图
- 让 Claude 自动整理会话内容存入 Notebook
对于 Claude Co-Work 用户:Claude Code 先生成一个 notebook_lm_skill.work.md 文件,然后在 Co-Work 的 Manage Skills 里上传即可。这是因为 Co-Work 环境无法直接抓 token,由 Claude Code 代劳生成配置文件。
Skill 2:Wrap-up Skill(会话总结 → 永久记忆)
这是整个系统最核心的部分。
工作流程:
- 与 Claude 完成一次大型工作会话(讨论策略、做决策、规划项目)
- 会话结束前,触发 Wrap-up Skill(在 Co-Work 里点击
/wrap-up,在 Claude Code 里说"执行 wrap-up") - Skill 自动读取整个对话内容,提炼关键决策、洞察、行动项
- 将提炼后的摘要存入 NotebookLM 里一个叫做 "[你的名字]'s Brain" 的专属 Notebook
- 下次打开新会话时,只需说"查一下我 brain notebook 里关于 X 的内容",Claude 立刻语义检索,精准返回
为什么叫"Brain":这个 Notebook 不是普通的文档存档,而是一个不断生长的、关于你这个人的知识库——你的业务模型、你的思维方式、你的长期目标、你做过的每一个重要决策的来龙去脉。
实际效果:Jack 演示了他自己的 Jack's Brain notebook,里面有一个"2026年3月29日战略规划会话"的摘要,点进去是完整的上下文——他当天讨论了什么、得出了什么结论、下一步行动是什么。这整个过程是 Wrap-up Skill 自动完成的,他本人什么都没手动做。
四、三大实战用例
用例一:知识增强(Enrichment)
场景:你在 Claude 里讨论某个策略问题,想要比 Claude 自己的知识更深的洞察。
操作:告诉 Claude,"基于这个对话和我的所有相关 Notebook,给我 10 个提炼后的洞察,以及 3 个我现在必须立刻执行的行动。"
实际结果:Jack 演示了一个关于"YouTube 频道增长到百万订阅"的案例。系统读取了 70 多个来源——他的频道策略、过去 30 个视频的表现数据、4 个最高性能视频的完整字幕、他的社群页面,以及两篇关于 YouTube 增长的深度研究文章——然后给出了精准到他频道具体问题的 10 条建议。
为什么这比直接问 Claude 更好:Claude 的训练数据是通用知识,不了解你这个具体的业务。NotebookLM 里存的是关于你的具体数据,用 NotebookLM 作为增强层,你得到的洞察是基于你的实际情况量身定制的,而不是泛泛的最佳实践。
用例二:资产生成(Asset Creation)
场景:你需要给客户做演示,或者给自己的内容创作做素材。
操作:让 Claude 调用 NotebookLM 生成信息图、音频播客、视频、演示文稿等——完全通过 API 自动化完成,不需要你手动打开 NotebookLM。
实际演示:Jack 演示了一个 5 步邮件营销序列的信息图生成:Claude 先做策略规划,然后让 NotebookLM 生成一张"gorgeous colors, premium fonts"的专业信息图,直接下载到本地,准备给客户用。
为什么"免费"很重要:
NotebookLM 的生成功能(信息图、音频、视频)完全免费,不消耗 Claude 的 token。你付的 Claude API 费用只是一个小查询,所有繁重的生成工作都在 Google 那边完成。
Jack 的原话:"We send off a query. It does all the processing on Google's side. And then we just get the beautiful insights."(我们发送一个查询,Google 那边做所有处理,我们只拿到结果。)
这是整个架构最聪明的地方——用 Claude 做智能调度和理解,用 NotebookLM 做计算密集的生成工作,两个系统各做自己最擅长的事,成本分摊到最合理的地方。
用例三:永久记忆系统(The Brain)
这是最核心的用例,也是 Wrap-up Skill 存在的原因。
核心理念:把 NotebookLM 变成你的个人 CRM + 决策日志 + 知识库。
具体应用场景:
- 项目持续性:你和 Claude 讨论了三周的产品策略,所有重要决策都在 Brain 里,新开窗口一句话就能调出来
- 团队 onboarding:把公司的标准操作流程、历史决策、机构知识存入 Brain,新人直接查,不需要口头传授
- 会议智能:每次重要会议后 wrap-up,Brain 里就有完整的会议摘要和决策记录,永久可检索
- 个人 CRM:和重要联系人的每次对话要点都存进去,下次联系前先检索,对话质量立刻不同
在 Claude 项目指令里的用法:Jack 演示了一个高级用法——在 Claude Co-Work 的项目 Instructions 里加一行:"whenever answering questions about strategy, always consult jackbrain.md within NotebookLM."(回答策略问题时,始终查询 NotebookLM 里的 jackbrain.md。)
这意味着 Claude 在每次回答策略类问题时,会自动调用 NotebookLM 检索你的 Brain,不需要你每次手动提醒。这是一种把记忆调用"固化"进工作流的方式。
五、底层逻辑:为什么这个架构是对的
理解这个系统的关键是理解两种截然不同的记忆策略:
暴力策略(Obsidian + 塞进上下文):
- 把所有文档直接读入 Claude 上下文
- 优点:Claude 能看到全部内容
- 缺点:token 暴涨,成本失控,上下文窗口有上限,相关信息被淹没在无关信息里
精准策略(NotebookLM RAG):
- 把文档转化成向量,存在外部数据库
- 查询时语义搜索,只取最相关片段
- Claude 上下文里只有精华内容,token 消耗极低
Jack 的"一拳打出去"比喻:
"It's like a jab and then we get the big results back."(这就像一个刺拳,然后我们得到巨大的回击。)
这个比喻很精准——你付出一个小的查询(轻量 token),NotebookLM 在后台做所有计算(零成本),你得到精准结果。
这个架构可推广到哪些场景:
- 任何需要长期记忆的 AI 工作流
- 多项目并行(每个项目一个 Notebook,按需调取)
- 团队协作(共享 Notebook 作为集体记忆)
- 客户服务(每个客户一个 Notebook,服务时实时调取历史)
六、行动启示
如果你是 Claude 的重度用户,这个系统直接可用,建议按这个顺序实施:
第一步(今天) :安装 NotebookLM Skill,完成认证,验证连接正常(只需 5-10 分钟)
第二步(本周) :安装 Wrap-up Skill,在你下一次大型 Claude 工作会话结束后,第一次触发 wrap-up,让它创建你的 Brain notebook。第一次见到 Brain 里有内容时,你会明白这有多有用
第三步(固化习惯) :把查询 Brain 的指令加进你常用项目的 System Instructions 里,让记忆调用变成自动行为
一个反直觉的收获:更好的 AI 工作不一定需要更大的上下文——需要的是更精准的检索。 把什么存进 NotebookLM 其实比怎么查更重要。Wrap-up 的价值不只是"存了东西",而是系统性地把每次会话的价值结晶化,而不是让它随着窗口关闭而消失。
附录:金句收录
"Claude has amnesia. Every session, you're starting back from zero." Claude 有失忆症。每次会话,你都要从零开始。——Jack Roberts
"NotebookLM always remembers." NotebookLM 永远记得。——Jack Roberts
"It's like a jab and then we get the big results back. We send off a query. It does all the processing on Google side. And then we just get the beautiful insights that we can build over time." 这就像一个刺拳,然后我们得到巨大的回击。我们发送查询,Google 那边做所有处理,我们只拿到可以不断积累的精华洞察。——Jack Roberts
"The real power isn't just storing everything — it's that one simple API call gives you semantic access to everything." 真正的威力不只是存储一切——而是一个简单的 API 调用就能语义化访问一切。——Jack Roberts
术语表
| 术语 | 解释 |
|---|---|
| RAG(检索增强生成) | 把大量文档转换成向量存储,查询时只检索相关片段返回给 AI,而不是把全部文档塞进上下文 |
| NotebookLM | Google 开发的 AI 研究助手,基于 RAG 系统,可接受 PDF、网页、YouTube 字幕等多种来源 |
| Wrap-up Skill | Jack 开发的 Claude Skill,自动将会话内容提炼摘要并存入 NotebookLM |
| Brain Notebook | 用户的个人专属 Notebook,用于存储跨会话的长期记忆和决策历史 |
| Token | Claude API 的计费单位,大致对应文字量;上下文越大,消耗越多 |
| Semantic Search(语义搜索) | 根据语义相似性(而非关键词匹配)检索最相关内容 |
时间线索引
| 时间 | 内容 |
|---|---|
| [00:00] | 开场:Claude + NotebookLM = 第二大脑 |
| [00:54] | Claude 失忆症问题的本质 |
| [02:10] | NotebookLM 的五大能力介绍 |
| [02:58] | 安装 NotebookLM Skill 的操作演示 |
| [04:14] | 连接原理:非官方 Python 脚本 + token 认证 |
| [05:00] | 验证连接:查询最近 3 个 Notebook |
| [05:40] | 为 Claude Co-Work 生成配置文件 |
| [06:58] | 三大用例介绍开始 |
| [07:07] | 用例一:知识增强(Enrichment)演示 |
| [09:30] | 用例二:资产生成(信息图、视频)演示 |
| [12:32] | 为什么 NotebookLM 比直接用 Claude 节省成本 |
| [12:43] | Wrap-up Skill 介绍 |
| [13:53] | Wrap-up 工作流程详解 |
| [14:51] | Jack's Brain notebook 演示 |
| [15:28] | 在项目 Instructions 里固化记忆调用 |
| [16:14] | 语义搜索的本质和优势 |
| [16:45] | 总结与结语 |
评论
还没有评论,来第一个留言吧 ✨