诺奖得主的 AGI 缺口清单:Demis Hassabis 认为我们还差什么
本报告由 AI 深度分析生成,基于视频完整字幕。
一、他画了一张精确的"缺口地图"
大多数 AI 从业者谈 AGI 时只说"快了"或"还早"。Demis Hassabis 不同——他给出了具体的缺口清单、测试标准和时间线。这是这场对话最有价值的部分。
1.1 缺口一:记忆系统
Hassabis 把当前 AI 的记忆状态比作"用胶带粘合的临时方案"(duct tape)。他的判断:
- 上下文窗口 ≠ 记忆。100 万 token 的上下文窗口看起来很大,但存入视频只够 20 分钟。这不是记忆,这是"把所有东西一股脑塞进工作台上"。
- 真正需要的是海马体式整合。人脑的海马体能把新经验优雅地编织进已有知识网络,不会因为学了新东西就忘掉旧东西。当前大模型做不到这一点——要么重新训练(昂贵且破坏性),要么把东西塞进上下文窗口(容量有限且不持久)。
- 持续学习(continual learning)是未解难题。模型如何在不遗忘旧知识的前提下,持续吸收新信息?这个问题在学术界叫"灾难性遗忘",至今没有优雅的解法。
为什么这很重要:如果一个系统无法持续学习和记忆,它就只能在每次对话中"从头开始"。这意味着它永远无法像人类专家那样积累数十年的领域经验。
1.2 缺口二:长期推理与规划
- 当前模型的 Chain-of-Thought(思维链)已经在短期推理上取得了巨大进步,但跨越数天、数周甚至数月的长期规划仍然是空白。
- 人类的科学发现、工程项目、创业过程都涉及"在不确定性下做长线规划"——这需要的不只是推理能力,还需要对世界的因果模型。
1.3 缺口三:可能需要全新的架构突破
Hassabis 给出了一个极具信息量的概率判断:50/50 的概率,达到 AGI 需要一个我们今天还没有想到的全新想法。 这不是说现有技术没用——Transformer、RLHF、CoT 肯定是最终架构的组成部分——而是说这些组件本身可能不够。
他用一个类比解释:现有组件就像发动机的不同零件,每一个都精密且有用,但可能还缺一个"关键零件"让整台发动机真正转起来。
二、他设计了两个"AGI 试金石"
大多数人谈 AGI 用的是模糊标准("像人一样聪明")。Hassabis 提出了两个具体的、可验证的测试:
2.1 爱因斯坦测试
设定:用 1901 年之前的所有人类知识训练一个 AI 系统。然后看它能否独立产出 1905 年爱因斯坦奇迹年的那些发现(光电效应、狭义相对论、布朗运动)。
为什么这个测试有意义:
- 如果能做到,说明系统具备"从已知推导出全新真理"的能力——这不是模式匹配,不是统计相关,而是真正的科学推理。
- 如果做不到,说明系统只是在重新组合训练数据里已有的模式。
他的预估:"几年内"可能达到。
2.2 发明围棋测试
AlphaGo 的 Move 37 被广泛视为"AI 的创造力时刻"——一步人类从未想到的棋。但 Hassabis 说这还不够:
- Move 37 是在已知规则框架内的创造性。
- 真正的创造力 = 给系统一个高层描述("设计一个两人博弈游戏"),它能发明出围棋这种级别的游戏。
- 这需要的是"从无到有设计规则体系"的能力,而非"在已有规则内找到最优解"。
他的判断:今天的系统做不到,但"可能不是系统缺什么,而是人类还没学会怎么向系统提需求"。
三、AlphaGo 的"技术回归"——旧想法在新规模上复活
这是一个容易被忽略但极其重要的信息:
- AlphaGo / AlphaZero 时代开发的核心技术——强化学习(RL)、蒙特卡洛树搜索(MCTS)、自我博弈(self-play) ——正在以"通用形式"被整合进 Gemini 这样的基础模型。
- Hassabis 暗示:接下来几年的 AI 进步,很大一部分将来自这些"2016-2019 年旧想法在 2025-2030 年新规模上的复活"。
这意味着什么?意味着 AI 进步的来源不仅仅是"更大的模型 + 更多数据",而是"把不同范式的精华整合到一起"。RL 赋予模型"探索和优化"的能力,树搜索赋予"在行动前模拟多步后果"的能力——这些在纯语言模型时代被搁置的能力正在回归。
四、小模型的逆袭与蒸馏的统治力
4.1 没有看到信息密度的理论极限
Hassabis 明确说:蒸馏技术让前沿模型发布后 6-12 个月就能被压缩到边缘设备大小。 Gemma 4 两周半下载 4000 万次就是证据。
更关键的是他的判断:"我们还没看到信息能被压缩到多密集的理论极限。" 这意味着小模型的能力上限远未触及天花板。
4.2 1000 倍工程师已经出现
他说"房间里的人做的工作量是 2000 年代 Google 工程师的 1000 倍"——这不是修辞夸张,而是对当前 AI 辅助编程效率的经验判断。
但他补充了一个微妙的观点:小模型的速度优势可以弥补最后 5-10% 的质量差距。 在许多实际场景中,"快"比"稍微好一点"更有价值。
五、Agent 的现状:实验阶段,等待"杀手级产出"
5.1 一个尖锐的问题
Hassabis 提出了一个所有人都该思考的问题:
"为什么还没有一个孩子用 AI 做出卖了 1000 万份的游戏?"
这不是在贬低 Agent 的能力,而是在指出:如果 Agent 真的已经能做到我们说的那些事,那么"低门槛 + 高能力"应该已经催生出某种突破性产出。事实是还没有——说明某些关键能力仍然缺失。
5.2 缺失的是什么?
他用自己 17 岁做 Theme Park 游戏的经历类比:
- 原型:现在半小时就能做出来(AI 辅助)。
- 成品:当年花了 6 个月,因为需要 craft(工艺)、soul(灵魂)、taste(品位) 。
- 这三样东西,AI 目前还无法独立提供。它们需要人类的审美判断、反复打磨、以及对"什么让这个东西特别"的直觉。
5.3 他的预测
6-12 个月内会看到真正的突破性产出——某个人或小团队用 AI Agent 做出一个"之前不可能做出来的东西"。
六、虚拟细胞——10 年项目,但瓶颈不在 AI
这是整个对话中最"科学家气质"的部分:
- 目标:从细胞核开始,逐步建模整个细胞,最终构建"虚拟细胞"。
- 当前进度:已经在做细胞核层面的建模。
- 真正的瓶颈:无法对活细胞做纳米级成像而不杀死细胞。 现有的高分辨率成像技术(电子显微镜等)都需要固定/杀死细胞。
- 如果成像问题解决:整个问题就变成"视觉问题"——而视觉是 AI 已经证明能解决的领域。
Hassabis 的框架:很多看似"AI 能力不够"的科学瓶颈,实际上是"数据获取"的瓶颈。一旦数据获取被突破(通过新的实验技术),AI 就能快速推进。
七、给创始人的战略建议
7.1 最有防御力的方向
深科技(Deep Tech)+ AI 的交叉点。 理由:
- 纯 AI 应用层的壁垒在不断被侵蚀(模型越来越便宜、越来越通用)。
- 但如果你有领域专知 + 独特数据 + AI 能力,三者叠加的护城河很深。
- 类比:AlphaFold 的壁垒不是"会用 AI",而是"深刻理解蛋白质折叠问题 + 有正确的训练数据 + 设计了正确的架构"。
7.2 AGI 时间线对创始人的含义
如果 AGI 的时间线是 2030 年:
- 今天开始一个 10 年的深科技项目 → AGI 会在你项目的中间阶段出现。
- 这意味着你必须为"中途 AGI 到来"做规划——你的项目是否能利用 AGI 加速?还是会被 AGI 淘汰?
7.3 未来的 AI 架构
不是"一个巨大的通用大脑解决一切问题",而是:
通用模型(Gemini)作为编排中心,调用专用工具(AlphaFold 类)完成具体任务。
这就像人脑不是用同一块区域处理所有信息——视觉走视觉皮层,语言走布洛卡区,运动走小脑。未来的 AI 也会是"通用协调层 + 专用能力层"的分层架构。
隐藏前提与提防
前提一:线性外推的危险
Hassabis 说 2030 年达到 AGI。但这个预测建立在"继续找到新突破"的前提上。他自己也说了 50/50 的概率需要全新想法——如果这个新想法在 2028 年还没出现呢?时间线可能大幅后移。
前提二:"发布者视角"的滤镜
作为 Google DeepMind 的 CEO,他有动机让 AGI 看起来"很快但不是马上"——太快会引发监管恐慌,太慢会让投资者失望。2030 年恰好是一个"足够近来激励团队、足够远来管理预期"的时间点。
前提三:蒸馏的隐含假设
"前沿模型 6-12 个月后能压缩到边缘设备"——前提是前沿模型的知识确实可以被无损(或近无损)压缩。如果未来的 AGI 级能力需要某种不可压缩的计算结构,蒸馏策略就会失效。
前提四:Agent 的"6-12 个月"
每一代 AI 从业者都在说"6-12 个月后会有突破性应用"。这个判断的乐观偏差需要打折看待。真正的杀手级应用可能需要 2-3 年,而非半年。
前提五:他对自己公司技术的不对称了解
Hassabis 知道 Google DeepMind 内部正在做什么(包括未发表的研究),他的乐观可能来自"我看到了还没公开的进展"。外部人无法验证这种乐观是否有坚实基础。
对你的行动启示
如果你是投资者
- 关注"AI + 深科技"的交叉项目,而非纯 AI 应用层。Hassabis 的判断是这类项目最有防御力。
- 警惕"Agent 泡沫"。连 DeepMind CEO 都说还没看到杀手级产出,说明这个赛道的兑现时间可能比市场预期的更长。
- 蒸馏 = 开源追赶速度极快。任何依赖"大模型独占优势"的商业模式都有 6-12 个月的窗口期——之后能力会民主化。投资要看"模型之外的壁垒"。
如果你是技术从业者
- 记忆和持续学习是最值得押注的研究方向。 Hassabis 把它放在 AGI 缺口的第一位。谁先解决这个问题,谁就拿到了通往 AGI 的关键拼图。
- 学习 RL 和搜索算法。 AlphaGo 时代的技术正在"回归"——如果你只会 Transformer,你只掌握了一半武器。
- "1000x 工程师"是真实的,但需要正确的工作方式。 关键不是"用 AI 写更多代码",而是"用 AI 让你能独自完成原来需要 20 人团队的项目"。
如果你是创始人
- 你的 10 年规划里必须有一个"如果 AGI 在第 5 年到来"的应急方案。 不是说你要为 AGI 而建(那太不确定),而是你要确保 AGI 到来时你的项目"能利用它"而不是"被它替代"。
- 专用工具 > 通用平台。 未来架构是"通用模型调用专用工具"——如果你能成为某个垂直领域的"AlphaFold",你就会被通用模型调用,而不是被它替代。
- 不要等 Agent 完善了再用。 虽然杀手级产出还没出现,但"半自动化"已经能让小团队的产出翻 10 倍。先用起来,在使用中发现 Agent 的真正边界在哪里。
一句话总结
Demis Hassabis 不是在卖焦虑,也不是在画饼。他给出了一张精确到组件级别的 AGI 缺口地图:记忆、持续学习、长期推理——这些是明确的工程目标,不是哲学争论。而他同时告诉你:在等待这些缺口被填补的过程中,已有的技术(蒸馏、RL 回归、Agent 雏形)已经足以让你今天就开始做"之前不可能做的事"。
关键判断:AGI 不是"更大的 GPT",而是需要新组件的新架构。但通往 AGI 的路上,每一步中间产物都已经有巨大的应用价值。
评论
还没有评论,来第一个留言吧 ✨