D
DeepRead文字版YouTube
+ 生成报告
← 返回首页
AI 前沿

AI公司正在对我们撒谎——前OpenAI内部人士的揭秘

AI Whistleblower: We Are Being Gaslit By The AI Companies! They're Hiding The Truth About AI!

来源The Diary Of A CEO(Steven Bartlett) × Karen Hao(AI调查记者,《Empire of AI》作者)视频时长约60分钟报告字数5,858字阅读时间12min原始链接https://www.youtube.com/watch?v=Cn8HBj8QAbk

本报告由 AI 深度分析生成,基于视频完整字幕。

📺 原视频 约60分钟📖 本报告 5,858字⏱ 预计阅读 12min💡 5个核心观点

导读

The Diary Of A CEO 是 Steven Bartlett 主持的访谈节目,拥有1540万订阅者,是全球最受欢迎的商业访谈节目之一。Bartlett 以不回避尖锐问题著称,但在这期节目里,他也坦承:自己有一位 AI 业内大人物已经被「吊了18个月的胡萝卜」,始终不肯来上节目。

嘉宾 Karen Hao 是麻省理工学院机械工程系毕业生,后转型为科技记者,曾供职于 MIT Technology Review、The Atlantic。她是迄今为止对 OpenAI 内部报道最深入的记者,采访超过300人,其中近90人是 OpenAI 现任或前任员工和高管。她的新书《Empire of AI》(AI帝国)是对这个行业最系统的批判性记录。

这期访谈的价值在于:Karen Hao 不是另一个说 AI 「很厉害」或「很危险」的局外人,而是一个坐进去、亲眼看、亲耳听、查阅了大量内部文件的人,告诉你这个行业真正在做什么、用什么手段、为了什么目的

一句话核心论点:AI公司用「末日威胁」和「乌托邦承诺」两张牌,制造了一个让公众无法质疑、政府无法监管、资本不断涌入的帝国——而这个帝国正在系统性地剥夺普通人的权利、工作和未来。


核心观点速览

  1. 「AI」这个名字从一开始就是一个策略性选择——1956年,科学界对「什么是智能」根本没有共识,至今仍无共识,但这个名字让整个行业得以永远移动目标
  2. Sam Altman 用模仿 Elon Musk 的语言套路骗 Musk 出了钱,然后把 Musk 踢出局——这不是阴谋论,有内部文件为证
  3. AI公司对不同受众用不同的AGI定义:跟公众说是「人类生存威胁」,跟微软谈钱时说是「能产生千亿美元收入的系统」
  4. AI公司是帝国:圈地(版权)、剥削劳工、垄断知识、用存亡叙事为无限扩张辩护
  5. 他们可能根本不知道自己是否在「召唤恶魔」——但他们故意制造这种感觉,因为这能帮他们拿到更多控制权和资金

一、从工程师到「揭密者」:Karen Hao的独特路径

Karen Hao 的视角之所以难以被复制,在于她的背景。

她从 MIT 拿到机械工程学位,本来打算进硅谷做气候技术。入职第一家公司没多久,董事会就因为公司不够盈利而解雇了 CEO。

"I thought: if this hub is ultimately geared towards building profitable technologies, and many of the technologies that help the public benefit are often not profitable... then what am I actually contributing to?"(我意识到:如果科技创业最终是为了盈利,而那些真正有利于社会的技术往往不赚钱——那我到底在贡献什么?)

这个危机把她推向了新闻业。她想的是,如果自己不适合在体系内工作,那就做个观察者,研究「谁在决定建造什么技术、钱和意识形态如何驱动技术方向」。

从2018年开始,她深入报道 OpenAI,六年内采访超过300人,其中近90名是 OpenAI 的员工和高管。这本书不是一个硅谷书呆子的仰慕传记,而是一个受过工程训练、懂技术本质的人对一个行业的解剖。


二、「人工智能」这个名字本身就是一个漏洞

1956年,John McCarthy 在达特茅斯大学召集了一批科学家,创立了一个新学科。

最初他想叫它 Automata Studies(自动机研究) 。但他的同事们认为这个名字太枯燥,不够吸引人。于是他改名叫「Artificial Intelligence(人工智能)」。

问题在于:

"Back then, as is true today, we have no scientific consensus around what human intelligence actually is."(那个时候,就像今天一样,我们对「人类智能究竟是什么」没有任何科学共识。)

这个命名决定留下了一个永久性的漏洞:这个领域可以永远移动目标,因为「智能」从未被定义清楚过。

Karen Hao 指出,这正是为什么「人工通用智能(AGI)」这个词对 AI 公司如此有价值——他们可以根据需要随时重新定义它。OpenAI 对 AGI 的定义在不同场合包括:

  • 面对公众时:「一种能威胁人类持续存在的超级智能」
  • 面对微软谈投资时:「一个能产生千亿美元收入的系统」
  • 写在官网时:「一个在大多数有经济价值的工作上能超越人类的系统」

同一个词,三种定义,服务于三种不同的目的——这不是模糊,这是策略。


三、Sam Altman 如何骗到 Elon Musk 的钱

这是整个视频最具戏剧性的段落之一,也是理解 OpenAI 权力结构的关键。

背景: 2015年前后,Sam Altman 在准备创立 OpenAI 时,需要一个有钱、有影响力的共同创始人。他写了一篇博客文章,用非常特别的语言警告 AI 的存亡威胁——

Karen Hao 发现:这篇文章的用词几乎完全模仿了 Elon Musk 当时正在使用的语言。Musk 那时正到处演讲,说 AI 是人类最大的存亡威胁,把开发 AI 比作「召唤恶魔」。

"If you look at the language that Altman uses side by side with the language that Musk was using at the time, it mirrors it almost exactly."(把 Altman 的措辞和 Musk 当时的措辞并排对比,几乎一模一样。)

在 Altman 那篇博客里,有一个括号内容:「还有一些其他威胁可能更确定会发生,比如人为设计的病毒。」——Karen Hao 指出,在那篇文章之前,Altman 一直在讨论生物病毒威胁,这个括号是专门为 Musk 写的过渡句,解释自己为什么之前说病毒、现在改说 AI。

结果: Musk 被说服,成为 OpenAI 的联合创始人,捐了大量资金。

然后发生了什么?

Altman 开始觉得 Musk 难以掌控。从内部文件中可以看出:当时 OpenAI 要决定 CEO 人选时,Ilia Sutskever 和 Greg Brockman 最初的选择是 Musk。Altman 私下找到好友 Greg 说:

"Don't you think Musk is too unstable? He could act erratically. He could be unpredictable. Do we really want a potentially super-powerful technology in the hands of this man?"(难道你不觉得 Musk 太不稳定了吗?他会变得难以预测。我们真的想把一个可能极度强大的技术交给这个人吗?)

Greg 被说服,说服了 Ilia,Musk 没能当上 CEO。后来 Musk 逐渐被排挤出局。

延伸思考: Musk 后来对 Altman 发起的法律诉讼,以及他声称「OpenAI 背叛了我」,背后是这段真实的权力争夺。从 Musk 的角度看,他被 Altman 用他自己的语言引诱进来,然后被赶走——这种感觉是真实的,因为内部文件显示确实如此。


四、AGI:一个为不同受众量身定制的谎言

AGI(人工通用智能)是当今 AI 行业最重要的概念,也是最被滥用的概念。

Karen Hao 追踪了 Dario Amodei(Anthropic CEO,OpenAI 前研究副总裁)的公开言论,发现一个规律:

"He is saying there's somewhere between a 10% and 25% chance of things going catastrophically wrong on the scale of human civilization."(他说,在人类文明层面上事情灾难性出错的概率在10%到25%之间。)

Dario 的两套话术:

  • 最坏情况:对人类造成灾难性或存亡级伤害
  • 最好情况:实现大规模人类繁荣

Karen Hao 的解读:这两套话术必须同时存在才有效。光说末日,人们会恐慌反对。光说乌托邦,人们不会给钱。两者结合,就变成了:「我们是唯一能把这件事做好的人,给我们资源,否则坏人先做到你们就完了。」

这个逻辑结构她称之为「反民主的」:

"This is like two sides of the same coin. They have to use both of these narratives in order to continue justifying an extremely anti-democratic accumulation of power and resources."(这是同一枚硬币的两面。他们必须同时使用这两套叙事,才能继续为极度反民主的权力和资源积累辩护。)

比较直白的翻译:

「如果我们不做,中国会做,那就更糟。如果任何人做,也比不上我们做,所以你必须给我们钱。」


五、AI的本质:一个被误读的统计机器

这是访谈中技术含量最高、也最重要的部分之一。

OpenAI 的首席科学家 Ilia Sutskever(后来创立 Safe Superintelligence)有一个核心信念:人类大脑本质上是一台统计引擎,AI系统也是统计引擎,只要把AI系统做得足够大,就会超越人类智能。

他在神经信息处理系统会议(NeurIPS)的主题演讲中展示了一张图:X轴是不同生物的大脑规模,Y轴是智能水平,从蠕虫到人类呈上升曲线。他的逻辑是:如果我们能建一个比人类大脑更大的统计引擎,它的智能就会超越人类。

Karen Hao 的批评:

"Our understanding of the brain in neuroscience has really only gotten more complex over time. And it's very reductive to think of our brains as simply just statistical engines."(神经科学对大脑的理解随时间只会变得更复杂。把大脑简单理解为统计引擎是极度简化的。)

So what: 这不只是学术争论。这个假设决定了整个行业的走向——它成为了「无限扩大模型规模」战略的理论依据,进而成为了「需要更多数据、更多计算资源、更多电力、更多劳动力」的理由。

如果这个假设是错的,整个帝国的扩张逻辑就会崩塌。但问题是:无论假设对不对,帝国都已经建起来了。


六、「AI帝国」:四根支柱的解剖

Karen Hao 用「帝国」来描述大型 AI 公司,不是比喻,而是一个精确的分析框架。历史上的帝国通过以下方式运作——AI 公司也在做同样的事:

1. 圈地——掠夺知识产权

AI 训练需要大量数据。这些数据来自哪里?艺术家的作品、作家的书稿、创作者的内容——在没有任何授权或补偿的情况下被用于训练模型。

"They lay claim to the intellectual property of artists, writers, and creators in the pursuit of training these models."(他们以训练模型为由,占有艺术家、作家和创作者的知识产权。)

2. 剥削劳工——裁员再重用,条件更差

AI 浪潮已经开始裁员——尤其是中低层职位。这些被裁员工去了哪里?很多人进入了「数据标注」行业——为AI模型标记训练数据。

工作条件恶劣,职业发展路径断裂。

"A lot of the jobs that are created are way worse than the jobs that were there."(被创造出来的工作,往往比原来那些工作差得多。)

3. 垄断知识生产——消灭不利的研究

AI 公司雇佣了全球大量 AI 研究人员。这产生了一个问题:如果大部分气候科学家都被化石燃料公司雇佣,我们能得到关于气候危机的准确图景吗?

Karen Hao 在书中记录了 Google 的案例:Timnit Gebru 是 Google 道德 AI 团队联合负责人,被雇来批评模型中的问题。当她的研究发现对 Google 不利时,Google 阻止发表,并随后解雇了她,以及她的另一位联合负责人 Margaret Mitchell。

4. 存亡叙事——把反民主积累包装成救世行动

最精妙的一步。通过制造「要么我们来,要么恶棍来」的叙事,AI公司把自己塑造成了人类命运的守护者。这让监管变得「危险」,让竞争对手变得「威胁」,让任何质疑都变成「不负责任」。

"They project this idea that they're the only ones that really understand how the technology works. And so if the public doesn't like it, it's because they don't actually know enough."(他们制造了一种印象:只有他们真正理解技术是怎么运作的。所以如果公众不喜欢,那是因为公众了解得还不够。)


七、OpenAI内部战争:Altman被解雇的真实原因

2023年11月,Sam Altman 被 OpenAI 董事会突然解雇,然后在数天内重新上任。官方说法模糊,媒体报道混乱。Karen Hao 通过多个内部来源重建了这个事件。

导火索: Ilia Sutskever 看到了 Altman 的领导方式对公司研究质量和决策机制产生的负面影响,开始寻找机会向独立董事会成员反映。

关键事件:OpenAI创业基金的秘密

董事会成员 Adam D'Angelo(Quora CEO)在审查公司内部文件时,发现了一件奇怪的事:OpenAI Startup Fund(OpenAI 创业基金)的实际所有权从未被清楚记录。当他最终拿到文件时,发现——

这个基金不是 OpenAI 的基金,而是 Altman 个人控制的基金

这成为了一个临界点:多次发现 Altman 口头描述的事情与实际情况不符。

"There are continuously inconsistencies between the way that Altman is portraying what is being done versus what is actually being done."(Altman 描述的事情和实际发生的事情之间,持续存在不一致。)

最后的决断

独立董事会成员们问了自己一个问题:「如果这是一家Instacart,他的行为会严重到需要解雇他吗?」答案可能是否定的。

但接下来他们说:「但这不是 Instacart。」

他们的逻辑是:对于一个他们自己声称可能影响人类文明命运的技术,「合理的混乱」的标准必须高得多。

结果

解雇在没有通知任何人的情况下执行——因为他们担心一旦 Altman 知道,他的说服能力会让解雇变得不可能。然而,微软(OpenAI 最大投资人)也没有被提前告知,这引爆了投资方和员工的强烈反弹,最终 Altman 复职。

Ilia Sutskever 没有复职。他后来创立了 Safe Superintelligence——一个公司名本身就是对 OpenAI 最强烈指控。


八、AI公司如何控制媒体:「胡萝卜策略」

访谈中有一段对话特别直白。Bartlett 说:

"There is a particular person in AI whose team have basically dangled the carrot of them coming here for like 18 months. And I'm like, you don't have to dangle the carrot. I'm going to speak to whoever I want to regardless."(有一个AI行业的特定人物,他的团队已经吊了我18个月的胡萝卜。我说:你不需要吊胡萝卜,我不管怎样都会说我想说的。)

Karen Hao 确认:「胡萝卜策略」是科技媒体行业的系统性现象。AI 公司能给记者的最大奖励是「独家采访权」,而他们会在记者开始批评时随时收回这根胡萝卜。

"They will withhold that access at the drop of a hat if they catch wind that you're speaking to someone that they didn't want you to speak to."(一旦他们察觉到你在采访他们不想让你见的人,他们会立刻收回采访权。)

更精妙的版本是:不需要真的给采访——只需要永远暗示「正在考虑」,这样记者就会持续保持对该公司的正面态度,不敢批评,等待那个永远不会兑现的机会。

Karen Hao 的反例:OpenAI 在2019年之后关上了对她的大门,但她最终完成了300+采访,写出了目前关于 OpenAI 最深度的记录。她的结论是:失去前门,反而让她的报道更客观。


九、AI的真正价值 vs. 帝国的代价

Karen Hao 不是反科技人士。她明确说:AI 技术本身具有巨大的正面潜力。

她最喜欢引用的案例是 AlphaFold——DeepMind 开发的蛋白质折叠预测系统,它在几分钟内预测了以前需要数十年实验才能确定的蛋白质结构,为医学研究打开了新的大门。

但她的核心论点是:AlphaFold 是「AI自行车」——小规模、定向应用、解决具体问题的技术,而不是想替代人类智能的帝国机器。

她提出一个核心问题,让整个行业从未认真回答:

"Why are we trying to build AI systems that are duplicative of humans? The purpose of technology throughout history has been to improve human flourishing, not to replace people."(我们为什么要建造复制人类的 AI 系统?纵观历史,技术的目的是促进人类繁荣,而不是替代人。)


十、我们能做什么?

Karen Hao 在书的结尾提出了几个方向:

个人层面

  • 减少对 AI 公司的数据贡献(每一次使用都在训练它们)
  • 参与本地政策讨论——80%的美国民众支持AI监管,但监管需要公众压力才能落地
  • 支持艺术家、作家、劳工群体对 AI 公司的法律诉讼

社会层面

  • 呼吁拆分 AI 巨头——类似历史上对电话公司、石油公司的反垄断行动
  • 推动「AI自行车」式的替代发展路径:小规模、定向、低资源消耗、以人为本
  • 建立真正独立的 AI 研究机构,不被企业资金控制

她对于现状的判断冷静而清醒:

"We have research that shows that the very same capabilities could be developed in a different way that doesn't have all of these unintended consequences."(我们有研究表明,同样的能力可以用一种不产生这些非预期后果的方式来开发。)

问题不是技术本身,而是谁在控制技术,为了谁的利益,按照什么规则


附录

金句收录

  1. "So much of what's happening today in the AI industry is extremely inhumane."(今天AI行业里发生的很多事情,极其不人道。)——Karen Hao

  2. "Empire is the only metaphor that I've ever found to fully encapsulate all of the dimensions of what these companies do."(「帝国」是我找到的唯一能完全概括这些公司所作所为各个维度的比喻。)——Karen Hao

  3. "If most of the climate scientists in the world were bankrolled by fossil fuel companies, do you think we would get an accurate picture of the climate crisis?"(如果世界上大多数气候科学家都被化石燃料公司资助,你认为我们会得到关于气候危机的准确图景吗?)——Karen Hao

  4. "The future's going to be good for AI but potentially bad for humans."(未来对AI来说会很好,但对人类来说可能不好。)——Ilia Sutskever,2019年(引用自Karen Hao的采访)

  5. "A good analogy would be the way that humans treat animals. When the time comes to build a highway between two cities, we are not asking the animals for permission."(一个好的类比是人类对待动物的方式。当需要在两座城市之间修建高速公路时,我们不会征求动物的同意。)——Ilia Sutskever,2020年

  6. "We don't predict the future. We make it. We should understand this as an act of speech to persuade other people into believing that they should cede more power, more resources to these individuals."(我们不预测未来,我们创造未来。我们应该把这理解为一种说服行为,让人们相信应该把更多权力、更多资源交给这些人。)——Karen Hao

  7. "They have to use both of these narratives in order to continue justifying an extremely anti-democratic accumulation of power and resources."(他们必须同时使用这两套叙事,才能继续为极度反民主的权力和资源积累辩护。)——Karen Hao

  8. "The purpose of technology throughout history has been to improve human flourishing, not to replace people."(纵观历史,技术的目的是促进人类繁荣,而不是替代人。)——Karen Hao

  9. "We need to break up the empires of AI."(我们需要拆分AI帝国。)——Karen Hao

  10. "A lot of the jobs that are created are way worse than the jobs that were there."(被创造出来的工作,往往比原来那些工作差得多。)——Karen Hao


关键人物速览

人物身份在故事中的角色
Sam AltmanOpenAI CEO被描述为极具说服力但行事不透明;被短暂解雇后复职
Elon MuskOpenAI联合创始人(已离开)被Altman用其自己的语言说服参与,后被排挤,现对OpenAI发起诉讼
Ilia SutskeverOpenAI联合创始人(已离开)相信大脑是统计模型;最终发起解雇Altman的行动,后离开创立Safe Superintelligence
Dario AmodeiAnthropic CEO,前OpenAI研究VP逐渐认为Altman背叛了共同愿景,离开创立竞争对手
Timnit Gebru前Google道德AI团队联合负责人因发表批评性研究被Google解雇,成为AI公司压制研究的标志性案例
Karen Hao记者,《Empire of AI》作者300+采访,对OpenAI最深入的外部记录者;被OpenAI列入黑名单

时间线索引

时间内容
[00:00]核心论点概述:AI行业的不人道与帝国结构
[02:55]Karen Hao的背景:从MIT工程师到AI调查记者
[06:59]AI的起源:1956年达特茅斯会议,「人工智能」命名争议
[08:06]AGI定义的策略性模糊:针对不同受众的不同解释
[10:49]Sam Altman如何用镜像语言说服Elon Musk加入OpenAI
[11:52]Musk被排挤出OpenAI的内幕
[15:07]Karen Hao对Sam Altman的评价:两种截然不同的看法
[17:26]AI领域的独特特征:没有任何一家公司像OpenAI这样两极分化
[20:28]AI的本质:统计引擎假设及其全球后果
[25:50]「帝国」框架:圈地、剥削劳工、垄断知识、存亡叙事
[27:17]AI公司如何系统性地控制和扭曲研究结果
[28:58]OpenAI向批评者发传票:对记者的恐吓行动
[38:31]「胡萝卜策略」:AI公司如何通过采访权控制媒体
[41:40]Sam Altman被解雇的完整内幕重建
[49:04]OpenAI创业基金秘密:Altman个人基金冒充公司基金
[53:50]为什么Ilia的反叛具有决定性意义
[57:45]为什么每个科技亿万富翁都要建自己的AI公司
[58:21]他们真的在「召唤恶魔」吗?Karen Hao的分析

评论

Ctrl+Enter 发送

还没有评论,来第一个留言吧 ✨