AI 不再是软件,是"核武级"基础设施:白宫拦截 Claude Mythos 扩展的内幕
US wants Claude all to itself... because it's "TOO DANGEROUS"
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
2026 年 4 月底,《华尔街日报》披露了一则不起眼但意义重大的新闻——白宫阻止了 Anthropic 把 Claude Mythos(其新一代最强模型)的访问权限从 50 个组织扩展到 120 个。
表面看是个商业争端,实际是 AI 监管史的一个转折点:第一次,美国政府把一个 AI 模型当作**类似核武器、生化制剂的"国家关键基础设施"**来对待——而不是当成软件产品。
Wes Roth(独立 AI 行业分析创作者,22 分钟节目专门拆这件事)的观察非常冷静:这不是单一事件,是一个"事实上的 licensing 制度"在没有任何立法的情况下悄悄成型——白宫开始决定哪些公司能用最强 AI 模型、哪些不能,而且不需要任何法律支持,仅靠"国家安全"叙事就够了。
更重要的是 OpenAI 几乎同时被 UK AI 安全研究所(AISI)证实——GPT 5.5 cyber 在网络攻击 simulation 上的能力跟 Claude Mythos 几乎相同(71.4% vs 68.6%)。这意味着拦截 Mythos 不能解决问题——同样的能力已经在 GPT 5.5 上出现,未来 6-18 个月会扩散到所有前沿模型,包括开源中国模型。
一句话核心论点:白宫拦截 Claude Mythos 扩展是「AI 监管模式」从软件转向国家基础设施的拐点——但这种「事实 licensing」既无法持续、也无法阻止能力扩散;真正的问题不是"谁有访问权",是「当强大 AI 在 6-18 个月内扩散到任何人都能用时,全球网络安全秩序会如何重构」。
核心观点速览
-
AI 安全监管模式的根本转向:从"软件即服务(SaaS)"转向"国家关键基础设施"。类比从「卖 Photoshop」变成「卖核武级铀」——决定谁能用、谁不能用,由国家安全考量驱动而不是商业考量。
-
白宫拦截 Mythos 的两个理由:① 国家安全风险(cyber 攻击能力被滥用);② 算力争抢——白宫不想跟 70 家新公司排队等 Anthropic 算力。第二个理由揭示了 AI 国家化最现实的瓶颈:算力本身已成为受国家保护的稀缺资源。
-
GPT 5.5 cyber 与 Claude Mythos 几乎同等:UK AISI(AI 安全研究所)的 32 步企业网络攻击 simulation 上——Mythos 完成 3/10 次,GPT 5.5 完成 2/10 次;专家级 cyber 任务上 GPT 5.5 71.4% > Mythos 68.6%。这意味着拦截 Mythos 解决不了能力扩散问题——同等能力已经在多个前沿模型上出现。
-
关键经济学:$1.73 + 10 分钟 = 12 小时人类工作:GPT 5.5 在一个 reverse engineering 挑战上,用 $1.73 API 费用 + 10 分 22 秒,完成了人类专家需要 12 小时的工作。这种成本压缩比能力提升本身更重要——它把网络攻击的成本结构夷平到任何人都能负担。
-
「我能找到的 AI 也能找到」是工程师群体的普遍盲区:很多顶级工程师认为 AI 没什么大不了的,因为他们自己也能找出这些漏洞。但他们是全球 1% 的顶级工程师——对剩下 99% 不会编程的人,AI 是 0 → 1 的能力跃迁。类比印刷术:识字工程师不觉得印刷术革命,但对不识字的 99% 人口它彻底改变了世界。
-
「事实 licensing」制度正在成型,但没有立法:白宫现在事实上在决定哪些组织能用最强 AI 模型,但没有任何正式法律支持。Wes Roth 引用 AI 政策分析师 Dean Ball 的判断:短期看这个反应是对的,长期看不可持续——「就像建坝挡海啸」。
-
Anthropic 与 Trump 政府的信任赤字:Anthropic 一直是 AI 安全派代表、与 Biden 时代关系密切、推动 AI 规制——这些都让 Trump 政府对它有结构性不信任。Pentagon 与 Anthropic 的争议(关于自主战争 + 监控公民两条红线)让这种不信任进一步加深。这意味着 Anthropic 在政府关系上的地位比 OpenAI(David Sacks 是 Trump 顾问)更脆弱。
-
Mythos 算力消耗远超 Opus:Mythos 是 Anthropic 的"新一代"——比 Opus 高一个量级。这就是为什么扩展到 120 个组织算力压力大——一个 Mythos 任务的算力可能等于多个 Opus 任务。算力分配问题在新一代模型时代会变得越来越棘手。
主体
一、白宫拦截事件的具体细节
时间线:
原始状态:约 50 个组织有 Claude Mythos preview 访问权
Anthropic 计划:再加 70 个 → 总共 120 个组织
白宫介入:拒绝扩展
当前状态:仍然是约 50 个组织
白宫的两个理由:
理由 1:国家安全
Mythos 在网络安全领域的能力——找漏洞、生成攻击代码、自动化执行多步攻击——被认为对国家安全有实质性威胁。如果 120 家公司有访问,被滥用的风险增加。
理由 2:算力争抢
这个理由更微妙。白宫的逻辑:
如果 Anthropic 把 Mythos 给 70 家新公司用,他们会消耗算力——这意味着白宫自己用 Mythos 时会被排队。政府不想等。
Anthropic 的反驳:算力不是限制因素。我们刚跟 Amazon、Google、Broadcom 签了新算力协议。
但 Wes Roth 注意到:
"Recently the talk around town have been that Anthropic really miscalculated how much compute they needed and is kind of paying the price for it now." (最近圈内传言 Anthropic 严重低估了所需的算力,现在在为此付出代价。)
核心洞察:算力争夺已经成为 AI 监管的隐藏维度。当一个新一代模型(Mythos 比 Opus 高一个量级)产生时,就算技术上算力够用,谁先用、谁后用本身就是政治问题。白宫的真正杠杆不是「拒绝授权」,是「我要排第一」——这是个不需要任何立法支持就能行使的权力。
二、GPT 5.5 cyber 与 Mythos 的能力对比:拦截一个解决不了问题
视频里最重要的一段——UK AISI(AI 安全研究所)的测试结果。
测试:「Last Ones」cyber range
- 32 步模拟企业网络攻击
- 人类专家需要 20 小时完成端到端攻击
结果对比:
| 模型 | 端到端完成率 | 专家级 cyber 任务得分 |
|---|---|---|
| Claude Mythos | 3/10 | 68.6% |
| GPT 5.5 | 2/10 | 71.4% |
关键观察:两个模型的能力几乎相同——GPT 5.5 在专家级任务上甚至略高。
这意味着什么:
"There's two models that we know of that are capable of doing this. White House is blocking Mythos from further rolling out. Meanwhile, OpenAI is taking the model that seems to have the same sort of abilities and traits and rolling it out to their list of defenders." (我们知道有两个模型能做这件事。白宫在阻止 Mythos 进一步推出。同时,OpenAI 正在把具备相同能力和特征的模型推给它的 defender 列表。)
核心洞察:单点拦截毫无意义——能力已经在多个前沿模型上出现。拦截 Mythos 不能拦截 GPT 5.5;6-18 个月后会再多 2-3 个同等模型。这就是为什么 Wes Roth 引用 Dean Ball 说"建坝挡海啸"——能力扩散无法被任何一国政府的单点行动阻止。
三、$1.73 + 10 分钟:成本压缩比能力提升更重要
视频里被反复强调的关键数据点:
反向工程挑战:
- 人类专家需时间:12 小时
- GPT 5.5 完成时间:10 分 22 秒
- API 成本:$1.73
核心洞察:这不是技术进步——这是经济门槛的崩塌。
让我们看这意味着什么:
传统时代:
雇个人类专家做反向工程 → $200/小时 × 12 小时 = $2,400
+ 雇佣前的招聘 / 信任建立成本
GPT 5.5 时代:
$1.73 + 10 分钟
没有招聘 / 信任建立成本
没有规模上限
这是 1387 倍的成本压缩($2,400 / $1.73)。
当一项能力的成本压缩到这个量级,访问门槛崩塌:
- 之前需要资本主义国家级的专业资源才能做到的事 → 现在任何有 $20 月费的人都能做
- 之前需要几年训练才能掌握的技能 → 现在按需调用
Wes Roth 的关键判断:
"If this was available to everybody around the world, that could cause issues." (如果这能让全球任何人都能用,会出问题。)
核心洞察:网络安全秩序的根基不是「攻击太难」,是「攻击太贵或太慢」。当 AI 把这两个维度同时崩塌时,整个秩序失去了它的物理基础。白宫拦截 Mythos 是想给秩序争取时间——但这是个延缓措施,不是解决方案。
四、工程师群体的认知盲区:「我能做的 AI 也能做」
视频里 Wes Roth 花了相当篇幅拆解一个广泛存在的认知盲区——很多顶级软件工程师对 AI cyber 能力轻描淡写,理由是"我自己也能找到这些漏洞"。
他们的论点:
"What's the big deal? Smart engineers could, given the right resources, find these vulnerabilities. They're saying it's illegal to hack, so therefore those people don't hack. What's the big deal?" (有什么大不了的?聪明工程师在合适资源下能找到这些漏洞。他们说既然 hack 是违法的,那些人不会去 hack——有什么大不了?)
Wes Roth 拆这个盲区拆得非常透:
这些工程师是世界 1% 的顶级人才——他们的智力 + 教育 + 经验让他们觉得 AI 不带来新东西。但他们对比的是「最优秀的人类」,而不是「99% 没编程能力的普通人」。
对剩下 99% 的人:
- 他们不会编程
- 他们没有英语母语水平
- 他们没有技术资源
- 他们可能在世界某个地方法律不严的环境
当 AI 能让他们突然能做以前完全做不到的事——这是 0 → 1 的跃迁。
类比印刷术:
"This is like the printing press. It gives everyone the ability to create or read books. It distributes them to a much wider audience. No longer need to be a scribe, one of the chosen few to be able to write and create books. This democratizes against a very wide population." (这就像印刷术。它让所有人都能写或读书。不再需要成为抄书人——少数被选中的人才能写或创造书。它向极大的人口做了民主化。)
核心洞察:网络攻击能力曾经是「极少数有资源 + 有技能 + 有动机」的人的特权——这三重过滤是网络安全秩序的根基。当 AI 把"有技能"这一条夷平后,剩下两条过滤会被全球范围的「有动机但缺资源 / 缺技能」群体大量穿透。
最关键的人群:
- 在贫困国家、法律执行薄弱的地区
- 经济上对 hack 收益有强烈刚需
- 不需要英语水平也能用的工具
这个人群之前是被「技能门槛」挡住的——AI 让他们突破这个门槛。
五、「事实 licensing」制度:无立法的国家干预
Wes Roth 引用了 AI 政策分析师 Dean Ball 的关键判断——白宫的拦截行为已经构成事实上的 licensing 制度,但没有任何法律基础。
Dean Ball 的逻辑:
白宫决定 Anthropic 不能扩展 → 实质上是颁发许可证
但:
没有正式立法
没有评审机构
没有公开标准
没有正式申诉机制
Dean Ball 的核心警告:
"This is just not enough to create long-term safety. It's like building a dam against a tsunami." (这远不够创造长期安全。这就像建坝挡海啸。)
为什么不够:
- 6-18 个月内同等能力会扩散到其他西方实验室
- 中国开源实验室会很快产生同等能力的模型
- 单方面拦截无法阻止全球能力扩散
Dean Ball 的建议方向:
需要技术安全机制(technical safeguards),不仅仅是访问限制。
Wes Roth 总结的反直觉观点:
技术 AI 安全可以是 「加速主义」(accelerationist) ——如果它让 defender 安全使用更强模型来 patch 系统,那 AI 安全研究本身就在加速 AI 部署,而不是阻碍它。
核心洞察:「访问限制」与「技术安全」是两条根本不同的路径。访问限制是政治路径——靠政府权力暂时延缓。技术安全是工程路径——靠模型架构层面的安全机制根本性解决。短期可能两者都需要,但长期只有技术路径可持续。
六、Anthropic 在政府关系上的脆弱位置
视频后段 Wes Roth 揭示了一个不显眼但重要的政治维度——Anthropic 跟 Trump 政府之间的结构性不信任。
信任赤字的来源:
- Biden 时代关系:Anthropic 创始人与 Biden 政府关系密切
- AI 监管派代表:Anthropic 一直主张 AI 应该被规制
- Pentagon 争议:Anthropic 拒绝某些军方使用场景,引发与五角大楼的公开争吵
对比 OpenAI 的政府关系:
- David Sacks(OpenAI 早期投资人 / All-In Pod 主持人)现在是 Trump 政府顾问
- OpenAI 在 Trump 政府里有结构性盟友
- Sacks 在视频里直接表态:"demystify mythos"——质疑 Anthropic 的安全叙事是营销
Anthropic 守的两条红线:
- 拒绝用 AI 做美国公民监控
- 拒绝用 AI 做自主战争
Wes Roth 的判断:
- 大多数公众支持 Anthropic 守这两条红线
- 但 Trump 政府对此不耐烦——觉得"外部公司不能给政府使用其技术划红线"
核心洞察:Mythos 拦截事件不只是 AI 安全事件,是 Anthropic 与 Trump 政府博弈的一个具体战役。同样的事如果发生在 OpenAI 身上,结果可能完全不同——因为 OpenAI 在政府内有结构性盟友,Anthropic 没有。
七、David Sacks 的反框架:去神秘化 Mythos
视频里有重要的反方观点——David Sacks(Trump 政府顾问、All-In Pod 主持人)的反框架。
Sacks 的核心论点:
- Mythos 不是魔法、不是末日装置——只是一个能自动化网络安全任务的 AI 模型
- GPT 5.5 已经能做同样的事——这不是 Anthropic 独有
- 6 个月内所有前沿模型(包括中国开源模型)都会达到这个水平
- 这些模型不创造漏洞,只是发现已存在的漏洞——类比显微镜让我们看到细菌,但细菌一直存在
- 唯一的合理对策是:尽快把这些模型给 trusted defenders,让他们 patch 漏洞
类比显微镜:
"Being able to see bacteria crawling in our skin didn't create a new danger. It just allowed us to study it better." (能看到皮肤上爬的细菌没创造新危险。它只是让我们能更好地研究它。)
Sacks 的「Defender Imperative」:
不要神秘化 Mythos,尽快武装 defender——这是唯一能跟得上能力扩散的策略。
Wes Roth 的态度:相对中立,但更倾向 Anthropic 派——认为 Mythos 确实是 watershed moment(分水岭),需要谨慎释放。
核心洞察:Sacks 派与 Anthropic 派的真正分歧不在事实判断(双方都同意能力会扩散),在于「我们应该用多大力气延缓扩散」。Sacks 派认为延缓没用,应该把精力放在加速 defender;Anthropic 派认为延缓能给安全研究买时间。这两条路径会决定未来 12 个月美国政府的实际政策。
八、对中文读者的特别启示
如果你之前读了我们前面 4 篇报告(Sabrina Ramonov AI 80 年安全简史、TheAIGRID Grok 5、TheAIGRID Codex、Wes Roth 这篇),会发现一个清晰的元主题:
2026 年 4-5 月是「AI 监管模式」从「自由市场软件」转向「国家管控基础设施」的拐点。
几个具体信号:
- 白宫拦截 Mythos(本视频)—— 政府第一次实质性干预 AI 模型部署
- Anthropic Claude Mythos 主动不公开(参考 Sabrina 那篇报告)—— 公司第一次主动收敛
- Musk 的 Grok 5 公开宣称 AGI(参考 TheAIGRID Grok 5 那篇)—— 行业开始公开锚定 AGI 时间
- OpenAI 的 Codex 平台化(参考 TheAIGRID Codex 那篇)—— AI 工具走出程序员市场
这四件事一起意味着:
- AI 不再是个纯技术 / 商业话题
- 它正在成为地缘政治、国家安全、产业战略话题
- 未来 12-24 个月所有 AI 相关决策都需要从这个新 frame 思考
对中文读者最实操的几个判断:
- 如果你做 AI 创业:开始思考你的产品在「国家管控基础设施」框架下会怎样——尤其是涉及 cyber、生物、金融等敏感领域。
- 如果你做投资:那些"被拦截"的公司(Anthropic)短期估值受打压、长期可能反而有政府关系溢价(如果 Trump 之后政府变化)。
- 如果你是技术从业者:理解"$1.73 + 10 分钟 = 12 小时人类工作"这个数字——它代表你需要持续学新工具,因为旧工具的价值在快速折旧。
- 如果你只是普通用户:开始注意你用的 AI 工具的"政治位置"——以后可能会出现"你能用这个 AI、不能用那个"的情况,提前理解为什么。
最值得提防的认知陷阱:
不要陷入 Wes Roth 拆解过的工程师盲区——「我自己能做的 AI 能做又怎样」。这是 1% 视角,对全球 99% 的人来说世界正在被根本性改写。
行动启示
Step 1(今天 10 分钟):建立「AI 监管转型」心智模型
把这 4 个事件按时间排序记忆:
2026 年 4 月 - Anthropic 拒绝公开 Claude Mythos
2026 年 4 月底 - 白宫拦截 Mythos 扩展
2026 年 4 月底 - Musk 公开 Grok 5 = AGI 路线图
2026 年 5 月 - 行业开始公开讨论"AI 国家化"
这是个新阶段的开端——后续 12 个月所有 AI 新闻都要在这个框架里看。
Step 2(每周):跟踪 3 个关键信号
- 白宫对 AI 的具体行动:是否有更多公司被拦截?是否出现正式立法?
- 能力扩散速度:Mythos 级 cyber 能力是否在 GPT 6 / 中国开源模型 / Gemini 4 上出现?
- 算力分配模式:Anthropic / OpenAI 的服务等级变化(谁优先、谁排队)
Step 3(如果你做 AI 相关工作):评估你的产品的"政治位置"
问自己 3 个问题:
- 我的产品是否处理敏感数据(cyber、医疗、金融、政府)?
- 我用的基础模型是否被 licensing 制度影响(即使是非正式的)?
- 我是否需要建立"国家关系"作为业务的一部分?
如果三个回答都是 yes,你需要重新设计产品策略——不是技术问题,是治理问题。
Step 4(每月一次):测一下「网络安全消费者侧」
具体动作:
- 启用 2FA + 强密码管理器(如果还没做)
- 检查家庭网络(路由器固件版本)
- 评估你用的 SaaS 服务的安全配置
为什么:当攻击成本压缩到 $1.73 时,普通家庭和小企业也会成为目标——不是因为攻击者特别针对你,是因为成本足够低使得"扫描全互联网寻找弱点"变成商业可行。
最值得记住的元洞察:AI 把网络安全从「极少数高技能攻击者 vs 大多数防御者」的不对称游戏,转变为「任何有 $20 月费的人 vs 防御者」的对称游戏。这是过去 30 年互联网安全模型的根本性失效——不是攻击变强了,是攻击者数量变了几个数量级。未来 5 年最大的网络安全话题不是「能不能防住 hacker」,是「能不能防住每个有 ChatGPT 订阅的人」。
附录
金句收录
"It's less like Photoshop and more like weapons-grade uranium." 它不像 Photoshop,更像核武级铀。 ——对 AI 监管模式转型的精准比喻
"This is just not enough to create long-term safety. It's like building a dam against a tsunami." 这远不够创造长期安全。这就像建坝挡海啸。 ——Dean Ball 对白宫拦截行动的评价
"They're comparing AI capabilities at that point to their abilities. Here's the thing. Their abilities usually are world class. They're part of a very small percentage of the world's population." 他们在拿 AI 能力对比自己的能力。问题是,他们的能力通常是世界级的。他们是世界人口里非常小的一部分。 ——拆解工程师群体的认知盲区
"For the other 99% of the population, they're comparing it to nothing, not being able to do it. If you can't code, you can't code. So if an AI comes along that can code, your ability to code is dramatically increased." 对剩下 99% 的人,他们对比的是"无法做到"。如果你不会编程,你就是不会编程。当 AI 能编程时,你的编程能力被戏剧性地提升。 ——0 → 1 跃迁的核心论点
"The defender imperative is to get these models into the hands of trusted defenders quickly." Defender 责任就是尽快把这些模型给可信 defender 用。 ——David Sacks 的反框架
"This is like the printing press." 这就像印刷术。 ——对 AI 民主化能力扩散的最佳类比
"Mythos is the biggest sort of model that Anthropic produces, it's a brand new class." Mythos 是 Anthropic 制造的最大模型,是个全新等级。 ——关于算力消耗为什么会成为政治问题的关键事实
术语表
- Claude Mythos:Anthropic 2026 年 4 月发布的最新模型,比 Opus 高一个等级。当前对公众未开放。
- AISI:UK AI Security Institute(英国 AI 安全研究所),政府支持的前沿模型评估机构。
- Last Ones:AISI 的 cyber range 测试——32 步模拟企业网络攻击。人类专家需要 20 小时完成。
- end-to-end multi-step cyber attack simulation:端到端多步网络攻击模拟。Mythos 完成 3/10 次,GPT 5.5 完成 2/10 次。
- Defender / Defenders:AI 公司用于描述被授予访问权的"防御方"——通常是大型企业、银行、政府机构。
- Soft Licensing Regime:事实 licensing 制度——没有正式立法但实际操作上限制访问的安排。
- Watershed Moment:分水岭时刻——Anthropic 用此描述 Mythos 的意义。
- Compute Crunch:算力危机——新一代模型消耗算力远超上一代时出现的资源紧张。
- Pentagon dispute:Anthropic 与五角大楼之间关于 AI 军用红线的公开争议。
- codex-bar:Peter Steinberger(前 OpenClaud 作者)开发的开源工具,监控 Codex / Claude Code 的 token 配额。
时间线索引
[00:00]开篇:白宫想阻止 Anthropic 扩展 Mythos[00:30]GPT 5.5 是第二个能完成完整多步 cyber 攻击的模型[01:00]50 → 120 个组织的扩展计划被拒[01:25]白宫两个理由:国家安全 + 算力争抢[02:00]Anthropic 反驳:算力不是问题[02:55]GPT 5.5 同步给 OpenAI 的 critical defenders[03:30]AISI 「Last Ones」cyber range 介绍[04:00]32 步 = 人类专家 20 小时[04:30]Mythos 完成 3/10 次[04:45]GPT 5.5 完成 2/10 次 + 71.4% 专家级得分[05:00]Mythos 找出 27 年 OpenBSD 漏洞[05:20]关键经济学:$1.73 + 10 分钟 = 12 小时人类工作[05:55]「核武级 vs Photoshop」对比[06:30]「软 licensing 制度」概念引入[07:30]工程师群体的认知盲区开始拆解[09:00]「我能做的 AI 也能做」论点的反驳[10:00]印刷术类比[11:00]Dean Ball 引入 + 「建坝挡海啸」[12:30]技术 AI 安全的「加速主义」可能性[13:00]算力分配是隐藏维度[14:00]Mythos 是新一代——比 Opus 大一个量级[14:30]David Sacks 的反框架开始[15:30]「Don't mystify Mythos」[16:30]「Models don't create vulnerabilities, they expose them」[17:00]显微镜 / 细菌类比[17:30]Defender Imperative[18:00]Anthropic 与 Trump 政府的信任赤字[19:00]Pentagon dispute 介绍[19:30]Anthropic 的两条红线(自主战争 + 监控公民)[20:30]算力危机的具体细节(Mythos vs Opus)[21:30]收尾:cyber 安全格局正在被重构
评论
还没有评论,来第一个留言吧 ✨