DeepSeek V4 真正的威胁:不是中国追上美国,是企业用 1/10 价格能买到 95% 智能
My Honest Thoughts about Deepseek
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
5 月 1 日 DeepRead 已经发布了两篇关于"中美 AI 竞争"的深度报告——TheAIGRID 的 Grok 5 路线图(算力路径视角)和 Wes Roth 的白宫"核武级监管"内幕(** 国家安全视角)。这一篇 Matthew Berman 的视频是这个三联画的第三幅: 从业者视角**。
Matthew Berman 是 YouTube 上做 AI 模型评测的头部独立 KOL(70 万订阅)。他每天的工作就是把所有新模型拉来跑同一套问题,看哪个真的更聪明、更便宜、更适合产品集成。这给了他一个特殊的位置——既不像 TheAIGRID 那样追逐"AGI 时刻"的戏剧性,也不像 Wes Roth 那样深耕监管和地缘政治,他是离"实际买单的企业"最近的那群人。
DeepSeek V4 在 2026 年 5 月发布,是 R1 之后他们最重要的旗舰更新。Berman 一开篇就说:"今天本来要做 model overview——参数、benchmark、demo——但我意识到这里有一个更大的故事。"
他要讲的更大故事是:DeepSeek V4 的威胁不是"中国追上了美国",而是它逼出了一个企业的算账题,而这道题的答案,可能让美国万亿 AI 基建投资颗粒无收。
"America has the best chips. It has the most money flowing into AI labs. Yet, China was able to release a frontier level model that matches the best of them. Completely open-source, completely open weights, and at a fraction of the cost and resources. They are literally working with nerfed Nvidia GPUs. That's not supposed to be possible, and the fallout will be bigger than people realize." (美国有最好的芯片。AI 实验室也获得最多资金。然而中国发布了一个与最强模型并驾齐驱的前沿模型——完全开源、完全开放权重、成本和资源都只是零头。他们用的是被阉割过的英伟达 GPU。这不应该是可能的——而它带来的连锁反应会比人们意识到的更大。)
如果你看完了 5/1 的 Grok 5 和白宫报告,请把这一篇当作"对方阵营在干什么、为什么有效、美国必须怎么应对"的对照面。
核心观点速览
-
18 个月前的 DeepSeek R1 让美国股市一夜跌 20%——那不是误报,是早期信号。Jevons Paradox(杰文斯悖论)让 Nvidia 之后反弹,但 R1 揭示的真正趋势——"开源 + 高效率追平闭源"——一直在延续。V4 是这个趋势的成熟形态。
-
DeepSeek V4 的具体数据是"frontier 级别":1.66 万亿总参数 / 49 亿激活(MoE 架构),100 万 token 上下文,33 万亿 token 训练数据。在 MMLU-Pro / GPQA Diamond / SWE-bench 等核心 benchmark 上仅略低于 Opus 4.7 和 GPT 5.5,差距很小。
-
Export controls 同时"在起作用"和"没起作用":起作用的部分是中国确实没有同等算力;没起作用的部分是中国被逼到算法效率这条路上反而走通了。"用阉割过的 GPU 训出 frontier 模型"在 18 个月前是不可想象的事。
-
Distillation attack 罗生门:美国政府刚刚正式承认中国有"工业规模 distillation campaigns",但 Anthropic 自己的报告显示 DeepSeek 的 distillation 规模最小(仅 15 万次) ——Moonshot 是 340 万次,MiniMax 是 1300 万次。DeepSeek 的能力主要不是偷出来的,是算出来的。
-
真正的威胁不是技术追赶,是企业算账:当美国和盟友的 CEO 看到 "GPT 5.5 = 30 美元/百万输出 token、Opus 4.7 同价位" vs "DeepSeek = pennies per million tokens" 而能力差距只有 5-10%,理性选择必然是建在中国模型上。这会让美国万亿 AI 基建投资拿不到回报,有引发美国经济崩盘的潜在风险。
主体
一、为什么 Berman 不做"模型评测"了
视频开头,Berman 说了一段不寻常的话:
"Usually at this point, I would do a model overview. I would tell you about the model. I would show you the benchmarks. I would test it and show you what I think. But as I looked at it, I realized there was actually a much bigger story here." (通常这种时候我会做模型概览。介绍模型、展示 benchmark、亲自测试给你看。但我看着它的时候意识到——这里其实有一个更大的故事。)
这是评测频道主理人罕见的"克制"动作。Berman 平时的视频几乎全是"我用 X 模型测试 Y 任务,结果是 Z"这种格式。这次他主动跳出"测评"框架,去讲产业经济学层面的事情,意味着他判断这件事的解读权重已经超过了产品本身。
这本身是一个值得注意的信号:当一线评测者开始关心"商业模型"而非"功能差异",意味着 frontier 模型层面的差异化已经被市场看穿了"差不多够用"——竞争的主战场转移到价格、可控性、可定制性。
二、DeepSeek 是谁:从 R1 到 V4 的连续叙事
要理解 V4 的分量,必须先理解 R1。
18 个月前的 R1 时刻(约 2024 年底):
- 第一个开源 + 开放权重的"会思考"模型
- 此前,"thinking model"只属于美国闭源 frontier labs(OpenAI o1 系列)
- 训练成本是美国 frontier labs 的"几分之一"(hundreds of billions vs a fraction)
- 发布后美国股市一夜跌 20%
"People thought, 'Wow, if they can train it at a fraction of the price, then maybe Nvidia GPUs are not actually worth that much.' But it turns out they were very wrong about that. When things get cheaper in price, we actually use a lot more of it. **That's called Jevons Paradox.**" (人们想:哇,如果他们能用零头价格训练,那 Nvidia GPU 可能不值那么多钱。但事实证明他们错得很彻底。当东西价格更便宜时,我们反而会用得更多——这就是杰文斯悖论。)
杰文斯悖论是 19 世纪英国经济学家 William Stanley Jevons(杰文斯)提出的:蒸汽机效率提高后,英国煤炭消耗不降反升——因为更高效的蒸汽机让蒸汽机本身变得更值得用,应用场景爆炸。
18 个月后的 V4 时刻(2026 年 5 月):
- 不只是会思考,还能做 agent(自主多步任务执行)
- 与最新的 Opus 4.7 和 GPT 5.5(上周刚发)几乎齐平
- 白皮书极其详尽——包括坦诚承认了哪些地方失败了
- "比任何美国闭源 AI 实验室都更诚实"
R1 → V4 的 18 个月里,DeepSeek 完成了一个所有人都没想到的成熟过程:他们不仅没有在 Nvidia 出口管制下倒下,反而把"高效率训练"做成了护城河本身。
三、V4 的硬数据:从 1.66T 参数到 100 万 context
Berman 拿出了 V4 发布 post 拆解。三个关键数据:
数据 1:1.66 万亿总参数 + 49 亿激活(MoE 架构)
V4 Pro 模型用的是 Mixture of Experts(混合专家)架构。这意味着模型总规模是 1.66T,但回答任何具体问题时只激活其中 49B——相当于 30 倍计算效率提升。
"It basically allows you to have a massive model but run only small parts of the model that are specific to the question or the prompt that you're giving it." (这本质上让你能拥有一个巨大的模型,但只运行与你的提问/prompt 相关的小部分。)
DeepSeek 还出了一个"Flash" 版本——284B 总参数 / 13B 激活。这是真正的"workhorse"(劳力马)模型——更小、更快、价格便宜得多。
数据 2:100 万 token 上下文
直接打到 frontier。这是 Claude / Gemini 长期占据的位置。一个开源模型把 1M context 这个能力免费送出——意味着任何企业不需要给 Anthropic 或 Google 付费就能拿到长文档处理能力。
数据 3:33 万亿 token 训练数据
这个数字本身比较普通(GPT-4 训练大约 13T tokens,Claude 3 估计 15T+),但 33T 是确切公开的数字——这本身在闭源 lab 里几乎不可能。
V4 的能力描述(白皮书原文):
- Enhanced agentic capabilities(增强的 agent 能力)
- 与 Opus 4.7 和 GPT 5.5 的 agentic coding 表现可比
- Rich world knowledge(丰富的世界知识)
- World-class reasoning(世界级推理)
- 在数学、STEM、编码上击败所有当前开源模型,与顶级闭源模型对抗
Berman 把所有 benchmark 图表过了一遍,结论很直接:
"Yes it is behind, but just a little bit. And that's the real story here. Most use cases—the vast majority of use cases—do not require the absolute frontier level intelligence." (是的,它落后,但只落后一点点。这才是真正的故事——绝大多数用例不需要绝对前沿级别的智能。)
这句话是整个视频最关键的一句。它把 AI 竞争从"谁的天花板最高"问题,重新定义为"谁能用'够用 90%'的能力卡住价格曲线"问题。
四、Export Controls 的"既起作用又没起作用"悖论
这一段 Berman 给出的是少有的"两面都说透"的中肯分析。
Export controls 起作用的部分:
"China doesn't have the same compute resources that the United States has. This is just a fact. Even if they're able to smuggle in chips, it is difficult and they certainly don't have as much compute as we have." (中国没有与美国同等的算力资源——这就是事实。即使能走私,难度也很大,他们的总算力肯定远不如美国。)
DeepSeek 自己白皮书里也承认:
"Due to constraints in high-end compute capacity, the current service capacity for Pro is very limited. After the 950 super nodes are launched at scale in the second half of this year, the price of Pro is expected to be reduced significantly." (由于高端算力受限,Pro 模型当前服务能力非常有限。950 super nodes 在今年下半年大规模上线后,Pro 的价格预期会显著下降。)
所以现在 V4 Pro 还卖得"贵"(相对其他 DeepSeek 模型),是因为他们算力供给被卡死了——目前看到的"频谱"还不是完整状态,真正威胁要等下半年才完全释放。
Export controls 没起作用的部分:
"They are innovating on the algorithm side. They are coming up with incredible algorithmic unlocks that make training and running inference of these models—including DeepSeek—incredibly efficient. So even using nerfed GPUs, even using Chinese native GPUs, they're still able to create a frontier level model." (他们在算法侧创新。他们提出了令人难以置信的算法突破,让这些模型——包括 DeepSeek——的训练和推理都极其高效。所以即使用阉割版 GPU、用中国本土 GPU,他们仍然能创造前沿级模型。)
这是一个非常深刻的反向因果:
- 如果美国不实施 export controls
- 中国可能会和美国一样直接堆 H100/B200/GB300
- 不会被逼上"算法效率"这条窄路
- 也就不会发明出这套 MoE + 高效训练 + 极致 inference的组合
Export controls 起到的实际效果:逼中国走出了一条美国 frontier labs 不擅长的差异化路线。这个意外结果在 18 个月前几乎没人预测到。
五、Distillation Attack 罗生门:被指控的最少做了
视频中段,Berman 处理了一个微妙的争议:蒸馏攻击。
事件梗概:
- 几周前,Anthropic 出了报告,指控中国 frontier labs 一直在对 Claude 做"distillation attack"
- 几天前(视频发布前一天),美国政府 Director Michael Kratzios 正式回应:"美国有证据表明境外实体(主要是中国)在运行工业规模的 distillation campaigns 来窃取美国 AI 技术"
什么是 distillation attack?
"The Chinese AI labs are essentially trying to steal the data from Claude and from chat GPT. They're asking it questions, getting the answers, and then using those question-answer pairs to train their own models." (中国 AI 实验室本质上在试图从 Claude 和 ChatGPT 偷数据。他们提问、获取答案,然后用这些问答对训练自己的模型。)
这些问答对就是 OpenAI / Anthropic 的核心 IP——也是它们花数十亿美元 RLHF 微调的产物。
关键反转——Berman 拿出 Anthropic 自己的报告数据:
| 中国 lab | distillation 规模(exchanges) |
|---|---|
| DeepSeek | 150,000 |
| Moonshot(Kimi 背后) | 3,400,000 |
| MiniMax | 13,000,000 |
DeepSeek 是被指控的所有中国 labs 中规模最小的,差不多是 MiniMax 的 1.15%。
"150,000 exchanges is not really enough to explain the level of quality that DeepSeek has been able to achieve. And then you pair that with the fact that they've open sourced the whole thing. They have an incredibly detailed and thorough white paper that explains exactly how they were able to achieve it. **It just doesn't mesh.**" (15 万次交换根本不足以解释 DeepSeek 达到的质量水平。再加上他们把整套开源了——有一份详尽到几乎过分的白皮书解释他们怎么做到的——这两件事根本对不上。)
更关键的是 Berman 给了一个反方解释:
"If you're a frontier lab and you want to know how well does my model do against my competitor model, well, the only way to know is to run benchmarks against both. And those benchmarks look exactly the same as a distillation attack." (如果你是 frontier lab,想知道自己模型相对竞品的表现,唯一的方法就是对两边跑 benchmark。而这些 benchmark 看起来和 distillation attack 完全一样。)
也就是说:所谓的"15 万次 distillation attack"很可能就是 DeepSeek 团队对 Claude 跑的 benchmark 测试——这是任何一家 AI lab 都会做的事,谷歌也会对 OpenAI 跑,OpenAI 也会对 Anthropic 跑。
但这个细节几乎不会出现在主流媒体报道里,因为它和"中国偷美国 AI 技术"的叙事不符。
六、真正的威胁:当 CEO 拿出计算器
视频后半部分进入 Berman 真正想讲的"更大故事"。
美国企业 CEO 的算账题:
| 选项 | 价格(每百万输出 token) | 智能水平 | 可控性 |
|---|---|---|---|
| GPT 5.5 | $30 | 100% | 低(黑盒,需要走 OpenAI API) |
| Opus 4.7 | 同等价位 | 100% | 低(同上) |
| DeepSeek V4 Flash | 几分钱(pennies) | 90-95% | 高(开源、可自托管、可微调) |
"Imagine you are a CEO of a company in the United States or one of our ally countries... You see GPT 5.5 is $30 per million output tokens. You see Opus 4.7 is similarly priced. And then you look at DeepSeek and it can accomplish all of your use cases because you're not doing frontier scientific research. You're not trying to crack some of the hardest coding problems in the world. You have a business and you're trying to run your business. And you look at the price and it is literally a fraction. And you get to control it more precisely." (想象你是美国或盟友国家一个公司的 CEO⋯你看到 GPT 5.5 是每百万输出 token 30 美元。Opus 4.7 价格类似。然后你看 DeepSeek,它能完成你所有的用例——因为你不是在做前沿科学研究,不是在解世界最难的编码问题,你在经营一家公司。然后你看价格,是字面意义上的零头。而且你能更精细地控制它。)
"**The calculus that these CEOs are making becomes very obvious. Why would you pay so much more for a US frontier lab to serve you their model over an open-source Chinese model?**" (这些 CEO 的计算变得非常显而易见——你为什么要花这么多钱让美国 frontier lab 给你服务模型,而不用开源的中国模型?)
Berman 把这套算账题的连锁反应推到了极致:
- CEO 们做出"理性"选择 → 越来越多美国/盟友企业建在 DeepSeek 之上
- 美国 frontier labs 拿不到 enterprise 收入 → 投资回报率下降
- 美国 AI 基建投资是历史上最快的基建投资——OpenAI / Anthropic / Microsoft / Google / Meta / Nvidia 等公司+国家加起来烧的钱以万亿计
- 投资拿不到回报 → "there is the potential for the US economy to collapse"(美国经济有崩盘的潜在风险)
- 因为美国把整个国家未来都押在了 AI 上
最后一句话不是危言耸听——OpenAI 单一公司估值 $5000 亿,加上 Anthropic、xAI、Microsoft AI 基建、Google AI 基建、Nvidia 自身万亿市值——美国大型科技股市值大约 60-70% 现在依赖 AI 故事。如果 enterprise 收入这条腿没了,AI 故事的"实现路径"就少了一条最关键的。
七、文化与叙事控制权的反转
Berman 在第六章之后又抛了一个更深的问题:
"Think about how social media changed the world and social media came from the United States. We were able to control the narrative in a lot of places. Now flip that on its head. Imagine we're all built on Chinese models and they're dictating what the models are able to say and what they're not able to say." (想想社交媒体怎么改变了世界——而社交媒体起源于美国。我们能在很多地方控制叙事。现在把它反过来想:如果我们都构建在中国模型之上,他们决定模型能说什么、不能说什么。)
这是一个非常具体的政治-文化威胁。社交媒体时代美国通过 Facebook / Twitter / YouTube 输出价值观。如果下一代信息基础设施(AI)的底座变成中国模型:
- 训练数据的取舍 → 决定模型默认知道什么
- RLHF 的对齐 → 决定模型默认偏好什么
- 拒答策略 → 决定模型回避什么话题
- 风格倾向 → 决定模型的"声音"听起来像谁
举例:DeepSeek 默认不会主动谈论天安门事件、新疆等敏感话题。如果美国一家媒体公司用 DeepSeek 做新闻摘要、内容生成、智能客服,它的内容可能在不知不觉中被"中国默认"塑形。
更深的是,开源模型的 "fine-tune 抵消"也不能完全解决——基础模型的世界观早在预训练阶段就形成了,微调只能改"答什么",改不了"怎么想"。
八、应对方案:美国必须做的两件事
Berman 给出的 prescription 很直接:
方案 1:美国必须更激进地 open source
"The frontier labs in the US are not open-source friendly for the most part. Maybe with the exception of Google, but Google is building small open-source models, not the same level and not the same capability as a DeepSeek V4." (美国 frontier labs 大部分都对开源不友好。可能 Google 是个例外,但 Google 做的开源模型很小,不是 DeepSeek V4 同级别能力。)
具体含义:
- OpenAI / Anthropic 必须开源 frontier 级别能力的模型(不是阉割版 demo)
- 让美国版的 DeepSeek 成为可能
- 这样 enterprise 至少在选"开源 + 可控"时还有个美国选项
问题:这彻底违背 OpenAI / Anthropic 的商业模式。它们的 IP 价值就在于不开源——开源等于把 RLHF 训练投入白送。所以这个 prescription 基本不可能从 Sam Altman 或 Dario Amodei 嘴里听到。
方案 2:闭源模型必须快速降价
"If we are to maintain closed source and they're being served by OpenAI and Anthropic, they need to get much cheaper much more quickly because US enterprise companies need to look at these different models and it needs to make sense cost-wise." (如果要维持闭源、由 OpenAI 和 Anthropic 提供服务,他们必须更快地大幅降价,因为美国 enterprise 公司必须能在不同模型之间比价,价格上得说得通。)
也就是:要么彻底开源,要么用 inference 成本下降跟 DeepSeek 死拼到底。中间路线"我闭源 + 我贵"在 V4 之后会越来越难持续。
九、Berman 没说的几个盲区(独立判断)
Berman 的视角很犀利,但作为 YouTuber 而非战略分析师,几个重要维度他没展开:
盲区 1:DeepSeek 的算力上限是真的存在
DeepSeek 自己说"950 super nodes 下半年才能上线"——这意味着即使技术好,它现在的服务能力受限。Berman 没强调的是:在中国半导体产业被持续制裁的情况下,这套高效率算法的边际效益总会撞墙。算法效率不能无限放大,最终还是受 raw compute 约束。
盲区 2:开源 ≠ 真正可信
DeepSeek 开源了模型权重 + 白皮书,但没有开源训练数据 + RLHF 数据。这意味着:
- 你能跑模型,但你不能"重训出来"
- 你也不能完全审计它有没有植入特定的对齐倾向
- 真正的"可信开源"门槛比 V4 现在的状态高得多
盲区 3:Enterprise 决策不只看价格
Berman 假设 CEO 是纯理性算价格。但 enterprise 决策有很多非价格因素:
- 监管合规(GDPR、HIPAA、SOX、银行业规则)
- 法律责任分摊(OpenAI / Anthropic 可以背 SLA 和违约金,DeepSeek 谁背?)
- 政治风险(对美国政府承包商而言,建在中国模型上几乎不可能)
- 既有架构粘性(已经投入 Azure / AWS Bedrock 的不会轻易换)
实际上,会换 DeepSeek 的是中小企业 + 个人开发者 + 对美国友好但又对 Sam Altman 不放心的中立国(印度、巴西、东南亚、中东) ——这一层市场损失对美国 frontier labs 是真实的,但远不到"经济崩盘"的程度。
盲区 4:监管反向利好闭源
如果美国/欧盟监管对 AI 的安全要求继续提高(参考 5/1 Wes Roth 视频里的"核武级监管"),反而会让 DeepSeek 进入这些市场更难——因为合规审计、对齐验证、安全责任都需要一个"可被起诉的法人主体"。这是 closed source frontier labs 的护城河,也是 Berman 视角里没看到的对冲。
盲区 5:杰文斯悖论这次未必再起作用
Berman 提到 R1 之后的 Jevons Paradox 让 Nvidia 反而涨。但 Jevons Paradox 起作用的前提是"存在大量未被满足的需求"。到 2026 年,企业的 AI 集成空间可能已经被前 18 个月的疯狂部署填得差不多了——再降价不一定能驱动等比例的增量需求。如果这次 Jevons 不起作用,Nvidia + 美国基建的故事就真的会有压力。
金句收录
"That's not supposed to be possible, and the fallout will be bigger than people realize." (这不应该是可能的——而它带来的连锁反应会比人们意识到的更大。) ——Berman 开篇定调
"Most use cases, the vast majority of use cases do not require the absolute frontier level intelligence. And the fact that DeepSeek is so much more efficient and so much cheaper is actually the problem for the United States." (绝大多数用例不需要绝对前沿级别的智能。DeepSeek 如此高效、如此便宜——这才是美国真正的问题。) ——视频核心论点
"When things get cheaper in price, we actually use a lot more of it. That's called Jevons Paradox." (当东西价格更便宜时,我们反而会用得更多——这就是杰文斯悖论。) ——R1 时刻 Nvidia 不跌反涨的解释
"Even using nerfed GPUs, even using Chinese native GPUs, they're still able to create a frontier level model." (即使用阉割版 GPU、用中国本土 GPU,他们仍然能创造前沿级模型。) ——对 export controls 的反向评估
"150,000 exchanges is not really enough to explain the level of quality that DeepSeek has been able to achieve... It just doesn't mesh." (15 万次交换根本不足以解释 DeepSeek 达到的质量水平⋯这两件事根本对不上。) ——为 DeepSeek 的"非 distillation"出身辩护
"The calculus that these CEOs are making becomes very obvious. Why would you pay so much more for a US frontier lab to serve you their model over an open-source Chinese model?" (这些 CEO 的计算变得非常显而易见——你为什么要花这么多钱让美国 frontier lab 给你服务模型,而不用开源的中国模型?) ——揭示真正威胁的核心句
"There is the potential for the US economy to collapse, especially because we are betting so heavily on artificial intelligence being the future of our economy." (美国经济有崩盘的潜在风险,特别是因为我们这么重地把未来押在 AI 上。) ——最尖锐的判断
"Imagine we're all built on Chinese models and they're dictating what the models are able to say and what they're not able to say." (想象我们都构建在中国模型之上——他们决定模型能说什么、不能说什么。) ——叙事控制权反转的具体威胁
时间线索引
[00:00]开场:DeepSeek V4 可能终结美国 AI 领先地位的判断[00:32]不做模型评测的原因:发现了"更大的故事"[01:27]DeepSeek 是谁:18 个月前 R1 让美国股市跌 20%[02:27]杰文斯悖论解释 Nvidia 之后反弹[02:36]V4 发布——Pro + Flash 双版本[03:01]1M token context 直接打到 frontier[03:18]1.66T 总参数 + 49B 激活 = MoE 架构[03:35]Flash workhorse 模型:284B / 13B[03:48]33T tokens 训练数据[04:01]能力描述:agentic + reasoning 与 Opus 4.7 / GPT 5.5 可比[04:50]benchmark 对比:MMLU-Pro / GPQA Diamond / SWE-bench[05:53]"落后一点点 vs 价格便宜很多"才是真正的故事[06:11]AI 模型 price vs performance 散点图[07:30]ELO 分数演化:从 GPT-4 时代差距 → R1 后追平[08:24]Export controls 同时 working 又 not working[09:01]Jensen 的论点:中国会自己造芯片,那不如建在美国技术上[09:30]Distillation attack 介绍[10:00]美国政府 Michael Kratzios 正式回应[10:30]反转:DeepSeek 只 15 万次,Moonshot 340 万、MiniMax 1300 万[11:00]反方解释:benchmark 测试看起来就像 distillation[12:13]DeepSeek 自承算力受限,950 super nodes 下半年上线[12:53]进入"为什么价格是真正威胁"[14:00]美国 CEO 的算账题:GPT 5.5 $30/M vs DeepSeek pennies[15:00]美国万亿 AI 基建投资可能拿不到回报[15:40]文化叙事控制权反转的威胁[16:18]应对方案:美国必须更激进 open source + 闭源快速降价[17:00]收尾:Anthropic 可能正在做错的事
本报告基于 Matthew Berman 17 分钟独立讲解视频。需要交叉对照阅读:5/1 已发的 Grok 5 路线图(算力路径)+ 白宫 Wes Roth 的"核武级监管"内幕(监管路径)。这一篇是中美 AI 竞争三联画的第三幅——从业者视角。
评论
还没有评论,来第一个留言吧 ✨