算力时代的四重奏:基础设施、产品、模型与能源的战略全景
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
这是什么节目,为什么值得读?
All-In Podcast 是硅谷最有影响力的科技投资人播客之一,由 Jason Calacanis、Chamath Palihapitiya、David Sacks 和 David Friedberg 四人联合主持。节目以敢于发表独立判断、不回避商业利益冲突、观点犀利著称,在科技和投资圈有极高传播力。这一期是在 Nvidia 年度旗舰大会 GTC 的现场录制——这意味着受访者都处于产业最核心的语境中,说的话不是公关稿,而是真实的行业判断。
四位嘉宾是谁,为什么重要?
Michael Intrator 是 CoreWeave 的创始人兼 CEO。他不是科技圈原生人,而是从算法对冲基金起家,经历加密货币挖矿,最终把 CoreWeave 打造成全球 AI 算力基础设施领域最重要的非超级巨头玩家。CoreWeave 直接服务 OpenAI、微软等顶级客户,在 18 个月内融资 350 亿美元,并于近期完成 IPO。他的重要性在于:他是距离 GPU 算力现实最近的人,比任何分析师都更清楚 GPU 到底在以什么方式被使用、以什么价格被定价。
Aravind Srinivas 是 Perplexity AI 联合创始人兼 CEO。他在 OpenAI 和 Google Brain 都有工作经历,深知大模型能力的边界,因此选择做"模型层之上"的产品,而非与巨头正面竞争训练模型。Perplexity 现在拥有数千万月活用户和数千家企业客户,且每一分收入都是正毛利率——这在当前 AI 应用公司中极为罕见。
Arthur Mensch 是法国开源大模型公司 Mistral AI 联合创始人兼 CEO。他代表了开源阵营在企业级 AI 落地中的真实价值——不只是"免费用 API",而是把整套训练能力部署到客户自己的服务器上,数据从不离境。Mistral 在欧洲监管环境下发展出了独特的商业路径,但其 25% 的业务和 25% 的研究人员已在美国。
Daniel Roberts 是 IREN(原名 Iris Energy)CEO。他和兄弟在澳大利亚创业,8 年前从比特币矿场起步,今天 IREN 拥有 4.5GW 电力储备,与微软签有 97 亿美元的合同,是已上市公司。他代表的是 AI 产业链中最被低估的一层:物理世界的土地、电力和冷却设施。
聊了什么,为什么值得读?
这是一次完整的 AI 产业链纵切——从最底层的能源和数据中心(IREN),到算力基础设施(CoreWeave),到模型层(Mistral),再到应用产品(Perplexity)。四段访谈各自独立,但主题层层递进。他们共同回答了一个问题:AI 时代的真实供需结构是什么样的,谁在稀缺,谁在增长,投资和创业的机会在哪里?
一句话核心论点
算力不是因为变便宜而需求减少,而是因为变便宜而需求爆炸——这个 Jevons 悖论将主导未来十年的 AI 产业竞争格局,而真正的稀缺,已经从 GPU 本身转移到了电力、土地和把算力及时上线的能力。
主体
核心观点速览
在展开详细分析之前,先给出五个核心结论,帮助你建立整体框架:
-
Jevons 悖论正在 AI 领域重演:token 成本从每百万 $32 降至 9 美分(降幅超 350 倍),带来的不是需求下降,而是需求爆炸。算力越便宜,用的人越多,用得越狠。
-
算力的真正瓶颈已从 GPU 转移到"time to compute":没有闲置的 GPU,真正制约 AI 落地速度的是土地、电力连接协议和熟练建筑工人的数量。
-
GPU 折旧叙事是空头制造的噪音:A100 今年价格上涨,5 年期客户合同广泛存在,经济性报废由电力机会成本决定,而非技术代际更替。
-
AI 应用的护城河不在于模型能力,而在于多模型编排层的速度、准确性与信任积累:模型能力趋同后,用户切换成本由信任而非功能决定。
-
企业级 AI 最大的采用障碍是数据主权,不是模型能力:开源模型的本地部署,是封闭模型在合规密集行业永远无法提供的解决方案。
第一章:CoreWeave——用金融工程重新发明算力融资
从对冲基金到 GPU 云:一段并非偶然的转型
Michael Intrator 的背景本身就是一个值得细品的故事。他原本经营一家专注天然气的算法对冲基金,算法建成后日常运营相对空闲,团队开始研究加密货币。他们评估了比特币挖矿,认为依赖 ASIC 芯片的业务模式中,芯片设计者的优势不可追赶,于是转向 GPU 挖以太坊——GPU 是通用硬件,运营效率比芯片设计更重要,这正是对冲基金擅长的领域。
2017 年,CoreWeave 诞生了。
"I kind of feel like buying those initial GPUs was the tuition we paid to learn how to run this business."(我觉得购买最初那批 GPU,是我们为学习如何运营这门生意所交的学费。)—— Michael Intrator
头三年,他们经历了几次"加密寒冬",但凭借对冲基金出身的风险管理能力安然渡过。随后,他们依次转型:加密货币挖矿 → CGI 渲染(电影动画) → 批量科学计算(医学研究) → 神经网络计算(2020-2021 年起)。每一次转型都是被市场需求拉动的,而非主动押注。
真正打通商业化的关键,是一个名为 Luther AI 的开源项目。
2020-2021 年,CoreWeave 购入大量 A100 GPU,捐赠给 Luther AI 的开源团队使用。逻辑是这样的:因为是捐赠,团队对服务质量不能有过多要求,CoreWeave 可以边做边学。结果出乎意料地好——Luther AI 的研究者们不断反馈"需要更多,你们要持续改进",这个过程中 CoreWeave 掌握了如何运营大规模并行计算基础设施的核心能力。
但更关键的是一个意想不到的传播效应:Luther AI 的志愿者们回到各自的日常工作(Google、OpenAI、高校研究机构)后,开始向雇主推荐采购 CoreWeave 的服务,因为他们亲身体验过,认为这是"正确的构建方式"。CoreWeave 早期的商业化启动,不是来自销售团队,而是来自开源社区的口碑传播。
这个细节揭示了一个深刻的创业原则:在早期,有传播力的社区用户(如开源研究者)比大客户更重要,因为他们是你产品的"种子传播者",不是因为利益驱动,而是因为真正的信念。
"Box":重新发明硬件融资的结构
CoreWeave 在 18 个月内融资了 350 亿美元。这不是凭空而来的,背后是一套被 Intrator 称为"the Box"(盒子)的金融工程结构。
理解这个结构,需要先理解它要解决的问题:AI 基础设施需要大量前期资本(买 GPU、建数据中心、拉电力),但传统风险投资不擅长给硬件资产融资,而传统银行对 GPU 这种新型资产缺乏定价能力。CoreWeave 用了一个接近项目融资(Project Finance)的结构,将 GPU 资产的价值清晰呈现给机构资本。
具体运作如下:
- CoreWeave 找到一个信用资质强的长期客户(比如微软)
- 双方签订 5 年的算力使用合同
- CoreWeave 创建一个独立的特殊目的载体(SPV),Intrator 叫它"the Box"
- 将三样东西放入 Box:微软的合同、从 Nvidia 购买的 GPU 资产、数据中心托管合同
- Box 管理所有现金流:微软的付款进入 Box → 第一优先级支付数据中心费和电费 → 第二优先级偿还贷款本息 → 剩余资金流回 CoreWeave
- 每个 Box 相互独立,一个出问题不影响其他 Box
为什么机构愿意出借资金? Intrator 说得很直接:
"Within 2.5 years of a 5-year deal, we have paid for everything. The principal's been paid off, the interest has been paid off."(在一个5年合同的2.5年内,我们就已经还清了所有的东西——本金还完了,利息也还完了。)
换句话说,在合同的前半段,贷款方就已经完全收回了本金和利息,剩余 2.5 年是纯利润。单 Box 的内部收益率(IRR)极高,而且在还款之前就已经证明了资产质量。
随着还款记录的积累,融资成本持续下降——在过去两年内,CoreWeave 的资本成本下降了 600 个基点。Intrator 说,他们正在向超级巨头(微软、谷歌、亚马逊)的融资成本靠拢,这些公司是全球资本市场上信用评级最高的借款人之一。这是一个正反馈飞轮:还款记录好 → 融资成本降低 → 更多资金进入 → 更多基础设施建设 → 更多客户 → 更好的还款记录。
GPU 折旧争论:Intrator 的反击
访谈中有一个话题显然让 Intrator 有些不满——关于 GPU 会在"16-18 个月内过时"的市场叙事。他的回应直接而有力:
"My take on the GPU depreciation debate is that it's nonsense. It's a debate that is being brought to the forefront by some traders that have a short position in the stock and they're trying to talk it down."(我对GPU折旧争论的看法是:这是无稽之谈。这个争论被推到前台,是因为一些持有空头头寸的交易员,他们试图把股价说低。)
他用了两个具体论据来支撑这个立场:
论据一:A100 今年价格上涨,而非下跌。 如果 GPU 真的在快速折旧,市场价格应该反映出来。价格上涨是市场集体判断的结果,比任何单一声音都更可信。
论据二:iPhone 12 的二手市场。 iPhone 12 在南美和非洲仍以约 $50 的价格被广泛使用,尽管 iPhone 已经出到了 16。技术产品的使用寿命,远远长于市场营销周期和媒体叙事周期。A100 在推理任务中的性能完全足够,而推理才是 AI 商业化的主战场。
CoreWeave 使用 6 年折旧周期(主流行业标准,Amazon 用 5 年)。Intrator 定义"报废"的方式也很独到:
"Obsolescence will be defined by the moment in time where the power in the data center for me will be able to be repurposed for a higher margin than the existing infrastructure provides."(报废时刻将由这样一个时间点来定义:数据中心里的电力,能够被重新用于比现有基础设施更高利润的用途。)
这是一个经济学框架,而非技术框架。真正决定"GPU 应该被替换"的时刻,不是新一代 GPU 出来了,而是同等电力用在其他地方能赚到更多钱——而现在,没有任何其他用途比运行 GPU 来满足 AI 推理需求更赚钱。
"If people are willing to pay me for it, it still has value."(如果有人愿意为它付钱,它就还有价值。)—— Intrator
Jason 接了一句:"Pretty simple way of approaching it."(挺简单的思考方式。)这句话简单到有些刺眼,但它其实是所有关于 GPU 折旧讨论的终极答案。
推理时代的到来:AI 真正商业化的信号
访谈中有一个容易被忽视但极为重要的洞察。Intrator 区分了训练(Training)和推理(Inference)的商业含义:
训练是研究投资,通常是一次性或周期性的大规模计算,用于构建模型。推理才是商业化变现,是每一次用户与 AI 交互时产生的算力消耗,是持续的、可以货币化的。
CoreWeave 的核心监控指标之一,是通过其基础设施层跑的推理计算量。Intrator 说推理需求正在急剧增长——这是一个信号,意味着用户不只是在"构建模型",而是在真正"使用模型"解决实际问题。ChatGPT-3 时代每百万 tokens 的成本约为 $32,现在降至 9 美分(OpenAI CFO Sarah Friar 的引述数据),降幅超过 350 倍。
这个数字有三层深意:
- 第一层:350 倍的成本降幅发生在不到 5 年内,比摩尔定律更陡峭
- 第二层:这是资本竞争、工程优化和模型自我改进叠加的结果,不会因为单一瓶颈而停滞
- 第三层(最重要) :每一次成本曲线下降,都创造了一个此前不可行的新应用类别——当 Jensen Huang 预测 token 成本还将再降低 50 倍时,今天还"太贵"的 AI 应用将批量成为可能
第二章:Perplexity——从搜索引擎到 AI 操作系统的三级跳
一个反常识的竞争策略:不押注任何单一模型
在 GPT-4、Claude、Gemini 等超级巨头碾压的市场中,Perplexity 是如何存活并增长的?
答案是:完全不跟他们竞争基础模型,而是做模型层之上的编排层(Orchestration Layer) 。
Perplexity 整合了 GPT、Claude、Gemini、Llama、DeepSeek、Kimi、Qwen 等所有主要模型,Srinivas 把它形容为"一个管弦乐团"——每个模型是一件乐器,Perplexity 是指挥。
这个策略的妙处在于:它是一个在任何单一模型胜出时都能受益的结构。无论最后是 OpenAI 还是 Anthropic 还是 Google 赢得基础模型竞争,Perplexity 都不会输——因为它整合了所有人。更深层的逻辑是:当模型能力趋于同质化(这是正在发生的事情),差异化转移到了执行速度、实时准确性和用户信任体系。
"Speed is our moat. It's very hard to maintain quality, speed, and trust at the same time."(速度是我们的护城河。同时维持质量、速度和信任非常困难。)—— Aravind Srinivas
护城河是信任,不是功能。 这是反直觉的。我们通常认为护城河来自技术能力或数据规模,但 Srinivas 的判断是:当所有模型能力趋同,用户在 AI 产品之间的切换成本,将由信任积累决定,而非功能差异决定。"上一次 AI 给我一个错误答案"的被背叛感,比"这个 AI 比那个 AI 写作更好"对用户行为的影响更持久。
"One common theme for us for the last three and a half years is accuracy. It turns out it was a great idea to give AI access to the internet to be accurate."(过去三年半,我们始终坚持的一个主题是准确性。事实证明,给AI接入互联网来保持准确性是个绝妙的想法。)—— Srinivas
财务模型:每一分钱都有正毛利率
Perplexity 在 AI 应用公司中的财务模型是相当罕见的:
"Every revenue Perplexity makes has positive gross margins. Every single penny we make, we make profits on that."(Perplexity 赚的每一分收入都有正毛利率。我们赚的每一分钱,都是盈利的。)—— Srinivas
这需要解释清楚。Perplexity 的收入主要来自订阅(Pro 账户 $20/月,Enterprise Pro $40/月,Enterprise Max $400/月),而非 token 销售。订阅模式意味着收入是固定的,而成本侧有两个关键优化:
-
RAG 架构减少对大 context window 的依赖:Perplexity 使用实时搜索和检索增强生成(RAG),每次查询只需要把最相关的信息片段放入 context,而不是把整个知识库喂给模型。这大幅降低了 token 消耗成本。
-
多模型路由:不同任务路由到不同成本的模型,而非无脑使用最贵的模型。
公司整体目前尚未盈利,但这是主动的研发投入决策,而非商业模式的缺陷——毛利率为正意味着规模扩张后有盈利路径,而不是越做越亏的死亡螺旋。
企业客户的数据也很能说明问题:Perplexity 已为 Enterprise Max 客户(每年约 $5,000)节省了超过 1 亿美元——这意味着客户在信息搜索和知识工作上的效率提升,是可以量化的真实价值,而非概念性承诺。
三阶段产品演进:从搜索到 AI 操作系统
Srinivas 描述了 Perplexity 产品演进的完整路线图,逻辑清晰、目标明确:
第一阶段:搜索 + 实时信息(Perplexity Ask) 给 AI 接上互联网访问权限,解决准确性问题。这是起点,也是 Perplexity 最初的差异化——在 ChatGPT 还没有实时搜索的时代,Perplexity 已经可以引用来源、提供可验证的答案。
第二阶段:智能浏览器(Comet) 给 AI 完整的浏览器控制权,让它能在网页上操作、填写表单、点击按钮——完成那些需要在浏览器上手动操作的复合任务。Comet 原本定价 $300/月,访谈时已宣布向所有用户免费开放。这个时机选择本身就是一个信号:Perplexity 在普及用户对 AI 浏览器的认知,为下一阶段铺路。
第三阶段:AI 计算机(Perplexity Computer) 这是最有野心的阶段。
"The AI itself is the computer. An orchestra of everything AI can do today — every single capability each individual AI model has."(AI 本身就是计算机。一个由今天 AI 所能做的一切组成的管弦乐团——每个单独 AI 模型拥有的每一种能力。)—— Srinivas
"AI is the operating system. Earlier in the traditional operating system, you execute programmatically. Now you start with objectives, not specific instructions."(AI 就是操作系统。在传统操作系统时代,你按程序执行指令。现在你从目标出发,而非具体指令。)—— Srinivas
这是范式的根本转变:用户不再给 AI 一系列具体步骤,而是给出高层目标,由 AI 自主拆解子任务、调用工具(文件系统、代码沙箱、API、浏览器)、完成任务、交付结果。Linux 将是这个 AI 计算机的底层操作系统,原因是开放架构、可深度定制、不依赖 Apple 或 Microsoft 的生态围墙。
本地与云端的混合编排架构
这里有一个技术细节值得单独拆解,因为它解决了很多用户心中"数据安全怎么办"的问题。
Srinivas 描述了 Perplexity Computer 的计算架构设计原则:
- 私密本地数据(税务文件、个人照片、本地应用):在本地硬件上运行 AI 代理,数据不出本地。推荐硬件:Mac Mini、Mac Studio,或新款 Dell 工作站
- 已在云端的个人数据(Google Calendar、Gmail):通过连接器在服务器端运行——因为数据本已在云端,无需额外隐私顾虑
- 需要大算力的复杂长任务:委托到服务器端处理
- 手机只是访问界面:前端展示,实际运算在本地服务器或云端
"The dream is to help businesses run as autonomously as possible — help a small business person who would otherwise drive Ubers for extra income set up Perplexity Personal Computer and actually make real money. Hundreds of thousands or even millions a year."(梦想是帮助企业尽可能自主地运营——帮助一个本来要开优步挣外快的小业主,设置好 Perplexity 个人计算机,然后真正赚到钱。每年几十万甚至几百万。)—— Srinivas
这个愿景不是遥远的科幻,Perplexity Computer 在访谈时已经以 Slack 企业版 Slackbot 的形式向企业用户开放。
Jason 亲测案例:AI 分析 All-In 播客对股价的影响
访谈中有一个具体到让人印象深刻的案例。Jason 描述了他委托 AI 完成的一个分析任务:
- 下载 All-In 播客从创立至今的所有内容
- 提取所有提到的上市公司名称
- 做频次柱状图,按时间轴追踪
- 分析播客提及与股票价格变化的相关性,以及情绪(正面/负面)
结果清晰显示了话题提及与股价波动的关联,包括 Jason 公开表态买入 Google 的具体节点。AI 还提供了每个提及时刻的时间戳,可点击跳转到对应音频片段。
这个任务以前需要一名研究员花一周时间完成。AI 在几分钟内完成,且结果更系统、更可审计。
Jason 还分享了另一个例子:在日本的一次晚餐认识了 20 个人,让 AI 去 LinkedIn 和其他平台查找这些人的关系网络,制作思维导图,规划下次访日要见的"二度人脉"。AI 完成后询问:"你希望结果放在 Google Sheet、Notion 表格、PDF、CSV,还是我直接给你写一个 CRM 系统?"Jason 选了"写 CRM"——AI 真的写了一个定制 CRM。
Jason 的判断是:这个层级的 AI 使用,目前可能只有千分之一甚至万分之一的 AI 用户到达过。大多数人还停留在"搜索替代"阶段。
第三章:Mistral——数据主权是企业 AI 采用的真正壁垒
开源不是免费,而是一种不同的部署逻辑
Mistral AI 的商业模式常被误解为"免费的开源模型"。但 Arthur Mensch 呈现的图景要复杂得多。
Mistral 的核心价值主张不是"我们的模型比 GPT-4 强",而是:我可以把整套训练能力部署到你的服务器上,你的数据从不离开你的环境。
"If you have open models, you can add new parameters, you can make a lot of deeper things that you cannot do with closed models."(如果你用的是开放模型,你可以添加新参数,可以做很多用封闭模型无法实现的深层定制。)—— Arthur Mensch
"The data segregation is super important. From a security perspective, the flow of data doesn't go back to Mistral because everything stays there [on client infrastructure]."(数据隔离极其重要。从安全角度看,数据流不会回到 Mistral,因为所有东西都留在客户的基础设施上。)—— Mensch
这直击了封闭模型(GPT、Claude)的结构性局限:如果你是一家医院,你不能把病历数据发给 OpenAI 的服务器;如果你是一家律所,你不能把客户合同发给 Anthropic;如果你是一家银行,监管机构明确要求数据不能跨境流动。这不是产品能力问题,而是商业模式的根本性约束。
前向部署工程师:知识转移,而非依赖锁定
Mistral 的企业部署方法论有一个独特设计:前向部署工程师(Forward Deployment Engineers)
评论
还没有评论,来第一个留言吧 ✨