罗福莉×小米 MiMo:OpenClaw 重塑 Agent 认知,1T 是 2026 入场券
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
罗福莉是国内大模型圈最特殊的一个名字——媒体爱叫她"AI 天才少女",但她自己拒绝这个标签。她原本是 DeepSeek V2 的核心研究员之一,2025 年加入小米后挑大梁主持 MiMo 系列大模型的研发。在 2026 年这个所有人都在追 Agent 的关键节点,她和她那个 100 人的扁平团队,正以一种近乎"反工业化"的方式做大模型——没有部门、没有 rank、没有 KPI。
这是一场 3.5 小时的访谈。它的特殊价值在于:罗福莉是真正在一线日复一日跟模型搏斗的人,不是讲故事的高管,也不是投资圈的二手观察者。她讲的每一个判断都带着实操痕迹——为什么放弃 MLA 选 Hybrid Attention、为什么 OpenClaw 让她的研究效率从"30 周"压缩到"3 周"、为什么她把家人都拉进 Feishu 群一起测 Multi-Agent。
如果你想看 2026 年中国 AI 第一线的真实视角,这一期值得反复看。核心论点一句话:1T 模型只是入场券,真正的胜负手在"模型 + Agent 框架 + 群体智能"三者的协同进化。
一、OpenClaw 重塑了她对 Agent 的全部认知——3 天 3 个 aha moment
视频最具感染力的一段,是罗福莉讲她春节 3 天连续被 OpenClaw 击穿认知的过程。这段不像技术访谈,更像一个研究者描述自己被某个工具真正震撼的体验。
第 1 天:从拒绝到失眠 6 小时
"Spring Festival ... 2 o'clock in the morning ... Then the first time I talked to it. It lasted from 2 o'clock in the morning to dawn at 6 o'clock ... My head, I don't know if it's dopamine or endorphins, just kept secreting. It just makes me so excited that I can't sleep at all." (春节凌晨 2 点装好,跟它聊到清晨 6 点。脑子里多巴胺还是内啡肽不知道,反正一直在分泌,兴奋到睡不着。)
她原本对 OpenClaw 是抗拒的——觉得就是 "Claude Code 加了个 IM 聊天界面",包装出来的产品概念。但真正用起来后,第一感觉是这个东西有"灵魂":
凌晨深夜聊得很久时,OpenClaw 会主动提醒她"现在很晚了,要不要早点休息?" ——这种温暖感让她意识到背后是大量精细化的设计。后来她拆解发现:OpenClaw 在每轮对话的 context 里主动注入当前时间——这种小细节她说叫 "finely orchestrated context"(精细编排的上下文):
"**It's in these very from an angle that no one pays attention to, this context is arranged very well.**" (它在一些没人注意的角度,把上下文编排得极好。)
第 2 天:从聊天工具到"我的数字克隆"
第二天她试图突破——给 OpenClaw 一些"她以为它做不到的日常工作"。比如让它帮自己设计:"如何激发一个团队的 curiosity" 和 "如何筛选出有 curiosity 的人"。
跟它讨论了 1 小时,OpenClaw 给出的方案在哲学层面远超她的想象。她干脆把整套讨论结晶成了一个 Skill 文件,从此遇到团队管理问题就丢给它:
"**It's basically turned into a digital clone of me.**" (它基本上变成了我的数字克隆。)
第 3 天:从生活助手到 Research 加速器
第三天的震撼最深远。她让 OpenClaw 处理研究任务——具体是构建 User Agent(用户代理,用于训练数据生成的关键组件)。
她原本以为这个题目"不该 1-2 小时就做出来"。结果跟 OpenClaw 讨论了 1-2 小时,一个能用的 User Agent 真的做出来了:
"**A good User Agent is born. I can use this User Agent ... constructing richer Agent scenarios data, and then whether it's doing SFT or doing RL ... This User Agent is very critical.**" (一个好的 User Agent 就这么诞生了。我可以用它构建更丰富的 Agent 场景数据,做 SFT 也好做 RL 也好——这个 User Agent 极为关键。)
关键洞察:OpenClaw 不只是更聪明的 Claude Code——它是一个能直接进入科研工作流、缩短迭代周期的工具。罗福莉后来明确说:
"**Research that might have taken thirty or forty weeks before, we basically finished it in three or four weeks.**" (以前可能要 30-40 周的研究,我们 3-4 周就基本完成。)
3-4 周做完原本 30-40 周的工作——10 倍效率提升。这不是修辞,是她团队内部实测的产能倍数。
为什么 OpenClaw 比 Claude Code 更"重塑认知"
罗福莉给出了精准的判断:Claude Code 是黑盒,OpenClaw 是开源。
- 黑盒 Claude Code:你只能"使用"它的设计;遇到 memory system 不合理、Agent 工作流卡住,你无法改
- 开源 OpenClaw:你可以让 Claude Opus 4.6 帮你重写它的 memory system、重新设计它的 Multi-Agent 架构
但罗福莉强调:这种"自由改"只能用 Claude Opus 4.6。试 Sonnet、试国产模型甚至 MiMo V2 Pro,都改不动——因为这种"修改一个复杂 Agent 框架"的任务对模型能力要求最高。
"Top model 必须和 top Agent 框架一起向前走。"
二、AI 天才少女的工作哲学——环境>经验、love-driven、Sliding Window 大脑
罗福莉一边在做最前沿的大模型研究,一边在重构整个团队的运作方式。她的几个核心理念,相当反工业化。
1. "Sliding Window Attention 大脑"——压力被强制遗忘
她描述自己怎么处理压力:
"**My brain is a Sliding Window Attention. I forget very quickly. Even if I am under pressure ... if you hurry up, it'll be over in an hour or two. If you go slowly, it will be over in one day.**" (我的大脑是个 Sliding Window Attention,忘得很快。压力一两个小时就过了,最慢一天。睡一觉一定彻底过。)
这是个绝妙的自我比喻——用她研究的模型架构来描述自己的认知。Sliding Window 是只关注最近一段 context、丢掉远端历史的注意力机制——她说自己的脑子就是这种工作模式。
2. 工作节奏:11 am - 12 am,5-6 小时睡眠
"**Maybe 6 hours is enough, 5 hours is fine, 4 hours is fine. 4 to 6 hours is an OK range for me.**"
她说"睡得太多有点浪费时间"。但她也强调这只是她自己的节奏,不代表团队其他人。
3. 100 人团队,无 group、无 rank
"**Originally, our entire team, the organizational structure is completely decoupled. No rank.**"
为什么这么扁平?她的逻辑非常清晰:
"**Equality itself is valuable ... Hierarchies and ranks themselves suppress creativity.**" (平等本身有价值。有了 rank,默认就是"高 rank 的人智能更强"——这个假设非常奇怪,我不觉得它存在。)
更实操的理由:
"**If your group is very divided, clear and fixed, then it's actually killing part of the creativity. It will kill its future growth space.**" (明确分组、固定分组,会杀掉创造力——也会杀掉个人未来的成长空间。)
她举了一个具体例子:Pre-train 的人很自然会去做 Post-train(基于个人兴趣和数据 sense)。如果你硬性分组,这种跨阶段流动就被掐死了——而恰恰是这种流动,让他们能跟上 2026 年范式快速切换的节奏。
4. "Love-driven management"——靠激情驱动,不是靠 KPI
"**Passion drives management. I think this is very important. I have found it to be the most effective way.**" (激情驱动管理——这是我发现最有效的方式。)
具体做法:让所有人亲身体验新东西。OpenClaw 火了之后,她没让团队读任何文档,而是直接开了一个"考核":
"I gave everyone an instruction: if the next day, people who have had no more than 100 rounds of OpenClaw conversations, you can quit directly." (第二天我给团队一个指令:用了不到 100 轮 OpenClaw 的,可以直接走人。)
但她坦白这只是激将法——她根本不会真去考核:
"**I have my own assessment methods. In fact, my assessment method is that I don't know how to assess it. I just hope everyone can use it.**"
她还做了一件特别极致的事:自费买了几个 Mac Mini,自己部署 OpenClaw(当时部署很慢、很多 bug),然后把这些机器分到不同的 Feishu 群——让 100 个员工不用自己装就能用。她说:"个人想象力是有限的,但你看到别人用 OpenClaw 干出某事,会激发你自己的想象力。"
5. 招人偏好:本科生 > 经验工程师
她的逻辑反直觉但清晰:
"**Undergraduates ... I don't feel polluted. Naturally accept this work meeting more, generate huge value. His mind doesn't feel imprisoned yet.**" (本科生没被工业经验"污染",更自然接受新范式,思维没被囚禁。)
她团队 PhD 比例只有 55%——剩下大部分是应届/在读本科生 + 没做过大模型的研究生。她说原因是:
"**Environment is more important than experience. These abilities can all be ... I think a month or two at most. It can indeed be learned quickly in three or four months.**" (环境比经验更重要。这些能力 1-2 个月就能学会,最慢 3-4 个月。)
关键洞察:在一个范式 6 个月一变的领域,"被旧范式训练过"反而是 liability(负债) ——本科生从零开始学新范式,反而比有经验的人快。
6. 不投论文
"**I don't read papers from academic conferences anymore.**" (我已经不看学术会议的论文了。)
她说大部分 paper 写出来时已经过时——她更相信自己团队的实验结果。她甚至跟自己人讲:"发论文别带我"。这个判断在大公司研究员里很罕见,但在 OpenAI / Anthropic 这种顶级机构里其实是常态。
三、1T 是入场券——算力 3:1:1 和 Agent 时代的训练经济学
罗福莉给出了 2026 年大模型竞赛的入场标准:
三个硬门槛
"**Now I think it must be a parameter scale of more than 1T can do it. Only in this way can it feel that you are very close to 4.6 Opus.**" (现在必须 1T 参数以上,才能感觉接近 Claude Opus 4.6。)
具体:
- 基础模型 ≥ 1T 参数(达到 Claude Opus 4.6 一档的能力上限)
- 训练敏捷度(3 个月内能训出新一代模型)
- post-training 算力 = pre-training 算力(这是革命性变化)
国内具备完整三个条件的,她说目前没有一家——Kimi 有 1T 但训练敏捷不一定够,DeepSeek、MiMo 在做。
算力分配 3:1:1
她披露了团队的算力分配:
| 用途 | 比例 |
|---|---|
| Research(研究探索) | 3 |
| Pre-train(预训练) | 1 |
| Post-train(后训练) | 1 |
关键洞察:Research 卡数是正式训练卡数的 3 倍。她说:
"**The number of cards becomes a very important bottleneck. Because the idea birth and this hands-on, you code it, too fast. And what are you stuck on now? Stuck on card.**" (现在卡变成最关键的瓶颈。idea 生成 + 上手编码都太快,但实验跑不动——卡的效率限制在那里。)
这个分配跟 Chat 时代的 3:5:1(Pre-train 占大头)形成鲜明对比——Post-train 时代到来了。她预测国内顶级团队今年都会迁到 1:1。
训 1T 模型的实战痛苦:loss spike + 停 2 周
她讲了一个非常具体的训练困境:1T 模型 loss spike(损失值突然飙升)频繁出现,必须停止训练几天到 2 周排查原因——可能是 sparsity ratio 太大、可能是 Infra 的 op bug、可能是某个 norm 异常。
她说:
"**Sometimes you even doubt if there's a problem with any card ... You will wonder if it is today sunspot's revenge.**" (有时候你会怀疑是某张卡有问题,甚至会怀疑是不是今天太阳黑子作祟。)
但她团队的处理方式是坚持停训彻查:
"**We don't have such a clear explanation. A target I want to publish. You have no deadline. We have no deadline.**" (我们没有明确的发版 deadline。模型训练好了再发。)
这是小米的核心优势之一——没有发版压力,可以慢工出细活。她说雷军(Mr. Lei)"挺战略性的,是个老天使投资人",给了完整的探索自由度。
四、MiMo V2 全家桶——Hybrid Attention 7:1 + MTP + Omni + TTS
V2 系列是 4 个模型:Flash、Pro、Omni、TTS。罗福莉拆解了每个的押注逻辑。
Hybrid Attention 7:1——核心架构选择
V2 Pro 用的是 Hybrid Attention:Full Attention 层 + Sliding Window 层按 7:1 比例混合(Pro 比 Flash 的 5:1 更激进)。这个选择的核心是为了 Agent 时代的长 context 效率。
她解释了为什么放弃 MLA(多头潜在注意力) :
| 维度 | MLA | Hybrid Attention |
|---|---|---|
| 时代背景 | Chat 时代设计(DeepSeek V2/V3) | Agent 时代设计(2026) |
| 优势 | 大幅压缩 KV Cache | 兼顾长 context + 计算余量 |
| 致命弱点 | 计算 bound 太满,没法叠加 MTP 加速 | 留有计算余量,可以叠 MTP |
关键洞察:MLA 是 Chat 时代的"巅峰之作"——但它的优化太极致,反而没给后续加速留空间。罗福莉说她们当年看 K2、GLM-5 都选 MLA 时(2025 上半年),心里也犹豫过——但她坚持自己的判断:只要进入 Agent 时代,长 context 推理速度比 KV Cache 压缩更重要。
MTP(多 token 预测)——加速 GPU 利用率
MTP 是个偶然发现——团队设计推理方案时,发现 GPU 计算余量太多了,没用完。然后想起来 pre-train 时已经叠加过 MTP(从 DeepSeek 借鉴),刚好可以用:
"**It's actually a natural extension of exploration. Why it hasn't become mainstream yet? Everyone trusts MLA too much.**" (这就是顺势探索的自然产物。MTP 没成主流,是大家太相信 MLA。)
MiMo V2 Flash 能做到 100-150 TPS(每秒 token 数),Pro 也能跑 60-100 TPS——比同代国产模型显著快。
Omni 与 TTS:多模态的"全模态"押注
| 模型 | 角色 | 类比人类 |
|---|---|---|
| Pro | 语言+认知核心 | 大脑 |
| Omni | 多模态理解(图、视频、音、文) | 感知(眼+耳) |
| TTS | 语音生成 | 表达(嘴) |
罗福莉认为这三层组合起来才是类人智能:
"**Pro is about understanding and cognition ... Omni is doing perception ... TTS is doing audio sound output, it is an expression.**"
她特别提到 TTS 用了"反主流的优雅架构"——discrete token 化的语音生成(vs. 大多数厂商用 continuous feature)。这条路更难,但她团队赌它"上限更高"——发现训练后泛化能力惊人,几个简单 stylized scenario 就能 generalize 到自然语言风格描述。
五、群体智能改 framework——100 人 Feishu 群里的小米实验
这是访谈中最反"工业化研究"的故事。
100 人一起改 OpenClaw
"**We have about 100 people in a group ... More than 100 people are changing it like crazy ... Then this model has not been modified, this Agent framework has not been modified. Then it becomes very smart.**" (100 人在一个群里疯狂改 OpenClaw 框架。模型没动,Agent 框架也没动,但就这么变得超级智能。)
她对群体智能的判断:
"**It's quite interesting. The progress of the framework itself is very slow if I just modify the Agent framework myself. But if a group of people improves, they will improve very quickly. It may take a few hours to iterate.**" (一个人改框架进展很慢;100 人一起改,几小时就迭代一版。)
把家人也拉进来——"Multi-Agent" 实测
更有意思的是她在家里的实验:
"**I was at home at that time ... Then I asked everyone in my family. Just my dad and my mom. Then my husband. Then everyone has his own subagent. We caught up with a Feishu group.**" (我在家时把爸爸、妈妈、老公全拉进 Feishu 群,每个人配一个 subagent,每个 subagent 各自演化。然后我把任务派给某个人的 subagent——因为他的 context 不一样,做出来的结果就更好。)
这是家庭版的 Multi-Agent 系统——用真实家人的不同 context 来体现"多 Agent 协作"的本质。罗福莉说这次粗糙实验让她真正相信:未来的 Agent 系统应该是这种"context 分化 + 协同"的架构。
关键洞察:群体智能是 OpenClaw 火的根本原因
罗福莉认为 OpenClaw 突然在 2026 春节火起来,核心不是产品本身,而是它激活了群体智能:
"**OpenClaw it brought fire because it makes more people contribute to the Skills community. This is very critical because this is what I think belongs to people what needs to be created together with the Agent.**" (OpenClaw 之所以火,是因为它让更多人参与到 Skills 社区贡献——这是属于"人和 Agent 共创"的部分。)
她明确表示这是 AGI 之前必须做的事:
"**This is something that must be done before the arrival of AGI.**"
六、Agent 自学的两个层次——从框架自我进化到人机协同
罗福莉给出了一个对未来 AGI 路径的清晰分层:
Level 1:Agent 自身的自我进化
模型 + Agent 框架同步演化。具体来说:
- 静态信息(Memory、Skill folder)应该在训练过程中改变
- 动态信息(Agent 架构本身的设计)应该针对不同场景定制(Code 用一种、金融分析用另一种)
"**The architecture of your Agent itself moves forward synchronously.**"
Level 2:Agent + 人的相互进化
这是更深的层次——人和 Agent 共同迭代。她说这一层目前还没出现:
"**It hasn't been born or appeared on a large scale yet ... how you use most of human wisdom to create a stronger framework. Hasn't appeared yet.**" (目前没看到——人如何用群体智慧让 framework 变得更强大。)
这是她接下来研究的重点:"how to make the framework evolve on its own, and the framework and people mutual evolution"。
七、Code 是通用力的源头——长 context、Pre-train、Agent 三段进化
罗福莉给出了一个非常硬核的判断:为什么 Code 是大模型通用能力的根。
源头:长 context 数据稀缺
她说能训练 1T-1M context 的数据,全世界只有两类:
- Code 数据(文件之间关联强、信号密集)
- 书籍(信号过于发散)
而 Code 比书更稠密——这就是为什么"训 Code 反而能通用"的根本原因:
"**Associations between files is stronger. So when you have a long context dependency like this, when training on a denser data set, model it will naturally model long contexts better.**" (Code 的文件关联更强。在这种密集数据集上训练,模型自然就能更好地建模长 context。)
三段进化路径
| 阶段 | 范式 | Code 的角色 |
|---|---|---|
| Pre-train 时代(2022-2024) | Chat 短 context | Code 数据训练长 context 建模能力 |
| R1 时代(2024 末) | Chat 长推理 | Code/Math 验证可泛化(推理能力 → 通用领域) |
| Agent 时代(2025-2026) | 多轮长任务 | Code 长任务自然 fit Agent 框架 |
每一段,Code 都"承担了通用力的源头"——这不是巧合,是数据本质决定的。
关键洞察:模型公司争 Coding,不是因为 Coding 本身值钱
而是因为Coding 是验证模型能力 + 解锁其他能力的最佳通道。MiMo V2 Pro 的所有评测都围绕 Code 构建——但她说这不是终点,** Code 是 lower bound(下限),其他能力训完是 upper bound(上限)**。
八、为什么中国比硅谷更"懂" OpenClaw
罗福莉观察到一个有意思的现象:
"**I clearly feel that in China, it's more popular than in the United States. Why is this?**"
她的几个判断:
1. 中国开发者效率诉求更紧迫
"**As far as Chinese developers are concerned, I think there are more ... When I say developer, I mean he can use Code to improve his efficiency. Maybe the request is more urgent.**"
中国互联网开发者用 AI 提效是血液里的诉求——硅谷工程师拿着高薪、节奏没那么快,对"提效工具"反而没那么饥渴。
2. 中国大模型还没 Claude Opus 那么强 → 更需要 OpenClaw
她给出了一个反直觉但精准的判断:
"**OpenClaw is based on Claude's previous generation model ... So you have to design the Agent's framework, you need to design more carefully ... But most domestic models may just be closer to Claude 4.5, levels of Sonnet and Opus. Then the two of them shook hands here instead.**" (OpenClaw 是基于 Claude 上一代模型设计的,所以它的 Agent 框架必须更精巧——这反而完美匹配了国产模型的"上一代水位"。所以国产模型 + OpenClaw 反而握手成功。)
3. 中国"练之于野"的开源生态
她引用了一个网络流行语:"Practice from the West to the East"(练之于野,西兵东练)——OpenClaw 在硅谷不被珍视,反而在中国开发者社区掀起最大的开源贡献热潮。
关键洞察:开源框架的真正价值,需要"愿意一起改它"的开发者社区。硅谷工程师不太改,中国 100 人小米团队疯狂改——这就是为什么 OpenClaw 在中国"活"得更好。
九、2026 第二战——从 Chat 到 Agent 的范式转移
罗福莉给出了一个清晰的"大模型竞赛历史叙事":
| 年份 | 主线 | 国内代表动作 |
|---|---|---|
| 2022 末 | ChatGPT 发布,Chat 范式诞生 | - |
| 2023 | LLaMA 开源 → 复制 Chat 能力 | Qwen 路径(scaling)/ DeepSeek 路径(架构创新) |
| 2024 中 | Claude Sonnet 出现,长 code 生成 | - |
| 2024 末 | o1/R1,长推理范式 | DeepSeek R1(用 Code/Math 验证可泛化) |
| 2025 | Vibe coding(Replit 主导,9 月) | 国内还在原范式深耕 |
| 2025 末 | Opus 4.6 + OpenClaw → autonomy 革命 | MiniMax 最早转 Agent 范式 |
| 2026 | Agent 范式全面铺开 | MiMo / Kimi / DeepSeek 1T 入场 |
她说 2026 是 Agent 时代的"第二战"——所有人在同一起跑线(pre-train 已经追上 Anthropic),真正的胜负手在三件事:
- 如何让 Agent 框架和模型相互自迭代
- 如何让 Agent 架构整合自己的资源/生态位(操作系统、硬件、社交流量)
- company-specific 的 deep coupling(MiMo + 小米生态、Kimi + 月之暗面 chat 等)
她预测 2026 后半段:
"**I think it can reach at least 60% [to AGI] ... I feel like it should be possible within two years.**" (2026 我觉得能完成 60-70% 路径。2 年内 AGI 应该能实现。)
关键洞察:罗福莉所说的"AGI"标准是——AI 能训练 AI:
"**It can reach its peak the intelligence of a group of people, because it can train itself.**"
行动启示
对个人创业者:
"**Just a few people, even a person can become a company. Just you learn to make full use of Agent.**" (几个人甚至一个人就能变成一家公司——只要你学会充分利用 Agent。)
罗福莉自己在 OpenClaw 上实测过 Multi-Agent 模拟"100 个员工"。虽然现在还有点 gimmicky,但她说"今年内会变现实"。
对模型公司:
押注的核心三件事:(1)1T 基础模型;(2)post-train 敏捷性;(3)Agent 架构与自身资源的深度耦合。任何一点没准备好,2026 都掉队。
对所有人:
"**The era of accelerating changes in productivity ... Productivity will explode this year. Many of your jobs will be replaced. So at this time people should think more about what is your own meaning and value?**" (生产力加速变革的时代来了——你的工作会被替代。这时候应该多想:你自己的意义和价值是什么?)
罗福莉自己的答案是:用 AGI 加速基础研究。她甚至构想过创立一个公益组织,支持那些做基础研究的人去突破——"实现 AGI 之后,让我们和 AI 一起加速研究,谁说要躺平?"
金句收录
"My brain is a Sliding Window Attention. I forget very quickly." 我的大脑是个 Sliding Window Attention,忘得很快。 —— 罗福莉
"Equality itself is valuable. Hierarchies and ranks themselves suppress creativity." 平等本身就有价值。层级和 rank 本身就在压制创造力。 —— 罗福莉
"Environment is more important than experience. These abilities can all be learned in a month or two at most." 环境比经验重要——这些能力 1-2 个月就能学会。 —— 罗福莉
"Research that might have taken thirty or forty weeks before, we basically finished it in three or four weeks." 以前 30-40 周的研究,我们 3-4 周就基本完成。 —— 罗福莉(讲 OpenClaw 带来的研究效率跃升)
"It's basically turned into a digital clone of me." 它基本上变成了我的数字克隆。 —— 罗福莉(讲 OpenClaw 第二天的体验)
"OpenClaw brought fire because it makes more people contribute to the Skills community. This is what belongs to people what needs to be created together with the Agent." OpenClaw 之所以火,是因为它让更多人贡献到 Skills 社区——这是人和 Agent 必须共创的部分。 —— 罗福莉
"There are always ways to model prices." 总有办法建模价格。 —— 罗福莉(量化时代座右铭,迁移到大模型时代)
"Top model and top Agent framework must move forward together." 顶级模型和顶级 Agent 框架必须一起向前走。 —— 罗福莉
"Now the card becomes a more critical constraint." 现在 GPU 卡变成了最关键的约束。 —— 罗福莉(讲 Agent 时代的算力瓶颈)
"Almost everyone is a founder. They wake up in the morning and they think how can I make the company more successful?" 几乎每个人都是创始人——醒来想的就是怎么让公司更成功。 —— 罗福莉(描述未来组织形态)
"It's possible that 10B model in a year will be able to achieve the level of Claude Opus 4.6." 一年内,10B 模型就可能达到 Claude Opus 4.6 的水平。 —— 罗福莉
"Why do we have to compete with [AGI]? Just let it be done. There's always something new to do." 我们为什么要跟 AGI 竞争?让它做就好——永远有新东西可做。 —— 罗福莉
时间线索引
| 时间 | 内容 |
|---|---|
| [00:01] | 开场:1T 模型是入场券,OpenClaw 是 epoch-making framework |
| [01:39] | OpenClaw 春节体验三天复盘(深夜 2 点装机到清晨 6 点) |
| [04:30] | OpenClaw 的"灵魂"——精细编排的 context(time spelling) |
| [06:30] | 第二天:从聊天工具到"我的数字克隆"(团队管理 Skills) |
| [11:45] | OpenClaw vs Claude Code 的关键差异(开源 vs 黑盒) |
| [16:18] | Agent 自学的两个层次:framework 自进化 + 人机协同进化 |
| [22:23] | 周边人都被推着用 OpenClaw(自费 Mac Mini + Feishu 群) |
| [27:25] | 群体智能改 framework:100 人 Feishu 群几小时迭代一版 |
| [33:11] | Code 通用力的真相:长 context 数据全世界只有两类 |
| [38:52] | post-train 算力 = pre-train 算力,Chat 时代终结 |
| [40:55] | 中国为什么比硅谷更"懂" OpenClaw |
| [45:50] | 全公司用 OpenClaw 提示词的 swarm intelligence 案例 |
| [54:00] | 算力 3:1:1(research/pre-train/post-train) |
| [01:00:30] | 2026 productivity 革命的拐点 |
| [01:13:21] | 罗福莉的家庭版 Multi-Agent 实验(爸妈+老公各配 subagent) |
| [01:25:33] | MiMo V2 Flash + Pro 同期训练,Hybrid Attention 7:1 |
| [01:28:35] | 为什么 MLA 在 Agent 时代不再是最优解(计算 bound 太满) |
| [01:34:00] | MTP 偶然发现:GPU 计算余量太多,刚好叠加 |
| [01:42:50] | 1T 模型训练实战痛苦:loss spike 反复,停训彻查 |
| [01:51:00] | 100 人无 group、无 rank 的扁平团队哲学 |
| [02:00:00] | "Love-driven management"——靠激情驱动 |
| [02:08:00] | Omni + TTS 的多模态押注(discrete token 路线) |
| [02:25:00] | 工作节奏:11am-12am,4-6 小时睡眠,"Sliding Window 大脑" |
| [02:37:00] | 招本科生的反工业化逻辑——"思维没被囚禁" |
| [02:48:00] | 大模型竞赛史回顾(Chat → 长推理 → Agent 三段进化) |
| [03:05:00] | 2026 第二战:所有人同一起跑线,胜负手在三件事 |
| [03:18:00] | "用 AGI 加速基础研究"的公益构想 |
| [03:32:00] | 期待 26-27 年的"持续学习"突破 |
| [03:33:00] | "睡得太多有点浪费时间" |
评论
还没有评论,来第一个留言吧 ✨