MiMo-V2-Pro 深度研究:小米万亿参数 Agent 旗舰——"造手机的"悄悄做出了全球第八的大模型

> 官网: https://mimo.xiaomi.com/mimo-v2-pro

> API 平台: https://platform.xiaomimimo.com

> VentureBeat 报道: https://venturebeat.com/technology/xiaomi-stuns-with-new-mimo-v2-pro-llm-nearing-gpt-5-2-opus-4-6-performance

> OpenRouter: https://openrouter.ai/xiaomi/mimo-v2-pro

> HuggingFace: https://huggingface.co/XiaomiMiMo

> 发布日期: 2026-03-18

> 研究时间: 2026-03-19

🎯 一句话版本

小米(对,就是那个做手机和电动车的小米)发布了万亿参数的 AI 模型 MiMo-V2-Pro,在全球 AI 智能排行榜上排第 8,逼近 Claude Opus 和 GPT-5.2 的水平,但 API 价格只有它们的 1/5 到 1/7。 更关键的是:它专门为 Agent(AI 自主完成任务)场景优化,而不仅仅是聊天。

🏭 这事儿为什么吓人

小米不是 AI 公司。它是全球第三大手机厂商,最近还在造电动车(SU7、YU7)。但它的 AI 团队负责人罗福莉来自 DeepSeek R1 项目(去年震惊全球的开源推理模型),她把这次发布形容为"quiet ambush"(悄悄的伏击)。

一个手机厂做出全球前十的大模型,这在半年前是不可想象的。

📊 核心参数

属性MiMo-V2-Pro
**总参数**1T+(万亿级)
**激活参数**42B(MoE 架构)
**vs 前代**MiMo-V2-Flash 的 ~3x
**上下文**1M tokens
**架构**Hybrid Attention(7:1 混合比,从 5:1 升级)
**推理加速**轻量 MTP(Multi-Token Prediction)层
**开源**❌ 暂不开源(Flash 版开源),Fuli Luo 表示"稳定后会开源一个变体"

Hybrid Attention 7:1 是什么?

普通 Transformer 随上下文增长计算量平方级增加。MiMo-V2-Pro 用 7:1 混合比——85% 的数据"快速浏览"获取上下文,15% 的关键数据"深度注意"。类比:不是逐页读书的学生,而是在图书馆里快速定位关键章节的研究员。

🏆 Benchmark 表现

全球排名

榜单分数排名
**Artificial Analysis Intelligence Index**49🌍 **全球第 8,中国第 2**
**PinchBench**(OpenClaw 标准评测)84.0🌍 **全球第 3**
**ClawEval**(Agent 框架评测)61.5🌍 **全球第 3**
**GDPval-AA**(真实世界 Agent 任务)Elo 1426中国第 1
**Terminal-Bench 2.0**86.7

与竞品对比

模型AA IntelligencePinchBenchClawEval价格(input/output per M tokens)
**Claude Opus 4.6**86.366.3$5 / $25
**Claude Sonnet 4.6**86.966.3$3 / $15
**MiMo-V2-Pro**49 (#8)84.061.5**$1 / $3**
GPT-5.250.0$1.75 / $14
GLM-5$1 / $3.20
Gemini 3 Pro70.751.9$2 / $12
MiMo-V2-Flash4180.848.1更便宜

关键数据

🥷 Hunter Alpha:一周匿名测试

发布前,MiMo-V2-Pro 以 Hunter Alpha 代号匿名上线 OpenRouter。一周内:

这是一种巧妙的产品验证方式——让市场用脚投票,而不是靠品牌光环。

💰 定价:中国 AI 价格战的新成员

档位输入输出Cache ReadCache Write
**≤256K**$1/M$3/M$0.20/M免费(暂时)
**256K-1M**$2/M$6/M$0.40/M免费(暂时)

对比 Claude Opus:输入便宜 5x,输出便宜 8x。

首周联合免费:与 OpenClaw、OpenCode、KiloCode、Blackbox、Cline 五大 Agent 开发框架合作,首周全球限时免费。

🤔 深度分析

"从 Chat 到 Agent" 的真正含义

MiMo-V2-Pro 的定位非常明确:不是聊天模型,是 Agent 大脑。

小米原话:

> "模型能力已不再局限于'回答问题'或是'生成精美 Demo',而是'完成任务'。我们致力于将其深度集成至生产力场景,使其成为驱动系统运转的'大脑'。"

这与我们之前研究的趋势完全一致——GLM-5 的"OpenClaw 优化"、Kimi K2.5 的"Agent Swarm",现在小米也加入了。

中国 AI "四国大战"升级

之前我们总结了"三国":

现在要加上第四个:

小米的差异化在于:它不是纯 AI 公司,而是有硬件生态(手机+汽车+IoT)的系统公司。AI 模型可以直接集成到它的产品矩阵中。

罗福莉效应

负责人罗福莉从 DeepSeek 跳到小米,带来了 R1 项目的经验和方法论。VentureBeat 评论说这些架构决策"提前数月做出,专门为 Agent 时代准备了结构性优势"。

这说明:顶级 AI 人才在中国的流动正在创造溢出效应——DeepSeek 的经验扩散到了小米、月之暗面等公司。

开源承诺的不确定性

Fuli Luo 说会开源一个变体,"when the models are stable enough"。但:

⚠️ 值得关注的风险

1. 不开源 = 不可审计:无法做深度安全审计

2. Agent 能力 = 更大攻击面:能操作终端和文件,prompt injection 风险更高

3. 小米不是 AI 公司:长期投入和迭代速度存疑

4. Benchmark ≠ 实际体验:自报数据需要更多独立验证

5. Hunter Alpha 偏差:匿名测试期间可能有特殊优化

💡 与我们的关联

1. OpenRouter 可直接使用

MiMo-V2-Pro 已在 OpenRouter 上线,我们可以直接通过 OpenRouter 调用,不需要额外配置。首周免费更是零成本试用。

2. 可以作为 OpenClaw Agent 的备选模型

小米专门为 OpenClaw 做了优化,PinchBench 84.0 + ClawEval 61.5 的成绩说明它确实在 Agent 场景下表现优秀。对于不需要 Opus 级别的任务,MiMo-V2-Pro 可能是性价比最高的选择。

3. 1M 上下文窗口

我们的深度研究经常需要处理大量文档。1M 上下文意味着可以把整个报告库一次性喂进去做分析。

4. 中国 AI 格局进一步碎片化

现在是 DeepSeek + Kimi + GLM + MiMo + Qwen 五强混战。对我们来说,选择更多但切换成本不高(OpenRouter 统一接入)。

📊 评分

维度评分(/10)
技术实力9.0 — 万亿参数 + 7:1 Hybrid Attention + 1M 上下文,架构创新
Agent 优化9.5 — PinchBench #3、ClawEval #3、专为 OpenClaw 优化
性价比9.5 — Opus 级性能 1/5 价格,AA Index 跑测成本低 7x
成熟度7.5 — Hunter Alpha 已有 1T tokens 使用量,但正式版刚发布
与我们的关联9.0 — OpenRouter 直接可用、首周免费、OpenClaw 优化
**综合****9.0**

报告由深度研究助手自动生成 | 2026-03-19

来源: https://mimo.xiaomi.com/mimo-v2-pro