12 月 16 日消息,小米今日发布 Xiaomi MiMo-V2-Flash 开源 MoE 模型,总参数量 309B,活跃参数量 15B,专为智能体 AI 设计,专注于快。
小米官方介绍称,这是一个专为极致推理效率自研的总参数 309B(激活 15B)的 MoE 模型,通过 Hybrid 注意力架构创新及多层 MTP 推理加速,在多个 Agent 测评基准上保持进入全球开源模型 Top 2;代码能力超过所有开源模型,比肩标杆闭源模型 Claude 4.5 Sonnet,但推理成本仅为其 2.5%,生成速度提升 2 倍。
Xiaomi MiMo-V2-Flash 采用 1:5 的 Global Attention 与 Sliding Window Attention (SWA) 混合结构,128 窗口大小,原生 32K 外扩 256K 训练。
小米推出了一个在线 AI 聊天服务 Xiaomi MiMO Studio(https://aistudio.xiaomimimo.com),用户可以在其中体验 Xiaomi MiMo-V2-Flash。该服务支持深度搜索和联网搜索。
Xiaomi MiMo-V2-Flash 的模型权重和推理代码均采用 MIT 协议全面开源。MiMo-V2-Flash 的 API 定价为输入 $0.1/M tokens,输出 $0.3/M tokens,API 限时免费。
Xiaomi MiMo-V2-Flash 模型开源地址如下:
技术报告:https://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf
模型权重:https://hf.co/XiaomiMiMo/MiMo-V2-Flash
github 仓库:https://github.com/xiaomimimo/MiMo-V2-Flash
官方博客:https://mimo.xiaomi.com/blog/mimo-v2-flash
LMSYS 博客:https://lmsys.org/blog/2025-12-16-mimo-v2-flash
开放平台:https://platform.xiaomimimo.com/