在近期举办的人车家全生态合作伙伴大会上,小米正式推出开源MoE模型Xiaomi MiMo-V2-Flash,其团队负责人罗福莉首次公开亮相。这位曾被雷军以千万年薪引入的95后AI领域人才,此前是DeepSeek团队成员,此次带来的新模型在性能与成本方面展现出独特优势。
Xiaomi MiMo-V2-Flash的核心竞争力在于高效推理与高性价比。该模型总参数仅309B,激活参数为15B,而对比DeepSeek-V3.2的671B总参数和37B激活参数,小米模型在硬件资源调用上更为克制。实际测试显示,其处理任务时调用的资源约为DeepSeek的一半,却能达到与DeepSeek-V3.2、Kimi-K2等头部开源模型相当的性能水平。
速度与成本方面,该模型每秒可输出150个token,相当于每秒生成150个汉字,远超DeepSeek-V3.2约每秒30个token的速率。在API服务定价上,小米模型每百万输入token收费0.7元,输出token每百万2.1元,价格仅为DeepSeek-V3.2的一半。这种“用更少的资源实现更快速度”的特性,延续了罗福莉此前在DeepSeek团队对效率的追求风格。
功能层面,Xiaomi MiMo-V2-Flash支持一键生成电商页面、小游戏等HTML网页,且所有内容已开源。用户可免费体验网页端服务,开发者在限定时间内可免费调用API。实际测试中,该模型在基础问答场景表现亮眼:当被问及“如何安慰失恋朋友”时,响应时间为3.7秒,快于千问的5秒和DeepSeek-V3.2的10秒,回答内容质量相近。但在复杂任务中,模型仍存在提升空间——查询最新AI新闻时,其返回结果为9月份信息,耗时20秒;而DeepSeek-V3.2仅用13秒便提供12月最新资讯。
翻译功能测试显示,Xiaomi MiMo-V2-Flash的译文风格较为直白,缺乏灵活性。在生成网页的高难度任务中,模型面对“豪华互动圣诞树”3D网页需求时多次卡顿,官方解释称这源于初期版本对图形资源和实时渲染能力的限制,服务器对单次生成的算力分配存在上限。相比之下,豆包和DeepSeek-V3.2在同等要求下仅能提供文字描述,无法生成实际网页。
与豆包的对比进一步凸显了Xiaomi MiMo-V2-Flash的阶段性特征。在信息检索能力上,豆包会关联多个网页提供全面信息,而小米模型检索范围较小;功能多样性方面,豆包已具备写作、创作、通话、图像处理等多样化服务,小米模型目前仅开放深度思考和联网搜索两项功能。关闭深度思考模式后,小米模型的响应延迟显著增加,回答质量下降,而豆包仍能提供可用信息。
此次模型发布选择人车家全生态大会作为舞台,暗示了小米的战略布局。Xiaomi MiMo未来将作为连接汽车、家电、智能设备的核心工具,推动空调、灯光、音响等终端的智能协同。不过受限于当前技术成熟度,模型短期内可能仅应用于简单场景,要实现设备间的深度逻辑理解,仍需持续优化迭代。



