三星高级AI研究院近日在人工智能领域投下一枚重磅炸弹——其研发的微型递归模型(TRM)以仅700万参数的极简架构,在结构化推理任务中展现出与万倍规模大模型抗衡的实力。该成果由研究院高级研究员Alexia Jolicoeur-Martineau团队完成,相关代码、训练脚本及数据集已通过MIT许可证在GitHub平台全面开源。
与传统依赖庞大参数堆砌的AI模型不同,TRM通过"递归推理"机制实现了效率革命。该模型摒弃了分层推理模型(HRM)的双网络架构,转而采用仅含两层神经元的精简结构。其核心逻辑在于让模型对自身输出进行持续迭代修正——每次预测后,系统会检查前序步骤的潜在误差,并通过循环反馈机制逐步逼近最优解。这种"以递归替代规模"的设计,使TRM在保持高性能的同时,将计算资源消耗降低至传统大模型的百分之一以下。
在针对性测试中,TRM的表现令人瞩目:在极限数独(Sudoku-Extreme)任务中取得87.4%的准确率,困难迷宫(Maze-Hard)测试达85%,抽象推理能力评估(ARC-AGI)中收获45%的准确率,其进阶版本ARC-AGI-2则达到8%。这些数据与DeepSeek R1、Gemini 2.5 Pro及o3-mini等顶尖模型相比,不仅毫不逊色,部分指标甚至实现超越。值得注意的是,TRM的参数量不足这些大模型的0.01%,却能在特定领域达成"四两拨千斤"的效果。
研究团队指出,TRM的成功源于对"极简主义"的极致追求。实验表明,当模型层数或参数规模超过临界点时,反而会因小数据集过拟合导致性能衰退。其双层结构与递归深度的巧妙结合,恰好实现了复杂推理需求与计算效率的最优平衡。不过研发者也强调,该模型专为结构化网格类问题设计,在数独、迷宫等规则明确的封闭场景中表现优异,但并不适用于开放式语言生成任务。
目前,TRM的完整技术资料已向全球开发者开放。企业和研究机构可自由获取代码进行二次开发,甚至将修改后的版本用于商业用途。这种开放策略或将推动AI领域向"小而精"的方向加速演进,为资源受限场景下的智能应用开辟新路径。