ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

英伟达发布OpenMath-Nemotron系列,AI数学推理能力大幅提升

时间:2025-04-25 16:13:27来源:ITBEAR编辑:快讯团队

英伟达近期在数学推理领域迈出了重要一步,推出了两款专为解决复杂数学问题设计的先进AI模型——OpenMath-Nemotron-32B和OpenMath-Nemotron-14B-Kaggle。

长久以来,数学推理一直是AI技术难以攻克的难题。尽管传统的语言模型在生成自然语言文本方面表现出色,但在面对需要深入理解抽象概念和进行多步骤逻辑推导的数学问题时,却常常力不从心。为了解决这一挑战,英伟达精心打造了这两款新模型。

OpenMath-Nemotron-32B作为系列中的佼佼者,拥有高达328亿的参数,并采用了BF16张量运算来优化硬件效率。这款旗舰模型在多项基准测试中,如AIME 2024、AIME 2025和HMMT 2024-25,均取得了令人瞩目的成绩。特别是在工具集成推理(TIR)模式下,它在AIME24上的pass@1准确率高达78.4%,通过多数投票机制后,这一准确率更是飙升至93.3%。

除了强大的性能,OpenMath-Nemotron-32B还提供了多种推理模式以满足不同需求。用户可以选择链式思维(CoT)、工具集成推理(TIR)和生成式选择(GenSelect)三种模式,根据科研或生产环境的具体场景,平衡推理的透明度和答案的精确度。

另一款模型,OpenMath-Nemotron-14B-Kaggle,则是一款更为轻量级的解决方案。它拥有148亿参数,专为AIMO-2 Kaggle竞赛优化设计。通过精选OpenMathReasoning数据集的子集进行微调,这款模型成功夺得了竞赛的桂冠。在AIME24测试中,它在CoT模式下的pass@1准确率为73.7%,而在GenSelect模式下则提升至86.7%。这款模型在保持高质量数学解题能力的同时,更适合资源受限或需要低延迟的场景。

英伟达为这两款模型提供了完整的开源管道,集成于NeMo-Skills框架中。这意味着开发者可以轻松地通过示例代码构建应用,获取逐步解答或简洁答案。模型还针对NVIDIA的GPU,如Ampere和Hopper架构,进行了深度优化。利用CUDA库和TensorRT技术,模型能够高效运行。同时,Triton Inference Server的支持确保了低延迟、高吞吐量的部署,而BF16格式则在内存占用与性能之间取得了完美的平衡。

这两款新模型的推出,标志着英伟达在数学推理领域取得了重大突破。它们不仅为科研和生产环境提供了强大的工具,也为AI技术的发展开辟了新的道路。

更多热门内容
沐邦高科:一月内回购零进展、资金被扣,还有哪些“谜之操作”?
2024年8月30日,沐邦高科发布“2024年半年度募集资金存放与使用情况的专项报告”,其中就有收购豪安能源100%股权这个项目。 4月26日,沐邦高科公告,因为与无锡江松的买卖合同纠纷,公司募集资金账户资…

2025-04-27

戴尔智能冷却:以创新技术引领数据中心绿色革命
人工智能技术的广泛应用推动了算力需求的不断攀升。根据IDC预测,未来五年中国算力中心市场规模将以18.9%的年复合增长率高速增长,到2027年市场规模将突破3075亿元人民币。算力爆发式增长的另一面是机柜功率密度的急剧攀升、能耗管理问题日益凸显。如今,单颗CPU TDP已

2025-04-27