ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

微软清华北大联手,推出RRMs模型,让AI推理更智能高效!

时间:2025-05-27 14:36:58来源:ITBEAR编辑:快讯团队

近日,科技界迎来了一项新的突破,微软研究院携手中国顶尖学府清华大学与北京大学,共同推出了一项名为奖励推理模型(RRMs)的创新技术。这项技术旨在通过动态的计算资源分配,优化复杂任务的评估效果,为人工智能领域带来了新的曙光。

强化学习(RL)作为当前大语言模型(LLM)后训练的关键方法,已经引起了广泛的关注。通过人类反馈(RLHF)或可验证奖励(RLVR)提供的监督信号,强化学习在模型训练中发挥着举足轻重的作用。然而,尽管RLVR在数学推理中展现出巨大潜力,但其对可验证答案训练查询的依赖,限制了其在通用领域的大规模应用。

现有的奖励模型主要分为标量型和生成型两大类,但它们在测试时计算资源的扩展上均存在不足。传统的做法是对所有输入一视同仁,统一分配计算资源,这种“一刀切”的方式缺乏对复杂查询的细致分析能力,导致评估结果不尽如人意。为了打破这一瓶颈,微软研究院、清华大学和北京大学的科研团队联手推出了RRMs。

RRMs的核心优势在于其显式推理过程。在给出最终奖励之前,RRMs会执行一系列复杂的推理步骤,根据任务的复杂性自适应地分配额外的计算资源。这一创新机制使得RRMs在面对奖励不明显的复杂查询时,能够投入更多的测试时计算资源,从而得到更准确的评估结果。

RRMs基于Qwen2模型,采用了Transformer-decoder架构,将奖励建模转化为文本补全任务。在生成推理过程后,RRMs会给出最终的判断。为了全面评估RRMs的性能,研究团队利用RewardBench库进行了系统分析,评估指标涵盖了指令遵循性、帮助性、准确性、无害性和细节水平等多个方面。

RRMs还支持多响应评估,通过ELO评分系统和淘汰赛机制,结合多数投票策略,进一步提升了计算资源的利用率。在RewardBench和PandaLM Test基准测试中,RRMs展现出了卓越的性能。特别是在推理类别中,RRM-32B的准确率高达98.6%,与使用相同数据训练的DirectJudge模型相比,RRMs展现出了显著的性能优势。

在奖励引导的最佳N推理(Best-of-N Inference)和后训练反馈中,RRMs同样超越了所有基线模型,并进一步提升了多数投票机制的效率。研究还发现,随着模型规模从7B、14B扩展到32B,更长的推理时间始终能够带来准确性的提升。RRMs通过并行和顺序扩展方法高效地利用了计算资源,为传统的标量奖励模型提供了强有力的替代方案。

这一创新成果不仅为人工智能领域带来了新的突破,也为未来的智能系统发展奠定了坚实的基础。RRMs的推出,标志着我们在复杂任务评估方面迈出了重要的一步,为人工智能的广泛应用开辟了新的道路。

随着技术的不断进步和创新,我们有理由相信,未来的智能系统将更加智能、高效和人性化。RRMs的成功推出,无疑为这一愿景的实现注入了新的活力和动力。

更多热门内容
AI内容时代:视频大模型引领商业化新浪潮?
搞内容创作十多年,一路蹉跎苟延残喘到现在,我也尝试过做短视频内容,各种风格都试了,出镜的不出镜的,商业的八卦的,踩的坑也不少。视频内容繁荣的另一面,其实也是创作成本的降低。 也因此,内容制作成本越低,边际效…

2025-05-31

AI职场幻觉频发,你中招了吗?
赶在交稿日期截止的编辑周子衡看来,那段话“逻辑通顺、语气专业、甚至连百分比都标得刚刚好”,结果却是凭空捏造;电商客服王萌的团队,因为AI生成了一段“模板式话术”,误发了不适用的退货规则,客户拿着截图投诉,平…

2025-05-31