ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

语言模型决策力大飞跃:DeepMind新技术如何缩小知道与做到的距离?

时间:2025-05-20 15:06:04来源:ITBEAR编辑:快讯团队

近期,谷歌DeepMind团队与约翰·开普勒林茨大学的LIT AI实验室携手,在提升语言模型决策能力方面取得了突破。这一成果通过强化学习微调(RLFT)技术实现,旨在解决当前语言模型在决策过程中的一系列问题。

语言模型,经过海量互联网数据的训练,已展现出超越单纯文本处理的潜力。它们能够利用内部知识推理,在交互环境中做出行动选择。然而,这些模型在决策时仍面临诸多挑战。例如,它们能够推导出正确的策略,但在执行时却常常力不从心,形成了所谓的“知道却做不到”的鸿沟。模型还倾向于过度追求短期的高回报,而忽视了长期的利益,这被称为“贪婪选择”。更小的模型则容易陷入机械重复常见动作的困境,即“频次偏见”。

传统强化学习方法,如UCB算法,虽然在平衡探索与利用方面表现出色,但难以从根本上解决语言模型内在的推理与行动脱节问题。为了克服这一难题,DeepMind团队创新性地采用了强化学习微调技术。该技术以模型自生成的思维链为训练信号,通过评估每个推理步骤对应的行动奖励,引导模型优先选择既逻辑自洽又实际高效的行动方案。

在具体实施过程中,模型根据输入的指令和行动-奖励历史,生成包含推理过程和动作的序列。这些序列通过蒙特卡洛基线评估和广义优势估计进行优化。对于无效的动作,系统会触发惩罚机制。同时,奖励塑造技术既确保了输出格式的规范性,又保留了足够的探索空间。

为了验证这一技术的有效性,研究团队进行了多项测试。在多臂老虎机测试中,面对10臂和20臂的情况,模型的动作覆盖率显著提升。特别是在10臂测试中,2B参数模型的动作覆盖率提高了12个百分点。而在20臂测试中,虽然改善幅度较小,但频次偏见率从70%骤降至35%,仍然具有显著意义。

在井字棋实验中,模型的表现同样令人瞩目。与随机对手对战时,模型的胜率提升了5倍。而与最优蒙特卡洛树搜索代理的对战中,模型的平均回报从-0.95归零。值得注意的是,27B大模型在生成正确推理的概率方面达到了87%。然而,在未进行微调时,仅有21%的模型会执行最优动作。这一强化学习微调技术有效地缩小了这一差距,显著提升了模型的决策能力。

更多热门内容
腾讯混元打造游戏视觉新纪元,工业级AIGC引擎助力美术设计飞跃
新榜讯 5 月 20 日,腾讯重磅发布混元游戏视觉生成平台。此平台乃是依托混元大模型构建的首个工业级 AIGC 游戏内容生产引擎,极大程度优化了游戏资产生成以及游戏制作流程。其专注于游戏工业级内容的生产,为游…

2025-05-20

英伟达CEO于Computex 2025展示AI超级计算机新突破
The system is purpose-built for real-time inference workloads,including Agentic AI and Physical AI app…

2025-05-20