ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

快手团队攻克大模型训练关键难题:平衡探索与收敛的CE-GPPO算法登场

时间:2025-10-16 00:27:04来源:快讯编辑:快讯

在人工智能技术日新月异的当下,如何提升大型语言模型的训练效果成为学界与产业界共同关注的焦点。快手科技Klear团队联合独立研究者李云涛完成的一项突破性研究,为这一难题提供了创新解决方案。该成果以论文形式发表于arXiv预印本平台(编号:arXiv:2509.20712v3),通过重新设计强化学习算法,在模型探索能力与知识利用效率之间实现了更优平衡。

研究团队将传统训练方法比喻为"填鸭式教育":模型被严格限制在预设的解题框架内,任何超出范围的思考都会被直接否定。这种模式虽能保证训练稳定性,却导致模型逐渐丧失创新能力。以数学解题为例,现有主流算法(如PPO)如同只接受标准答案的教师,完全忽视学生提出的非常规思路,即便这些思路可能蕴含重要突破点。

核心问题在于传统算法的"策略熵"控制机制存在缺陷。研究指出,模型输出的词元可根据概率与优势值分为四类:高概率正优势、低概率负优势、高概率负优势和低概率正优势。前两类虽能加速模型收敛,但容易导致过早陷入局部最优解;后两类虽看似"非主流",却是维持模型探索能力的关键。传统PPO算法通过简单裁剪机制丢弃后两类信息,直接引发了"熵坍塌"(探索能力丧失)和"熵爆炸"(过度探索导致知识利用失效)两大问题。

针对这些弊端,研究团队提出CE-GPPO(通过梯度保持裁剪策略优化协调熵)算法。该方案的创新之处在于引入"停梯度"技术,为模型创新思考设置安全缓冲区。通过两个可调节参数β1和β2,算法能够精准控制不同类型词元的影响权重:对具有潜在价值的低概率创新答案给予适度关注,同时抑制可能导致模型偏离的噪声信息。

实验数据显示,CE-GPPO在数学推理基准测试中表现卓越。在AIME24、AIME25、HMMT25等权威测试集上,新算法均显著超越现有强基线方法。规模效应测试显示,其优势随模型参数增加而扩大:1.5B参数模型提升2.5个百分点,7B参数模型提升达3个百分点。特别在复杂任务中,CE-GPPO展现出更强的适应能力。

参数调节实验揭示了算法的灵活性。当β1=0.5或0.75且β2=1时,模型能在探索与利用间取得最佳平衡。增大β1或减小β2可加速收敛,反之则增强探索能力。这种可调节性使算法能够适配不同应用场景的需求。

稳定性监测表明,CE-GPPO在整个训练过程中保持平稳表现。KL散度和梯度范数曲线显示,新算法在引入额外学习信号的同时,未出现传统方法常见的剧烈波动。与其他先进算法(如CISPO、GSPO)的对比测试中,CE-GPPO在五个测试集的四个中取得最优成绩,且避免了竞争方法常见的模型崩溃问题。

理论层面,研究团队构建了策略熵动态变化的数学模型,首次证明了被传统方法忽视的"越界"词元对维持探索能力的重要性。推导出的公式清晰展示了不同类型词元如何影响模型的决策平衡,为算法设计提供了坚实的理论支撑。

实际应用中,CE-GPPO在需要深度思考的任务领域(如数学推理、科学计算、代码生成)展现出巨大潜力。通过平衡创新探索与知识利用,该算法有望推动更智能、更可靠的AI系统开发。不过研究也指出,不同模型可能需要调整最优参数设置,β1=0.5、β2=1的通用配置仍需根据具体场景微调。

更多热门内容
快手清华携手破局:ASPO算法攻克大模型强化学习权重错配难题
近期,由快手与清华合作的研究团队发现,现有的结果监督强化学习范式存在一种深层次的权重错配现象,它不仅让模型「过度自信」,甚至可能导致熵坍缩与训练早熟收敛。 上述分析说明,IS在结果监督强化学习算法中不再是「…

2025-10-16

百度搜索升级文心助手8种模态创作,蒸汽机模型实现AI长视频实时交互
10月15日,百度搜索宣布全面升级文心助手AIGC创作能力,支持AI图片、AI视频、AI音乐、AI播客等8种模态创作,且能够一键调用多工具解决多场景问题。在内容创作领域,文心助手已经支持AI图片、AI视频、A…

2025-10-16

AI长任务执行困境:小错累积致“跑偏”,思考型模型或成破局关键
主导研究的剑桥大学研究生AkshitSinha团队发现,大模型翻车压根不是“思考幻觉”的锅,问题出在“执行力”上,就像有人做复杂手工,步骤都懂,却越做越错。 更无奈的是,就算把模型参数量堆到2000亿以上,…

2025-10-16

百度吴甜:大模型时代AI基础平台发力 驱动软件生态创新发展
在这一阶段,AI研发范式带来了开发、计算、部署的新挑战,尤其是大模型的高效训练和推理部署,需要软硬件协同发力。在制造行业,中车集团依托百度飞桨产业级深度学习平台以及飞桨科学计算PaddleCFD套件,创新性构…

2025-10-16