ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

苹果研究员质疑AI:简单数学题一改就出错?

时间:2024-10-12 11:32:25来源:ITBEAR编辑:瑞雪

【ITBEAR】近年来,人工智能(AI)在各个领域取得了显著进展,尤其是大型语言模型(LLM),它们能够生成人类水平的文本,甚至在某些任务上超越人类。然而,一项新研究对LLM的推理能力提出了质疑。苹果公司的一组研究人员发现,这些模型在解决简单数学问题时,只要问题稍有变动,就容易出错,暗示它们可能并不具备真正的逻辑推理能力。

研究人员在一篇名为《理解大型语言模型中数学推理的局限性》的论文中揭示了LLM在解决数学问题时易受干扰的现象。他们通过对数学问题进行微小改动,例如添加无关信息,来测试LLM的推理能力。结果发现,面对这样的变化,模型的表现急剧下降。

例如,当给出一个简单的数学问题:“奥利弗星期五摘了44个奇异果,星期六摘了58个。星期日,他摘的是星期五的两倍。他一共摘了多少个?”LLM能正确回答。但若添加无关细节:“星期日摘的是星期五的两倍,其中5个比平均小。”LLM的回答则出错。GPT-o1-mini的回答是:“...星期日,其中5个奇异果比平均小。我们需要从总数中减去它们:88 - 5 = 83个。”

这只是一个例子,研究人员修改了数百个问题,几乎所有改动都导致模型回答成功率大幅下降。他们认为,这表明LLM并未真正理解数学问题,而只是根据训练数据中的模式进行预测。一旦需要真正的“推理”,如是否计算小的奇异果,它们就会产生不合常理的结果。

这一发现对AI的发展具有启示意义。尽管LLM在许多领域表现出色,但其推理能力仍有局限。未来,研究人员需进一步探索如何提高LLM的推理能力,使其更好地理解和解决复杂问题。

更多热门内容
李彦宏谈AI泡沫:难避免,但1%企业将脱颖而出!
IT之家 10 月 17 日消息,百度创始人李彦宏 10 月 16 日晚在《HBR Live:商业未来》与哈佛商业评论英文版总编辑殷阿笛(Adi Ignatius)对谈时表示,正如历史上的所有技术浪潮,在经历…

2024-10-17

百度明确表态:不涉足Sora类视频生成,为何?
36氪独家获悉,近日,百度召开2024年第三季度总监会,李彦宏提到,百度不碰Sora类的视频生成。他指出,ToB业务尽量不碰吃力不讨好的项目制,尽量推出标准化产品。文心一言改名后的ToC新搜索应用“文小言”,…

2024-10-17