近日,OpenAI研究人员在社交平台X上宣称取得数学研究重大进展,但这一说法迅速引发学界质疑并最终撤回。事件核心围绕GPT-5在埃尔德什问题上的表现展开,暴露出AI研究领域沟通方式与成果验证的深层问题。
事件起因于OpenAI管理层成员凯文·韦尔发布的一条推文。他声称GPT-5已“解决10个此前未解的埃尔德什问题”,并在另外11个问题上取得突破,形容这些问题“困扰学界数十年”。该表述被其他研究人员转发后,迅速引发关于AI能否独立进行原创性数学研究的讨论。然而,相关推文在引发争议后被大量删除。
数学家托马斯·布鲁姆率先指出问题。他运营的网站erdosproblems.com列出了部分“开放问题”,但强调这些标注仅代表他个人未掌握答案,而非学术界公认未解。GPT-5实际是通过检索找到了布鲁姆未注意到的已有研究成果,而非创造新解法。这一澄清直接否定了OpenAI关于“独立发现”的表述。
学界对OpenAI的批评集中在研究沟通的严谨性上。DeepMind首席执行官德米斯·哈萨比斯公开批评其“过于草率”,meta AI负责人杨立昆则讽刺这是“被炒作反噬”的典型案例。尽管OpenAI研究人员随后承认错误,但事件已加剧外界对其研究规范性的质疑——在涉及数十亿美元利益的AI领域,顶尖机构为何会发布未经充分验证的声明?
争议背后,GPT-5的实际价值逐渐清晰。数学家陶哲轩指出,AI在数学领域的核心潜力不在于攻克最难的问题,而在于作为高效研究工具整合分散文献。例如,当研究问题涉及跨学科术语或文献分散时,AI可快速追踪相关论文,节省研究者时间。他强调,目前AI的突破仍属“零星”,主要作用是加速研究流程而非替代人类专家。
陶哲轩进一步提醒,AI生成的结果需经人类专家严格审查。他比喻AI为“数学研究的工业化工具”,可推动领域整体进步,但人类在验证、分类和安全应用AI成果方面仍不可替代。这一观点得到部分学者认同,他们认为当前AI更适用于辅助性工作,而非直接产生重大科学突破。
事件也反映出AI研究领域的普遍挑战。即使了解GPT-5真实能力的研究者,仍可能使用“找到解决方案”等模糊表述,暴露出成果宣传与实际贡献之间的认知偏差。如何在追求技术突破的同时保持学术严谨性,成为行业需要共同面对的课题。