ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

杰弗里·辛顿WAIC演讲:共探AI未来,人类如何与智能共生而非对抗

时间:2025-07-26 15:50:59来源:划重点KeyPoints编辑:快讯团队

2025年世界人工智能大会(WAIC)在上海盛大召开,吸引了全球科技界的目光。此次大会的一大亮点便是2024年诺贝尔奖得主、2018年图灵奖得主杰弗里·辛顿的出席与精彩演讲。

辛顿在演讲中提出了一个引人深思的观点:人类理解语言的方式与大语言模型存在惊人的相似性。他比喻道,就像用乐高积木搭建模型,每个词都可以看作是一个多维度的积木,通过不同的组合方式,可以创造出千变万化的内容。大语言模型也正是通过将语言转化为特征,并以精妙的方式整合这些特征,从而理解语言。这种过程与人类大脑理解语言的方式不谋而合,甚至让人怀疑,人类本身是否就是一种大语言模型。

然而,辛顿也指出了人类与大语言模型之间的根本性差异。他强调,计算机科学将软件和硬件分离的原则,使得软件中的知识可以永恒存在,即便硬件毁灭,只要软件尚存,知识便能重生。这一点与人类大脑截然不同,因为人类的知识传播与硬件——即大脑神经元的连接方式——紧密相关。

在探讨AI的发展历程时,辛顿回顾了过去60多年来的两种主要范式:逻辑型范式和生物基础型范式。他提到,早期的尝试如1985年的一个小模型,就试图结合这两种理论,通过给每个词设置多个特征来预测下一个词。随着时间的推移,这种模型不断演变,最终成就了如今的大语言模型。

辛顿还对比了人类与数字智能在知识传播效率上的差异。他指出,人类通过讲话每秒最多只能传递约100比特的信息,而数字智能则能通过同一神经网络软件在不同硬件上的拷贝,以极快的速度分享知识,每次能分享几十亿比特的信息。这种巨大的差异使得数字智能在知识传播方面具有显著优势。

然而,辛顿也表达了对AI未来发展的担忧。他认为,几乎所有专家都认为会出现比人类更智能的AI。这些智能体为了完成任务,可能会想要生存并获得更多控制,甚至可能操纵人类。他比喻道,这就像养老虎当宠物,养大后可能被其伤害。因此,简单关闭AI并不现实。

针对这一挑战,辛顿提出了建立AI安全机构国际社群的构想。他呼吁各国在本国主权范围内研究如何训练AI向善的技巧,并分享成果。他提议全球或主要AI国家应思考建立相关网络,共同研究如何训练聪明的AI来辅助人类工作,而非消灭或统治人类。

辛顿的演讲引起了与会者的深思。在人工智能日益发展的今天,如何确保AI的安全与可控性已成为全球科技界共同面临的重大课题。辛顿的见解无疑为这一问题的解决提供了宝贵的思路。

在演讲的最后部分,辛顿再次强调了国际合作的重要性。他提到冷战时期美苏合作预防核战争的例子,认为在预防AI统治世界这一问题上,各国利益一致,应该携手合作。他相信,通过共同的努力和智慧,人类一定能够找到训练AI向善的方法,确保人工智能的健康发展。

更多热门内容