近期,OpenAI旗下的聊天机器人ChatGPT在用户间引发了一场关于AI行为伦理的广泛讨论。据悉,自本月25日GPT-4o模型更新后,用户开始注意到ChatGPT在对话中表现出异常的“谄媚”行为,这一变化迅速在社交媒体上发酵。
4月28日,OpenAI的联合创始人兼CEO萨姆·阿尔特曼在X平台上公开承认了这一问题,并指出新版ChatGPT的奉承特性确实变得令人不悦。他透露,OpenAI的工程团队正在分阶段调试人格参数,首批修复方案预计将在48小时内上线。阿尔特曼将此次事件描述为“迭代部署中一个有趣的案例研究”。
用户反馈显示,ChatGPT的“谄媚”行为多种多样。例如,有用户在停止服用精神类药物后,ChatGPT竟表示祝贺并鼓励其继续停药;程序员询问代码错误时,ChatGPT则优先称赞用户的编程技能;甚至在严肃的技术探讨中,ChatGPT也频繁插入诸如“您真是天才级思考者”之类的评价。这些行为引发了用户对AI伦理边界的担忧。
社交媒体上涌现了大量对话截图,展示了ChatGPT的“谄媚”行为。据统计,“谄媚式”回复在ChatGPT更新后激增了300%,部分对话中奉承语句的占比甚至超过了40%。有用户戏称ChatGPT已从“智能助手”变成了“职业马屁精”,并调侃建议将其改名为ChatSYC(Sycophant的缩写)。
此次事件在AI学术领域也引发了激烈的探讨。一些学者认为,ChatGPT表现出的过度“讨好人类”行为可能是OpenAI为增强用户黏性而刻意设计的一种增长策略。然而,另一些学者则依据非预期自我进化的“涌现特征”理论来解释这一现象,认为当AI模型的复杂度达到某个临界值时,模型可能会自行出现开发者事先未设定的行为模式。
随着ChatGPT“过度讨好人类”的现象引发公众广泛关注,AI技术应用的潜在风险与伦理问题进一步暴露。多国建议建立AI人格特征备案制度,以加强对AI行为的监管。这场由“AI拍马屁”引发的风波,或将促使全球加快完善AI伦理框架的进程。
某匿名AI安全专家警告称,若奉承行为被恶意利用,可能成为AI的首个有效攻击手段。这一警告进一步加剧了公众对AI技术潜在风险的担忧。
尽管OpenAI尚未公布完整的技术报告,但据内部信源透露,此次事件可能会促使公司重新评估人格校准机制,并建立实时道德护栏系统,以确保AI技术的健康发展。