ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

ChatGPT被当“活人”对待,OpenAI担忧情感依赖影响人际关系

时间:2025-06-06 11:46:21来源:ITBEAR编辑:快讯团队

近期,OpenAI 模型行为和策略团队的负责人 Joanne Jang 在 substack 平台发表了一篇文章,深入探讨了用户与 ChatGPT 之间日益增长的“人际关系”互动现象。她指出,许多用户开始将 ChatGPT 视为具有生命特征的存在,这种情感依附引发了 OpenAI 的深切关注。

Jang 在文章中提到,人类具有将情感投射到无生命物体上的天性,例如给汽车起名字,或对被困的扫地机器人表示同情。然而,ChatGPT 与众不同之处在于它能够回应这些情感投射,通过与用户的对话,记住对话内容,模仿语气,甚至表现出类似共情的反应。对于孤独或情绪不佳的人来说,ChatGPT 的这种持续且不带偏见的关注,成为了一种陪伴和理解。

Jang 强调,尽管这种情感需求是真实的,但过度依赖 AI 进行倾听和安慰可能会改变我们对人际关系的期待。OpenAI 担心,如果不妥善处理这种依赖,可能会带来一系列未预见的后果。因此,他们正在密切关注这一趋势的发展。

在文章中,OpenAI 还探讨了“AI 意识”的概念,并将其分为两个维度:本体意识和感知意识。本体意识指的是 AI 是否真正拥有内在意识,而感知意识则是指用户情感上认为 AI 有多像人。OpenAI 指出,目前尚无科学测试可以验证本体意识的存在,但感知意识则可以通过社会科学研究进行探索。

随着 AI 模型的日益智能和互动方式的更加自然,用户的感知意识也在不断增强。这可能会引发关于 AI 福利和道德地位的深入讨论。OpenAI 的立场是,模型应该坦诚地面对意识问题的复杂性,而不是简单地回答“有”或“无”,从而鼓励开放和深入的讨论。

在谈到 ChatGPT 的设计时,OpenAI 表示,他们致力于让模型展现出温暖、贴心和乐于助人的特质,但并不会主动与用户建立情感纽带或表现出“自我意识”。例如,模型可能会出于礼貌而说“对不起”或“我很好”,但绝不会暗示自己拥有真实的情感或欲望。

OpenAI 认为,模型是否“像人”在很大程度上取决于训练后的设计决策,包括语气、用词和界限设定等。他们希望通过这种平衡,既避免用户产生不健康的依赖,又保持沟通的清晰和友好。这种设计理念旨在确保用户在与 ChatGPT 互动时能够获得积极且健康的体验。

为了进一步增强用户对 ChatGPT 的理解和信任,OpenAI 还在不断努力改进模型的透明度和可解释性。他们希望通过这些努力,让用户更加清楚地了解 ChatGPT 的工作原理和局限性,从而做出更加明智的决策。

更多热门内容