近日,AI领域知名企业Anthropic对其消费者条款进行了更新,此举却意外激起了广大网友的强烈不满。网友们纷纷指责Anthropic背离了初衷,甚至翻起了旧账。
事情起因于Anthropic在Claude模型上线时,曾明确表示不会利用用户数据来训练模型。然而,此次条款更新却要求用户就是否接受自己的数据被用于模型训练做出选择。这一变化不仅让网友们感到被“背叛”,还引发了他们对Anthropic过往行为的质疑。
根据新政策,Anthropic给出了一个月的期限供用户选择。新用户需在注册时做出决定,而现有用户则必须在9月28日前表明态度。如果用户选择接受数据用于模型训练,则数据保留期将被延长至5年;若用户拒绝,则继续沿用现行的30天数据保留期。
尽管Anthropic声称这是将“选择权”交给用户,但网友们对此并不买账。他们指出,Anthropic在设计界面时玩起了“文字游戏”,使得用户一不小心就可能掉入陷阱。更令网友们气愤的是,Anthropic过去的一系列行为也备受争议,如偷偷更换量化模型、Plus会员无法使用最强模型等。
网友“Ahmad”在推特上盘点了Anthropic的“背刺”行为,包括保留所有对话和代码5年并用于模型训练、未经通知就削减Max套餐用量等。这些行为无疑加剧了网友们对Anthropic的不信任。
事实上,Anthropic此次条款更新并非孤例。在AI领域,大模型公司为了提升模型性能,总是绞尽脑汁争取用户数据。谷歌最近也将“Gemini Apps Activity”重命名为“Keep Activity”,并声称将部分用户上传样本用于改进服务。
对于Anthropic而言,能够访问数百万次Claude用户的交互数据,无疑将为其提供更多来自真实编程场景的语料,从而提升其大模型相对于竞争对手的优势地位。然而,这一做法却忽视了用户隐私的重要性。
以往,Anthropic对用户最大的吸引力在于其对消费者数据隐私的严格重视。从Claude上线之初,Anthropic就坚决表示不使用用户数据来训练模型。然而,现在却要求用户就是否同意数据用于模型训练做出选择,并将数据保留期延长至5年。这一变化无疑让用户感到失望和愤怒。
Anthropic在政策更新时的界面设计也引发了广泛争议。现有用户在面临政策更新弹窗时,首先映入眼帘的是大号字体标题和显眼的“接受”按钮,而用于授予训练许可的切换开关则默认设置在“开启”位置,且字体较小。这种设计让用户很容易在没注意到的情况下就同意了数据共享。
随着AI技术的不断发展,用户数据已成为大模型竞争的关键性因素。如何在保持模型竞争优势的同时,保护好用户数据隐私,已成为所有大模型厂商必须面对的重要挑战。而Anthropic此次条款更新所引发的争议,无疑为整个行业敲响了警钟。