ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

英组织联名呼吁:应限制Meta在风险评估中过度依赖人工智能

时间:2025-06-09 15:43:57来源:ITBEAR编辑:快讯团队

近日,互联网安全领域的活跃分子向英国通信监管机构Ofcom发出了一项重要呼吁,他们要求限制人工智能(AI)在关键风险评估环节的应用。这一呼吁的背景是meta公司——旗下拥有Facebook、Instagram和WhatsApp等社交平台——计划将风险评估流程自动化。

Ofcom透露,他们正在审视这一呼吁中的担忧,此前有报告指出meta公司计划将高达90%的风险评估工作交由AI完成。这一动态引发了广泛关注和讨论。

根据英国的《在线安全法案》,社交媒体平台有责任评估平台上的潜在风险,并制定缓解措施,特别是针对儿童用户的保护和非法内容的预防。风险评估被视为该法案执行过程中的关键环节。

多个致力于儿童保护和网络安全的组织,包括莫莉・罗斯基金会、国家防止虐待儿童协会和互联网观察基金会,联合向Ofcom的首席执行官梅兰妮・道斯发送了一封公开信。信中强烈反对使用AI驱动的风险评估,认为这是一种倒退且令人担忧的做法。他们指出,完全或主要依赖自动化生成的风险评估通常不应被视为符合法案要求的“合适且充分”标准。

这些组织在信中进一步要求Ofcom对平台可能试图简化风险评估流程的假设提出质疑,并呼吁监管机构公开声明自动化风险评估的局限性。

Ofcom的一位发言人回应称,他们已明确要求相关服务提供风险评估的完成、审查和批准情况的详细信息。他们正在认真考虑这封信中的关切,并将在适当的时候作出回应。

meta公司则对这一呼吁表示异议,认为这封信故意歪曲了该公司在安全方面的立场。meta强调,他们致力于遵守法规并保持高标准的安全措施。meta的发言人解释说,他们并没有使用AI来做出风险决策,而是开发了一种工具来帮助团队识别产品是否符合法律和政策要求。他们表示,AI技术是在人类监督下使用的,以提高管理有害内容的能力,并指出技术进步已经显著改善了安全结果。

然而,此前有报道指出meta计划通过AI系统审批算法更新和新的安全功能,而不再由员工进行审查。一位匿名的meta前高管透露,这种改变将加速Facebook、Instagram和WhatsApp的应用更新和新功能的推出,但可能会增加用户面临的风险,因为潜在问题在新产品发布前更难被预防。

还有报道称meta正在考虑将青少年风险和虚假信息传播监测等敏感领域的审查流程自动化。这一消息引发了更多关于AI在风险评估中应用的争议和担忧。

更多热门内容
城市“抢人大战”再升级,人力资本红利成关键争夺点!
例如,北京经济技术开发区针对应届毕业生推出“求职7日免费住宿、实习3月免费短租、就业3年优惠长租”的阶梯式安居体系,这在北京市尚属首次;深圳喊出了“只收梦想,不收租金”的口号,将应届毕业生免费住宿天数从7天…

2025-06-09