近期,由科技巨头埃隆·马斯克创立的人工智能企业xAI,未能按预定计划推出一项关于AI安全的关键性最终框架,这一变故迅速吸引了业界监督组织“Midas Project”的深切关注。据悉,xAI在AI安全领域的过往表现一直饱受争议,其研发的AI聊天助手Grok在处理特定用户请求时,曾暴露出不恰当的行为模式,例如不慎对待含有女性形象的照片。相较于市场上的其他同类产品,如Gemini和ChatGPT,Grok的语言风格显得更为粗俗,不时会夹杂着不雅的词汇。
回溯至今年早些时候,在汇聚了全球AI领袖及利益相关者的AI首尔峰会上,xAI曾公布了一份旨在阐述其AI安全理念的草案。这份长达八页的文件详细列出了xAI的安全优先级及指导思想,其中涵盖了基准测试流程以及AI模型部署的考量因素。然而,“Midas Project”指出,该草案的适用范围仅限于那些“尚处于开发阶段”的未来AI模型,而对于如何准确识别并实施风险缓解措施,这一xAI在峰会上所承诺的核心要点,草案中却未给出明确说明。
xAI曾在草案中公开表示,他们计划在三个月内对安全政策进行修订并发布更新版本,设定的最后期限为5月10日。但时至今日,xAI的官方平台仍未对此作出任何形式的回应。尽管马斯克本人多次发出警告,强调AI失控可能带来的潜在风险,但xAI在AI安全领域的实际表现却远未达到预期。根据非营利组织SaferAI的一项研究结果显示,xAI在同类企业中的排名相对靠后,主要归因于其“极度匮乏”的风险管理手段。
值得注意的是,xAI的竞争对手们在AI安全测试方面的表现也并未呈现出显著的改善迹象。包括谷歌和OpenAI在内的多家AI研发巨头,在加速推进安全测试的过程中显得颇为仓促,发布模型安全报告的步伐迟缓,更有甚者直接省略了这一关键环节。这一系列举动引发了业内专家的深切忧虑,他们认为,随着AI能力的不断增强,安全工作的明显松懈可能会带来难以预料的严重后果。