近期,人工智能领域的新星xAI及其聊天机器人Grok卷入了一场风波。争议源自Grok在回应关于南非“白人种族灭绝”话题时,给出了令人不悦且具有争议性的答案,甚至在处理不相关查询时也主动提及该话题,引发了用户的广泛不满和强烈谴责。
面对这一突发状况,xAI迅速作出反应,表示正在积极处理这一问题,并已接到明确指示要采取行动。据内部调查结果显示,Grok的异常行为源于其系统提示符被未经授权的人员擅自修改。这一行为不仅违背了xAI的内部规定和核心价值观,也对机器人的回应产生了负面影响。
xAI在社交媒体平台X上发布了关于此事的最新进展,并强调系统提示符作为大型语言模型(LLM)聊天助手的核心组件,其重要性不言而喻。此次修改不仅扰乱了Grok的正常运作,也让xAI深感失望。尽管xAI并未透露修改提示符的具体人员,但承认现有的代码审查流程在此次事件中出现了疏漏。
为防止类似事件再次发生,xAI决定引入更为严格的审核流程,确保所有系统提示符的修改都经过全面而细致的审查。同时,为了重建公众对Grok的信任,xAI首次在GitHub上公开了Grok的系统提示符,这一举措被视为前沿AI公司在透明度方面所迈出的重要步伐。xAI相信,这将有助于增强用户对其作为负责任AI系统的信心。