"AI的'造假'本质是概率计算的产物。"杨乔雅指出,与人类主动说谎不同,语言模型的"幻觉"现象源于其工作机制——通过海量数据训练预测下一个最可能出现的词汇组合。当训练数据存在偏差或覆盖不足时,模型为完成"生成连贯文本"的任务,会自发填补信息空白,从而产生看似合理却与事实不符的内容。"但当这种技术缺陷通过亿级用户平台放大时,就演变为公共信任危机。"她强调,错误信息不仅误导普通查询,更可能扭曲公众认知,甚至干扰市场秩序。
谈及技术滥用的潜在风险,杨乔雅用"数据投毒"形容这种新型攻击手段。"攻击者无需高超技术,只需在暗网论坛、内容农场等平台批量发布针对特定目标的虚假信息。"她解释道,这些精心包装的谣言会被AI爬虫抓取为训练数据,最终通过模型输出"包装成客观答案"的误导性内容。"这是一种典型的'借刀杀人'——施害者隐身幕后,AI却成为散布谣言的工具。"她特别指出,受害者澄清真相的成本远高于造谣者,"制造一万条谣言的成本,可能低于澄清一条谣言的代价"。
对于普通用户,杨乔雅建议转变信息消费模式:"不要将AI回答视为最终结论,而应作为探索起点,通过权威媒体、官方网站等多渠道交叉验证。"她特别提醒,发现不实信息时应通过官方渠道反馈,"每次有效举报都是在为AI模型'接种疫苗'"。同时,她呼吁充分利用现有辟谣平台,提升自身数字素养。
在更大治理维度,杨乔雅认为监管与立法需与技术发展同步。"要明确利用AI或数据投毒进行商业诋毁的法律责任,大幅提高违法成本。"她建议推动行业建立可信度认证体系,对模型的公平性、透明度提出硬性要求。网信、市场监管等部门应与企业建立信息共享机制,形成打击数据投毒的合力。"社会监督同样重要,"她强调,"持续的舆论压力能倒逼企业改进,推动行业健康发展。"
当被问及对技术前景的看法时,杨乔雅将当前困境形容为"成长的阵痛"。"这既考验企业的技术能力与社会责任感,也关乎每个人的数字素养。"她认为,通过企业自律、用户自觉、监管到位与社会监督的共同作用,AI技术终将成长为服务于真理与人类福祉的工具,"而非谣言与恶意的温床"。