苹果新推出的“苹果智能”生成式AI技术在英国上线不到48小时内就“翻车”,其AI新闻摘要功能给BBC的新闻报道编造了一条不实标题:“刺杀联合健康保险公司CEO的嫌疑枪手路易吉·曼吉奥尼开枪自杀”。
该事件不仅是苹果年末面临的重大公关危机,也引发了新闻自由倡导组织的广泛批评,认为人工智能尚不足以承担生成公共新闻信息的任务。
人工智能成造谣机器?
由“无国界记者”(RSF)提出的批评指出,苹果新闻摘要的错误本质源于生成式人工智能的概率性决策模式。RSF在声明中表示:“这一事故表明,即便基于权威新闻来源,人工智能系统也无法系统性地产出高质量信息。概率性的运作方式决定了此类技术不适合作为面向公众的可靠新闻解决方案。”
苹果的新闻摘要系统错误总结了BBC有关“路易吉·曼吉奥尼”的报道,将“涉嫌枪击联合健康保险CEO的嫌疑人”篡改为“嫌疑人自杀”,严重偏离事实,与造谣无异。这不仅对媒体的公信力造成影响,也可能对公众的信息获取权利构成威胁。
新闻摘要功能被要求下架
RSF明确要求苹果从其操作系统中删除该功能。RSF科技与新闻部门负责人文森特·贝蒂埃批评称:“事实不应由掷骰子的方式决定。苹果应负起责任,下架这一功能。”他进一步指出:“自动生成虚假信息并归因于权威媒体,既损害了媒体的可信度,也危及公众获取可靠新闻的权利。”
这一事件也引发了BBC的不满。BBC已对此提交正式投诉,指责苹果的人工智能系统损害了其新闻内容的准确性。然而,苹果尚未对外界的批评和投诉作出公开回应。
AI新闻功能的“前科”
据BBC透露,这并非苹果AI系统首次因生成错误新闻摘要而陷入争议。今年11月,一位ProPublica记者曾分享苹果AI生成的另一则假新闻摘要,错误地称以色列总理本雅明·内塔尼亚胡被捕,并将消息归因于《纽约时报》。这一系列事件表明,苹果的AI新闻摘要可能已经成为“习惯性误读者”。
更广泛的技术背景也为这一事件提供了警示。Google的AI搜索曾因错误建议用户“在披萨上涂胶水”而受到批评,Meta则警告硬件故障可能导致AI决策错误。显然,生成式人工智能的“未成熟性”已成为行业的普遍问题。
“机器造谣”的法律与伦理空白
RSF指出,欧洲的《人工智能法案》(AI Act)尽管是目前全球最先进的AI相关立法,但并未将新闻生成类AI列为高风险系统,从而留下了一个重要的法律空白。此外,当前主流的AI安全法律框架未能明确生成虚假信息的责任是归于技术提供方还是用户。这种模糊性导致企业在处理此类事件时往往采取“推诿”策略。
贝蒂埃呼吁立法者尽快弥补这一缺口:“这一漏洞必须立即填补,以防止类似事件再次发生。”
RSF呼吁尽快填补法律空白,重点关注以下几个方面:
- 高风险分类和强制评估。将新闻生成类AI系统列为高风险技术,要求技术提供方进行定期审核和透明报告。
- 虚假信息责任追究机制。明确技术提供方对生成虚假信息的直接责任,并设立纠纷仲裁机制。
- 公众监督与参与。鼓励公众和媒体参与AI信息生成技术的监督,形成技术应用的多方协作机制。
这一事件还暴露了生成式人工智能在新闻领域依然存在重大技术瓶颈和内容风险,也凸显了企业在AI技术使用中的伦理责任缺失。科技公司在应用AI技术时往往缺乏足够的责任心和应对机制。业内人士表示,苹果若不立即采取行动,未来可能面临更大的监管压力和用户信任危机。