天啊,我真希望有当时的录像带啊!6月8日,詹姆斯·科米(James Comey)在面对参议院情报委员会的时候恼怒地说道。当被指控涉嫌撒谎时,科米有这样的想法并不奇怪。这位前FBI总指挥之所以希望有录像带,正是因为在这个社会,我们认为录音和录像是真相的化身。证人们的一面之辞远不如录像带来的可信。
今天,当人们看到一段没有明显编辑痕迹的视频--无论是政客在受贿,士兵在犯下战争罪行,还是明星的不雅视频--观众们大可推断这些事的的确确发生过。但这个信奉'眼见为实'的世界即将被AI颠覆。
我们已经习惯了这样的假想:在未来,数据分析和机器学习能够帮助我们辨别真伪。没有多少人意识到这些技术实际上可以帮助我们撒谎。语音和视频造假在AI的帮助下有了突破性的进展。在不久的将来,逼真的造假视频和音频将会不时地出现在我们生活中。真相被淹没海量真真假假的图片、录音、档案和视屏之中,使得人们很难确定到底该相信什么。
Lyrebird是蒙特利尔的一家深度学习科技创业公司。这家公司致力于打造逼真的人声模拟,甚至包含说话的抑扬顿挫和不同的语音语调。比如,它可以用川普、奥巴马或希拉里的声音说话。现在,Lyrebird虽然模仿得有模有样,但就算吃瓜群众也能听出来合成语音的失真和机械化。但不管怎么说,这项技术发展迅猛。创意软件巨头Adobe正在研发相似的产品,意图创造出音频界的Photoshop。
另一方面,斯坦福的研究人员已在视频造假技术上有了惊人的突破。只需一个随处可见的网络摄像头,这款AI软件就可以使YouTube视频里的人逼真地变换表情和口型。
其他的AI研究组演示了如何将图片识别技术的倒着玩,使图片能够仅需文字描述就自动合成。此项技术的一位科研人员,杰夫·克罗恩告诉记者,'现在大家给我发真图的时候我会怀疑它是不是造假的。而他们发假照片的时候我觉得像是真的,因为现在假照片的质量和水准太高了'。
这些廉价而高质量的伪造技术令人堪忧。以目前的发展进程,不消两三年,吃瓜群众就将很难识别出造假音频,而五到十年后,这样的造假技术可以愚弄至少一部分的法医分析。当可以媲美甚至超越CGI的高质量视频造假工具落户寻常百姓家,那么伪造将会占据信息生态系统的很大一部分。这项技术的发展将会对新闻、司法、政府沟通乃至国家安全造成深远影响,改变我们对证据和真相的认知。
俄罗斯的情报部门目前聘用了数千全职员工伪造新闻、社交媒体的内容以及主流网站的评论。这些水军掌管了数以百万计的社交媒体账户。他们利用这些机器人账户发政治推文以塑形国家的政治讨论。牛津互联网研究院的宣传研究项目发现,在俄罗斯按时推送政治探讨的推特账户里有一半都是机器人。这种情况不仅仅出现在俄罗斯境内:在美国,俄罗斯的社交媒体机器人已经证明了它们有能力驱使主流媒体报道假新闻,其影响甚至波及美国的股票价格。
试想一下,如果这些机器人水军不仅有能力伪造假新闻,还能如鱼得水地自动生成以假乱真的高清视频,后果将不堪设想。技术行业和政府部门不应该坐以待毙。技术发展带来的威胁是多方面的。因此,我们必须对此采取措施。
有一些将会是技术上的解决方式。正如有些技术手段试图防止不法分子利用PS来制造假币一样,也可能会有方式方法来减轻AI伪造技术带来的恶劣影响。用于保护比特币的区块链(Blockchain)技术提供了一种可能性:有了密码学原理的保驾护航,每一笔交易都有加密的安全记录,确保了同一枚货币不会被重复支出。根据区块链的原理,我们可以设计出能够无可争议地记录视频创建时刻的相机和话筒。虽然我们无法阻止视频编辑和篡改的发生,这项技术至少能够安全加密地保留视频初次创建的时刻,从而让专家们意识到在这一日期之后的版本很可能是被改动过的。
其他的解决方式牵扯到法律法规的制定和实施。警官和公诉人可能要重新考虑他们对视频或音频证据的收集标准了。一封匿名邮件里的视频文件很可能最终会被认定为不相关信息,就好像今天的一份含有目击证词的匿名邮件一样缺乏可靠性。不久之后,或许各行各业又会重振面对面的交流方式,因为电话和视频通话不仅仅可能被数字化地拦截,更有可能会被数字化地假冒。
自十九世纪晚期,随着相机和留声机的发明,社会开始接触并利用这些技术来探寻真相。尼克斯总统称宣称他对水门事件一无所知,然而录音揭露了他的谎言。可是现在,如果政府和行业都无所作为的话,我们将生活在一个失去真相仲裁标准的社会。也许十年以后,詹姆斯·科米的愿望实现,他和川普的对话录音带浮出水面。然而到那时,群众和史学家都会不约而同地考虑一个问题:这些录音究竟是真相的见证还是又一件AI伪造品?