人工智能深度伪造技术的两面性

译文 精选
人工智能 深度学习
世界上每个硬币都有其两面性。Deepfake也有其“邪恶”的一面。

  作者 | Sze-Fung Lee

  译者 | 朱先忠

  整理 | 千山

  关于人工智能的讨论往往伴随着争议。作为人工智能深度学习领域的一个分支,Deepfake(深度伪造)技术在近几年迅速兴起。这一技术生动诠释了“眼见不一定为实”。最初,这一技术更多地用于娱乐,整蛊朋友或调侃明星,后来Deepfake逐渐“走向政坛”,为国家间的政治抹黑、军事欺骗、经济犯罪甚至恐怖主义行动等提供了新工具。

简介

  今年3月初,一条乌克兰总统沃洛蒂米尔·泽伦斯基的“视频”被广泛传播。在该视频中,泽连斯基呼吁乌克兰士兵放下武器,放弃对俄战斗。这段视频在网上迅速流传开来,但很快就被揭穿为一段用Deepfake做的换头“视频”。这个视频作为战争状态下第一个针对一国元首的Deepfake视频,预示着一种新的舆论战形式。

硬币的两面

  Deepfake技术有用吗?当然。例如,帕金森病患者可以使用语音克隆进行交流。再比如,为了保护患者隐私,把医疗视频数据里的人脸Deepfake成别人,这样患者就不会被不相干的人发现自己患病的事实,涉及隐私的医疗数据集也可以公开化,给医疗AI的研究者们提供方便。

  然而,世界上每个硬币都有其两面性。Deepfake也有其“邪恶”的一面。

  Deepfake 技术的进步使语音钓鱼尝试看起来比以往任何时候都更加可信。在 Deepfake 音频技术的帮助下,威胁行为者可以冒充其目标,并绕过语音身份验证机制等安全措施,来授权欺诈交易或欺骗受害者的联系人以收集有价值的情报。

  更严重的,在国家安全层面,如果故意使用 Deepfake 来重塑公众舆论、煽动社会冲突和操纵选举,这样的技术就有可能破坏整个社会的民主。

  上图中展示了华盛顿大学的研究人员制作的一份关于贝拉克·侯赛因·奥巴马的深度研究报告。报告中,研究人员借助人工智能技术,通过第三者并模仿美国前总统奥巴马的一段演讲视频中的面部动作,成功伪造出一段冒牌奥巴马演讲的视频。

制造混乱

  Deepfake 基于生成对抗网络实现。生成对抗网络是非监督式学习的一种方法,通过让两个神经网络相互博弈的方式进行学习。

  生成对抗网络由一个生成网络与一个判别网络组成。生成网络从潜在空间(latent space)中随机取样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。

  虽然 Deepfake 背后的技术听起来可能很复杂,但利用这种“换头术”生成假货却很简单。目前市场上已经存在不少这样的在线应用程序,比如 Faceswap 和 ZAO Deepswap,可以在几分钟内生成深度伪造效果。

  Google Colaboratory 是一个在线存储多种编程语言源码的代码仓库,其中开放的代码中就包括可用于生成虚假图像和虚假视频的源码示例(https://colab.research.google.com/github/AliaksandrSiarohin/first-order-model/blob/master/demo.ipynb)。

  借助于这种全世界可访问的软件,人们很容易看到这样的事实:大量的普通用户在没有意识到潜在安全风险的情况下,借助 Deepfake 给社会带来不同程度甚至是严重的破坏。

  换脸应用程序和 Deep Nostalgia 等公司的在线服务的广泛流行表明, Deepfake 能以多么快的速度被公众广泛接受。仅仅2019年一年时间,他们就检测到约有15000个使用Deepfake 技术伪造的视频。显然,这个数字预计还会迅猛增加。

  Deepfake 是造假活动的完美工具,因为它们能够产生可信的假新闻,而这种假新闻需要一定的时间才能揭穿。与此同时,假货——尤其是那些影响人们声誉的假货——造成的损害往往是持久性的和不可逆转的。

眼见为实吗?

  Deepfake 最危险的后果可能是利用它们在政治竞选中提供虚假信息。

  这方面的一个有力的例证是,唐纳德·特朗普曾经将任何不讨人喜欢的媒体报道称为“假新闻”。通过指责批评者传播假新闻,特朗普得以利用错误信息为自己的错误行为辩护,并将其作为宣传工具。

  特朗普的战略允许他在充满不信任和虚假信息的环境中保持支持,声称“真实事件和故事都是假新闻或假货”。

  于是,政府和媒体的信誉正在受到损害,并造成了不被信任的恶劣影响。随着假冒伪劣产品的日益增多,政客们很容易否认对任何新出现的丑闻负有责任。如果一个人否认视频中的身份,怎么能确认他的身份呢?

  另一方面,在民主国家努力维护言论自由的过程中,打击虚假信息一直是一项挑战。通过把人类与机器人结合起来等技术就可以通过让人们验证信息来帮助应对不断增加的假货风险。此外,还可以考虑引入新的立法或使用现有法律等手段来惩罚伪造信息和冒充他人的假货生产商。

  此外,国际性组织和国家政府、私营公司以及其他组织的多学科交叉方法对于保护民主社会免受虚假信息的侵害都至关重要。人工智能对国家安全的影响已成为世界各国重点关注和研究的议程。

译者介绍

  朱先忠,51CTO社区编辑,51CTO专家博客、讲师,潍坊一所高校计算机教师,自由编程界老兵一枚。早期专注各种微软技术(编著成ASP.NET AJX、Cocos 2d-X相关三本技术图书),近十多年投身于开源世界(熟悉流行全栈Web开发技术),了解基于OneNet/AliOS+Arduino/ESP32/树莓派等物联网开发技术与Scala+Hadoop+Spark+Flink等大数据开发技术。

  原文标题:Think deepfakes don’t fool you? Sorry, you’re wrong

  链接:https://thenextweb.com/news/deepfakes-fool-you

责任编辑:张洁 来源: 51CTO
相关推荐

2022-01-04 21:56:03

网络安全量子计算机技术

2012-06-14 09:36:36

顶级域名域名

2023-09-28 12:52:58

2021-03-27 10:27:53

Chrome网络攻击网络安全

2020-05-27 09:25:47

安全防御Windows

2021-03-10 14:46:20

人工智能

2020-03-11 10:00:22

AI 数据人工智能

2021-05-22 23:01:21

人工智能网络安全

2020-09-16 10:37:10

人工智能AI技术

2020-02-27 10:03:44

人工智能AI伪造

2019-11-11 13:35:46

网络安全新华三

2018-08-20 19:49:00

人工智能机器学习深度学习

2021-04-07 10:48:45

人工智能深度学习

2021-04-07 10:52:35

人工智能深度学习

2024-11-14 08:22:34

2022-11-25 07:35:57

PyTorchPython学习框架

2020-06-15 09:41:53

人工智能

2019-01-02 13:16:27

2021-03-02 14:19:30

人工智能根技术“十四五”

2023-08-29 15:03:05

点赞
收藏

51CTO技术栈公众号