GenAI的进步意味着虚假图像、视频、音频和机器人现在无处不在,然而,研究已经揭示了辨别真伪的最佳方法。
你是否注意到上面的图像是由AI生成的?在技术进步使AI生成的图像、视频、音频和文本越来越难以与人类创作的内容区分开来的时候,辨别这些虚假内容变得尤为困难,这让我们更容易受到虚假信息的操控,然而,通过了解用于制造虚假信息的AI技术的现状以及辨别你所看到的内容可能是伪造的各种标志,你可以帮助自己免于上当受骗。
世界领导人对此表示担忧。根据世界经济论坛的一份报告,虚假信息和错误信息可能会在未来两年内“彻底扰乱几个经济体的选举进程”,而更容易获取的AI工具“已经导致伪造信息和所谓‘合成’内容的激增,从复杂的语音克隆到假冒网站”。
“虚假信息”和“错误信息”这两个术语都指虚假或不准确的信息,但“虚假信息”是指故意用来欺骗或误导的信息。
加州大学伯克利分校的Hany Farid表示:“AI驱动的虚假信息问题在于其规模、速度和启动的简易性。”他说,“这些攻击不再需要国家资助的行为者或资金充足的组织——一个拥有适度计算能力的个体就能创造出大量虚假内容。”
他指出,GenAI正在“污染整个信息生态系统,使我们读到、看到和听到的一切都充满疑虑。”他的研究表明,在许多情况下,AI生成的图像和音频“几乎与现实难以区分”。
然而,Farid和其他研究人员的研究显示,有一些策略可以帮助你减少被AI生成的社交媒体虚假信息或错误信息所欺骗的风险。
如何识别虚假的AI图像
还记得看到过教皇方济各穿着羽绒夹克的照片吗?随着基于扩散模型的新工具的出现,使得任何人都可以通过简单的文本提示生成图像,这类虚假的AI图像变得越来越常见。Google的Nicholas Dufour及其同事的一项研究发现,从2023年初开始,在经过事实核查的虚假信息中,AI生成图像的比例迅速增加。
“如今,媒体素养需要具备AI素养,”伊利诺伊州西北大学的Negar Kamali表示。在2024年的一项研究中,她和她的同事们识别了AI生成图像中五种不同类型的错误,并提供了如何自行识别这些错误的指导。好消息是,他们的研究表明,人们目前在识别假AI人像图像时的准确率约为70%。你可以通过他们的在线图像测试来评估自己的侦查能力。
AI生成图像中的五种常见错误类型:
• 社会文化上的不合理性:场景是否表现出某些文化或历史人物中罕见、不寻常或令人惊讶的行为?
• 解剖学上的不合理性:仔细观察,身体部位如手的形状或大小是否异常?眼睛或嘴巴是否看起来很奇怪?是否有身体部位融合在一起?
• 风格化痕迹:图像看起来是否不自然,几乎过于完美或过于风格化?背景是否看起来很奇怪,或者缺少什么?光照是否不正常或变化不定?
• 功能上的不合理性:是否有任何物体看起来很怪异,或者可能不真实或无法正常工作?例如,按钮或皮带扣是否处于奇怪的位置?
• 物理学上的违背:阴影的方向是否不一致?镜子的反射是否与图像中的世界一致?
如何识别视频中的深度伪造
自2014年以来,生成对抗网络(GAN)这项AI技术已经使技术娴熟的个人能够创建视频深度伪造,通过数字操控现有的人物视频,替换脸部、生成新的面部表情,并插入与唇语同步的新音频,这使得越来越多的骗子、国家支持的黑客和互联网用户能够制作视频深度伪造,其中包括名人如Taylor Swift以及普通人可能会在未经同意的情况下出现在深度伪造的色情视频、骗局和政治虚假信息中。
识别AI假图像的技巧同样适用于可疑视频。此外,麻省理工学院和伊利诺伊州西北大学的研究人员汇总了一些识别深度伪造的技巧,但他们也承认,没有一种方法是完全可靠的。
识别AI生成视频的六个技巧:
• 嘴巴和唇部动作:视频和音频是否有不完全同步的时刻?
• 解剖学上的故障:脸部或身体是否看起来奇怪,或移动不自然?
• 面部:寻找面部光滑度或额头和脸颊皱纹的异常,以及面部痣的不一致性。
• 光照:光照是否不一致?阴影是否如预期般表现?特别注意一个人的眼睛、眉毛和眼镜。
• 头发:面部毛发是否看起来很奇怪,或者移动方式不自然?
• 眨眼:过多或过少的眨眼可能是深度伪造的标志。
一种更新的深度伪造视频类别基于扩散模型——这也是许多图像生成器背后的AI技术——可以根据文本提示生成完全由AI生成的视频片段。公司已经在测试并发布商业版的AI视频生成器,这些生成器使任何人无需特殊技术知识就能轻松实现。目前,生成的视频通常呈现出扭曲的脸部或奇怪的身体动作。
“这些AI生成的视频可能比图像更容易被人们察觉,因为它们包含大量的动作,AI生成的伪影和不合理之处也更容易被发现,”Kamali说。
如何识别AI机器人
由计算机机器人控制的社交媒体账号在许多社交媒体和消息平台上变得越来越普遍。自2022年以来,越来越多的这些机器人利用GenAI技术,如大型语言模型。这些技术使得通过成千上万个机器人轻松且低成本地生成语法正确且根据不同情况定制的AI撰写内容变得可能。
“为特定受众定制这些大型语言模型以传递特定信息已经变得容易得多,”印第安纳州圣母大学的Paul Brenner表示。
Brenner和他的同事在研究中发现,即使参与者被告知他们可能正在与机器人互动,他们仍然只能在大约42%的情况下区分AI驱动的机器人和人类。你可以在这里测试自己的机器人识别技能。
Brenner表示,一些策略可以帮助识别技术水平较低的AI机器人。
判断社交媒体账号是否为AI机器人的五种方法:
• 表情符号和标签:过度使用这些元素可能是一个信号。
• 不常见的措辞、词汇选择或比喻:不寻常的措辞可能表明是AI机器人。
• 重复性和结构:机器人可能会使用重复的措辞,遵循类似或僵硬的形式,并可能过度使用某些俚语。
• 提问:提问可以揭示机器人对某个话题缺乏知识,特别是涉及本地地点和情况时。
• 假设最坏情况:如果某个社交媒体账号不是个人联系人,且其身份没有被明确验证或认证,那么很可能是AI机器人。
如何检测语音克隆和语音深度伪造
语音克隆AI工具使得生成可以模仿几乎任何人的新语音音频变得容易。这导致了语音深度伪造骗局的兴起,这些骗局克隆了家庭成员、公司高管和政治领导人(如美国总统Joe Biden)的声音。与AI生成的视频或图像相比,这些语音深度伪造更难识别。
“语音克隆特别难以区分真假,因为没有视觉组件来帮助我们的大脑做出判断,”白帽黑客组织SocialProof Security的联合创始人Rachel Tobac说道。
识别这些AI生成的音频深度伪造尤其困难,特别是在视频和电话通话中使用时。但你可以采取一些常识性的步骤来区分真人与AI生成的声音。
识别音频是否被AI克隆或伪造的四个步骤:
• 公众人物:如果音频片段涉及一位民选官员或名人,检查他们所说的内容是否与已公开报道或分享的他们的观点和行为一致。
• 寻找不一致性:将音频片段与之前经过验证的视频或音频片段进行比较,看看他们的声音或说话方式是否有任何不一致之处。
• 尴尬的停顿:如果你在听电话或语音信箱时,发现说话者在讲话时有异常长的停顿,可能是在使用AI驱动的语音克隆技术。
• 奇怪且啰嗦:任何机械化的语音模式或异常冗长的说话方式都可能表明有人在使用语音克隆技术来模仿某人的声音,并使用大型语言模型来生成精确的措辞。
技术只会越来越先进
目前,还没有一致的规则可以始终区分AI生成的内容与真实人类内容。能够生成文本、图像、视频和音频的AI模型几乎肯定会继续改进,它们通常可以快速生成看似真实的内容,而没有明显的伪影或错误。Rachel Tobac表示:“保持适度的怀疑意识,并意识到AI正在快速地操控和伪造图片、视频和音频——我们说的是在30秒或更短时间内完成。”这使得那些想要欺骗他人的恶意人士能够快速生成AI生成的虚假信息,并在新闻爆发后几分钟内就发布到社交媒体上。
尽管培养识别AI生成虚假信息的眼光并学会对你所读、所见、所听的内容提出更多问题是重要的,但这最终还不足以阻止伤害,识别虚假的责任也不能完全落在个人身上。Farid和其他研究人员认为,政府监管机构必须追究那些开发出大量充斥互联网的虚假AI生成内容工具的大型科技公司和由知名硅谷投资者支持的初创公司的责任。Farid表示:“技术不是中立的。科技行业向我们兜售的这一观点,即他们不需要承担像其他行业那样的责任,我完全不接受。”