研究:2000 人中仅两人能准确识别深度伪造内容

人工智能
随着深度伪造技术(deepfake)的不断发展,人们对虚假信息、诈骗和身份盗窃的担忧日益加剧。一项最新研究显示,人们对 AI 工具的认知水平极低,难以有效识别深度伪造内容。

2 月 19 日消息,随着深度伪造技术(deepfake)的不断发展,人们对虚假信息、诈骗和身份盗窃的担忧日益加剧。一项最新研究显示,人们对 AI 工具的认知水平极低,难以有效识别深度伪造内容。

根据 iProov 的一项最新研究,大多数人在区分深度伪造内容与真实内容时存在困难。该研究邀请了来自英国和美国的 2000 名参与者,向他们展示了一系列真实和 AI 生成的图像及视频。结果显示,仅有 0.1% 的参与者 —— 也就是两个人,能够准确区分真实内容与深度伪造内容。

研究还发现,老年人更容易受到人工智能生成的虚假内容的欺骗。大约 30% 的 55 至 64 岁人群和 39% 的 65 岁以上人群此前从未听说过深度伪造。尽管年轻参与者对自己的深度伪造检测能力更有信心,但他们在测试中的实际表现并未优于其他年龄段。

研究发现,深度伪造视频比图像更难被识别,参与者正确识别假视频的可能性比识别假图像低 36%。

IT之家注意到,社交媒体平台被认为是深度伪造内容的主要传播渠道。近半数参与者(49%)认为 Meta 旗下的平台,包括 Facebook 和 Instagram,是深度伪造内容最常见的来源,而 47% 的人则指向 TikTok。

即使人们怀疑某个内容是深度伪造,大多数人也不会采取行动。只有 20% 的受访者表示,如果在网上遇到疑似深度伪造内容,他们会进行举报。

随着深度伪造技术愈发逼真,iProov 认为仅靠人类感知已无法可靠地识别深度伪造内容,需要采用带有活体检测功能的生物识别安全解决方案来应对日益逼真的深度伪造威胁。

责任编辑:庞桂玉 来源: IT之家
相关推荐

2014-06-23 17:32:26

2023-12-15 08:00:00

2009-03-13 10:14:47

中移动人才标准招聘

2021-01-15 14:40:47

人脸识别数据技术

2024-01-05 08:44:52

2018-08-14 17:41:54

人工智能机器人语音识别

2025-01-08 15:16:27

2022-05-23 10:14:52

Deepfake人工智能

2023-06-14 13:57:16

人工智能深度伪造骗局

2021-05-18 14:41:57

深度伪造生物识别身份认证

2024-11-06 15:33:50

2020-02-07 22:23:36

网络安全IT安全漏洞

2023-11-08 08:38:43

2025-01-21 08:00:00

2024-07-04 15:53:19

2023-07-25 09:00:00

人工智能深度伪造视频

2023-11-09 17:07:46

人工智能

2025-01-24 08:00:00

深度伪造人工智能网络安全

2020-02-18 14:00:01

人工智能机器学习技术
点赞
收藏

51CTO技术栈公众号