研究人员开展 DeepFake AI 伪造音频攻防拉锯战,促进业界辨伪技术提升

人工智能
加拿大滑铁卢大学的两名研究人员 AndreKassis 与 UrsHengartner 研发了新型语音 DeepFake 软件,成功欺骗语音认证系统概率高达 99%,该软件使用机器学习软件,只需要 5 分钟的人声录音,就可以模拟出非常逼真的人声。

7 月 10 日消息,DeepFake 当下是一系列能够生成特定人物照片、视频及音频的 AI 模型总称,模型生成的各种信息相对可以轻松绕过各种企业机构的识别系统,因此也有许多黑产围绕 DeepFake 而展开,当下如何更精准辨识 DeepFake 生成的内容成为难题。

IT之家曾报道,加拿大滑铁卢大学的两名研究人员 AndreKassis 与 UrsHengartner 研发了新型语音 DeepFake 软件,成功欺骗语音认证系统概率高达 99%,该软件使用机器学习软件,只需要 5 分钟的人声录音,就可以模拟出非常逼真的人声

用户通过语音认证注册之后,会要求用户重复一个特定的短语或者句子。

系统会根据用户的声音提取声纹(语音指纹),并将其存储在服务器。

如果您将来尝试进行身份验证,系统将提示您说出不同的短语,并从中提取的特征将与系统中存储的语音指纹进行比较,以确定是否应授予访问权限。

▲ 图源 uwaterloo 网站

对于这一新型语音 DeepFake 软件,其他安全研究人员纷纷开始应对,亚马逊的研究人员尝试检查语音样本,来判断样本的真实性

▲ 图源 Pindrop 网站

而 Kassis 与 Hengartner 打造出一个方法来绕过上述亚马逊的机制,该方法可辨识出合成语音中的标记,并自动移除这些具有 AI 特征的段落,令系统无法区分。

另一方面,专门开发语音身份认证安全机制的 Pindrop 则认为这一机制并不稳妥,即“虽然攻击方可以移除生成的语音片段中具有 AI 特征的段落,但防守方可以同时从多角度来判断音频文段的真实性,例如检测 IP 地址、要求提供特定的语音信息等”,因此依然可以检测出使用 DeepFake 的攻击者。

▲ 图源 Pindrop 网站

但研究人员 Pindrop 同时指出,现有用来对抗 Deekfake 语音的系统有许多缺陷,打造安全系统的唯一方式是像黑客一样思考。他同时建议那些只仰赖语音进行身份认证的企业,应该部署额外的认证措施,以防止企业受到诈骗,导致经济损失。

责任编辑:庞桂玉 来源: IT之家
相关推荐

2011-12-07 12:24:32

2020-11-19 15:21:26

人工智能

2021-04-06 11:46:06

GoogleJava编程语言

2021-08-01 12:29:59

漏洞网络安全网络攻击

2020-02-29 14:41:08

SD-WAN网络NetOps

2009-02-19 16:33:31

2023-06-14 15:53:53

人工智能深度学习医疗健康

2021-01-04 05:46:00

AI人工智能深度学习

2016-10-09 07:41:07

科技新闻早报

2021-02-02 09:32:06

黑客攻击l安全

2021-05-28 18:35:29

NVIDIA

2024-03-28 08:00:00

人工智能多模态语言模型

2011-12-02 08:18:47

2017-03-27 16:09:58

2023-09-21 08:23:07

2014-08-25 11:06:42

2017-03-07 20:29:58

2020-01-20 14:20:43

WindowsWindows Ser国家安全

2023-12-07 12:05:39

2023-02-16 20:24:07

OpenAI谷歌ChatGPT
点赞
收藏

51CTO技术栈公众号