DeepFake不能再骗人!美七大科技巨头联名,给AI生成内容加水印

人工智能 新闻
OpenAI、谷歌等7家科技巨头共同声明——未来将在生成式AI创作的文本、图片、音频、视频中加入可识别的水印,标明所有DeepFake作品,维护信息安全。

最近,美国以OpenAI、谷歌为首的七家科技巨头公司联合宣布——

为所有AI生成的内容中嵌入水印。

或许,天天被DeepFake骗的团团转的日子,要一去不复返了!

七大巨头联手给AI加水印

还记得十几年前,总有人在各种论坛各种吹嘘。

别人不信,就会评论,无图无真相。

再往后,发图片视频都不一定100%可信,因为众所周知,图片可以p,视频可以剪辑。

再再往后,生成式AI爆火,别说图片了,视频能生成,音频能生成,文本能生成。

都不是剪辑、p图那么简单,而是从0到1直接生成,极尽丝滑。

我不禁想问,这世上还有真的东西吗!(气抖冷)

好在,这种情况要得到改善了。

OpenAI、微软、谷歌、Meta、亚马逊、Anthropic和Inflection等七家科技巨头公司宣布,将会开发出一种水印技术,添加在所有由AI生成的内容上面。

美国政府表示,这项技术将有助于在未来更安全地分享AI生成的文本、图像、音频,以及视频,还不会在真实性上误导别人。

目前,对于不同形式的生成品分别如何嵌入水印这一点,尚不明确。

但功能是确定的——嵌入后,用户就可以知道当前生成品的来历,是哪个生成式AI工具搞出来的。

图片

而真正让七巨头做出行动的原因,还是用户和政策制定者们极高的关注程度。

上面那张特朗普被抓的DeepFake(熟悉的朋友肯定都知道,是个套图),就是由Midjourney前段时间生成的。

虽说那张图片不管从内容还是构图来说,都假的离谱,但是Midjourney还是为此封禁了一些账号。

理由就是传播虚假照片。

那些图片的作者就曾表示,如果当时有个水印,估计后果就不会有那么严重了。

毕竟,生成搞笑梗图从动机上来讲绝大部分就是为了好玩。

可是梗图好玩,假音频假视频可就不好玩了。

今年已经看过太多新闻,AI语音生成软件伪造家人的音频,骗钱骗财。

据FBI统计,AI生成的DeepFake在勒索案中已经成为了不可忽视的因素,尤其是跟性相关的勒索。

更不用说屡屡登上热搜的GPT写论文了。

只能说,DeepFake已经进入到多模态的方方面面,而水印的添加可以天然隔开真和假,构筑起一道障壁,杜绝混淆视听。

图片


OpenAI在官博中表示,将会研发一种水印机制,加入到视频或音频中。还会开发一种检测工具,判断特定内容是否含有系统创建的工具或API。

谷歌也表示,除了水印以外,还会有其它创新型技术,把关信息推广。

拜登政府还将创建一个基金会,确保对于AI的所有发展,都要先有承诺和保证,再推广落地,避免风险。

科技巨头公司还同意在AI系统发布前对其进行内部和外部的双重测试,并加大对网络安全的投资,在整个行业共享信息,以帮助降低AI的风险

Meta的全球事务总裁Nick Clegg也呼应了OpenAI,称科技公司的承诺是确保为AI建立负责任的护栏的重要一步。

签署自愿承诺书

2023年7月21日,白宫主导并召集了七家领先的人工智能公司——亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI,一起商讨如何实现「人工智能技术安全、可靠和透明的发展」。

会后这些公司均已与白宫达成一致,并发表了自愿承诺书。

这些公司做出的承诺,强调了人工智能未来发展的三个原则:安全、保障、信任。

这标志着在开发负责任的人工智能上,人类迈出了关键的一步。

承诺书的内容大概包括:

1. 产品公开前确保其安全性

1)发布人工智能系统前,对人工智能的内部、外部进行安全测试。(2家公司承诺)

2)与行业、政府、民间社会和学界共享管理人工智能风险的信息。(全部公司通过)

2. 搭建「安全第一」的人工智能系统

3)投资网络安全和内部威胁防护措施,保护专有与未发布模型的权重,仅在考虑安全风险时公开权重。(2家公司承诺)

4)建立强大的报告机制,鼓励第三方对人工智能系统中的漏洞即时反馈,迅速发现并解决问题。(2家公司承诺)

3. 赢得公众的信任

5)开发强大的技术机制,确保用户能够识别人工智能生成的内容,如水印系统。(2家公司承诺)

6)公开人工智能系统的功能、局限性以及适用范围,警示人工智能的安全风险和社会风险等。(2家公司承诺)

7)优先研究人工智能系统带来的社会风险,如避免有害的偏见、歧视以及保护隐私。

并推出专门的人工智能来减轻这些危险。(2家公司承诺)

8)开发和部署前沿人工智能系统,解决如从癌症预防到缓解气候变化等社会问题和挑战。(2家公司承诺)

OpenAI在21日当天也在网站上发布了自愿承诺书:https://openai.com/blog/moving-ai-governance-forward

内容与白宫中的声明基本一致,但具体阐述更加细致。并特意指出了承诺书中的特定模型的所指——仅适用于总体上比当前行业前沿更强大的生成模型。

例如,总体上比任何当前发布的模型更强大的模型,包括 GPT-4、Claude 2、PaLM 2、Titan 以及图像生成DALL-E 2等。

如何加水印

前段时间,来自马里兰大学的研究人员提出了一种高效的水印技术,可以让合成文本在很短的token跨度(仅需25个token)内被检测到,同时误报率(将人类文本误判为机器生成)极低。

水印是文本中的隐藏模式,对人类来说是不可察觉的,但可以通过算法识别为合成文本。

论文地址:https://arxiv.org/pdf/2301.10226.pdf

众所周知,AI语言模型的工作原理是对逐个单词进行预测和生成。

在每个单词之后,水印算法会随机将语言模型的词汇分成「绿色列表」和「红色列表」,然后提示模型选择绿色列表中的单词。

在一段文字中,如果绿色列表中的单词越多,那么这段文字很可能是由机器生成的。而由人写的文字往往会包含更随机的单词组合。

举个栗子,对于单词「美丽」,水印算法可以将「花」归类为绿色,将「兰花」归类为红色。采用带有水印算法的AI模型则更有可能使用「花」这个词,而不是「兰花」。

概括来说,水印算法所具备的特性如下:

- 水印可以在没有任何模型参数知识或访问语言模型API的情况下,通过算法进行检测。这一特性使得检测算法可以开源,即使模型不是。这也使得检测变得廉价且快速,因为无需加载或运行LLM。

- 可以使用标准语言模型生成带有水印的文本,无需重新训练。

- 水印可以从生成文本的连续部分中检测出来。这样,即使只使用生成的一部分来创建更大的文档,水印仍然是可检测的。

- 如果不修改相当比例的生成token,就无法去除水印。

- 可以用严格的统计方法来衡量水印是否被检测到。

虽然马里兰大学提出的方法,仍有一些问题尚未解决。例如,在流媒体环境下,或者当短跨度的水印文本位于较长的非水印文本中时,测试水印的最佳方法是什么?

但研究人员认为,他们实验的结果足以证实,水印可以成为对抗恶意使用生成模型的实用工具。

至于剩下的问题,就留给未来的研究了。

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-08-30 13:24:00

AI工具

2020-03-04 13:50:16

互联网数据技术

2013-07-03 11:34:26

2020-04-26 09:35:22

人工智能IT技术数据

2013-08-13 14:28:09

2022-05-04 18:26:25

PDF水印Python

2018-12-10 23:19:12

人工智能机器学习技术

2023-04-13 22:04:16

AI人工智能

2013-03-26 10:00:56

2017-09-14 14:03:25

2021-11-09 06:55:03

水印图像开发

2023-02-09 10:11:45

ARVRAI

2018-12-26 14:56:48

2018-09-10 06:00:12

2009-12-01 14:35:06

Linux忠告

2018-11-12 12:42:44

2017-12-19 21:37:49

物联网AIIT

2012-12-31 09:27:06

2013小型企业科技趋势

2019-05-13 09:45:41

生成式对抗网络GANs深度学习

2023-05-19 07:40:07

台积电三星美光
点赞
收藏

51CTO技术栈公众号