最近,美国以OpenAI、谷歌为首的七家科技巨头公司联合宣布——
为所有AI生成的内容中嵌入水印。
或许,天天被DeepFake骗的团团转的日子,要一去不复返了!
七大巨头联手给AI加水印
还记得十几年前,总有人在各种论坛各种吹嘘。
别人不信,就会评论,无图无真相。
再往后,发图片视频都不一定100%可信,因为众所周知,图片可以p,视频可以剪辑。
再再往后,生成式AI爆火,别说图片了,视频能生成,音频能生成,文本能生成。
都不是剪辑、p图那么简单,而是从0到1直接生成,极尽丝滑。
我不禁想问,这世上还有真的东西吗!(气抖冷)
好在,这种情况要得到改善了。
OpenAI、微软、谷歌、Meta、亚马逊、Anthropic和Inflection等七家科技巨头公司宣布,将会开发出一种水印技术,添加在所有由AI生成的内容上面。
美国政府表示,这项技术将有助于在未来更安全地分享AI生成的文本、图像、音频,以及视频,还不会在真实性上误导别人。
目前,对于不同形式的生成品分别如何嵌入水印这一点,尚不明确。
但功能是确定的——嵌入后,用户就可以知道当前生成品的来历,是哪个生成式AI工具搞出来的。
而真正让七巨头做出行动的原因,还是用户和政策制定者们极高的关注程度。
上面那张特朗普被抓的DeepFake(熟悉的朋友肯定都知道,是个套图),就是由Midjourney前段时间生成的。
虽说那张图片不管从内容还是构图来说,都假的离谱,但是Midjourney还是为此封禁了一些账号。
理由就是传播虚假照片。
那些图片的作者就曾表示,如果当时有个水印,估计后果就不会有那么严重了。
毕竟,生成搞笑梗图从动机上来讲绝大部分就是为了好玩。
可是梗图好玩,假音频假视频可就不好玩了。
今年已经看过太多新闻,AI语音生成软件伪造家人的音频,骗钱骗财。
据FBI统计,AI生成的DeepFake在勒索案中已经成为了不可忽视的因素,尤其是跟性相关的勒索。
更不用说屡屡登上热搜的GPT写论文了。
只能说,DeepFake已经进入到多模态的方方面面,而水印的添加可以天然隔开真和假,构筑起一道障壁,杜绝混淆视听。
OpenAI在官博中表示,将会研发一种水印机制,加入到视频或音频中。还会开发一种检测工具,判断特定内容是否含有系统创建的工具或API。
谷歌也表示,除了水印以外,还会有其它创新型技术,把关信息推广。
拜登政府还将创建一个基金会,确保对于AI的所有发展,都要先有承诺和保证,再推广落地,避免风险。
科技巨头公司还同意在AI系统发布前对其进行内部和外部的双重测试,并加大对网络安全的投资,在整个行业共享信息,以帮助降低AI的风险
Meta的全球事务总裁Nick Clegg也呼应了OpenAI,称科技公司的承诺是确保为AI建立负责任的护栏的重要一步。
签署自愿承诺书
2023年7月21日,白宫主导并召集了七家领先的人工智能公司——亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI,一起商讨如何实现「人工智能技术安全、可靠和透明的发展」。
会后这些公司均已与白宫达成一致,并发表了自愿承诺书。
这些公司做出的承诺,强调了人工智能未来发展的三个原则:安全、保障、信任。
这标志着在开发负责任的人工智能上,人类迈出了关键的一步。
承诺书的内容大概包括:
1. 产品公开前确保其安全性
1)发布人工智能系统前,对人工智能的内部、外部进行安全测试。(2家公司承诺)
2)与行业、政府、民间社会和学界共享管理人工智能风险的信息。(全部公司通过)
2. 搭建「安全第一」的人工智能系统
3)投资网络安全和内部威胁防护措施,保护专有与未发布模型的权重,仅在考虑安全风险时公开权重。(2家公司承诺)
4)建立强大的报告机制,鼓励第三方对人工智能系统中的漏洞即时反馈,迅速发现并解决问题。(2家公司承诺)
3. 赢得公众的信任
5)开发强大的技术机制,确保用户能够识别人工智能生成的内容,如水印系统。(2家公司承诺)
6)公开人工智能系统的功能、局限性以及适用范围,警示人工智能的安全风险和社会风险等。(2家公司承诺)
7)优先研究人工智能系统带来的社会风险,如避免有害的偏见、歧视以及保护隐私。
并推出专门的人工智能来减轻这些危险。(2家公司承诺)
8)开发和部署前沿人工智能系统,解决如从癌症预防到缓解气候变化等社会问题和挑战。(2家公司承诺)
OpenAI在21日当天也在网站上发布了自愿承诺书:https://openai.com/blog/moving-ai-governance-forward
内容与白宫中的声明基本一致,但具体阐述更加细致。并特意指出了承诺书中的特定模型的所指——仅适用于总体上比当前行业前沿更强大的生成模型。
例如,总体上比任何当前发布的模型更强大的模型,包括 GPT-4、Claude 2、PaLM 2、Titan 以及图像生成DALL-E 2等。
如何加水印
前段时间,来自马里兰大学的研究人员提出了一种高效的水印技术,可以让合成文本在很短的token跨度(仅需25个token)内被检测到,同时误报率(将人类文本误判为机器生成)极低。
水印是文本中的隐藏模式,对人类来说是不可察觉的,但可以通过算法识别为合成文本。
论文地址:https://arxiv.org/pdf/2301.10226.pdf
众所周知,AI语言模型的工作原理是对逐个单词进行预测和生成。
在每个单词之后,水印算法会随机将语言模型的词汇分成「绿色列表」和「红色列表」,然后提示模型选择绿色列表中的单词。
在一段文字中,如果绿色列表中的单词越多,那么这段文字很可能是由机器生成的。而由人写的文字往往会包含更随机的单词组合。
举个栗子,对于单词「美丽」,水印算法可以将「花」归类为绿色,将「兰花」归类为红色。采用带有水印算法的AI模型则更有可能使用「花」这个词,而不是「兰花」。
概括来说,水印算法所具备的特性如下:
- 水印可以在没有任何模型参数知识或访问语言模型API的情况下,通过算法进行检测。这一特性使得检测算法可以开源,即使模型不是。这也使得检测变得廉价且快速,因为无需加载或运行LLM。
- 可以使用标准语言模型生成带有水印的文本,无需重新训练。
- 水印可以从生成文本的连续部分中检测出来。这样,即使只使用生成的一部分来创建更大的文档,水印仍然是可检测的。
- 如果不修改相当比例的生成token,就无法去除水印。
- 可以用严格的统计方法来衡量水印是否被检测到。
虽然马里兰大学提出的方法,仍有一些问题尚未解决。例如,在流媒体环境下,或者当短跨度的水印文本位于较长的非水印文本中时,测试水印的最佳方法是什么?
但研究人员认为,他们实验的结果足以证实,水印可以成为对抗恶意使用生成模型的实用工具。
至于剩下的问题,就留给未来的研究了。