可令 AI 模型“输入狗生成猫”,黑客展示为训练数据集“下毒”的 Nightshade 工具

人工智能
日前有黑客展示了一款名为 Nightshade 的工具,该工具可在不破坏观感的情况下轻微修改图片,若有 AI 模型在训练时使用了这些被“下毒”的图片,模型生图结果便会被毁坏。

10 月 25 日消息,AI 大模型训练数据源版权问题一直是一个令业界头疼的问题,日前有黑客展示了一款名为 Nightshade 的工具,该工具可在不破坏观感的情况下轻微修改图片,若有 AI 模型在训练时使用了这些被“下毒”的图片,模型生图结果便会被毁坏。

▲ 图源 Arxiv▲ 图源 Arxiv

据悉,Nightshade 工具是一种专从提示词入手的攻击手法,号称“手法相对目前‘在提示词中加入触发字’的后门攻击法更简单”,不需介入模型的训练及部署等过程

Nightshade 工具的作用,主要是轻微修改图片内容,当这些被修改的图片内容成为 AI 模型训练数据后,整个 AI 模型就有可能被彻底破坏。黑客选择了 Stability AI 的 Stable Diffusion V2、SDXL 及 DeepFloyd 验证攻击效果。

测试显示,只需要少量“下毒样本”就扰乱 AI 模型的文生图模型。黑客使用不到 100 张经过修改的“狗的照片”,便污染了 SDXL 模型已经养成的“狗”概念,使该模型在接受外界输入“生成狗的图片”提示后,反而生成了猫的图片

▲ 图源 Arxiv▲ 图源 Arxiv

此外,Nightshade 攻击并非针对单一实体“概念”,虽然黑客仅仅用一些“狗的照片”试图破坏模型对于“狗”的概念,但整个模型的生图结果,都会被彻底破坏。

▲ 图源 Arxiv▲ 图源 Arxiv

IT之家同时发现,黑客声称,经过 Nightshade 工具“下毒”的图片难以辨别,因为该工具主要影响训练数据集的“特征空间”

Nightshade 是属于内容创作者及持有者的工具,是对待‘不尊重版权声明’、或‘故意绕过 do-not-scrape / crawl opt-out’的 AI 从业者的强大武器。

责任编辑:庞桂玉 来源: IT之家
相关推荐

2023-07-31 18:07:57

2023-11-10 07:11:02

OpenAIAI

2024-01-23 11:22:53

谷歌大语言模型AI

2023-12-18 15:54:42

AI 模型

2023-12-17 19:38:37

谷歌AI 模型人工智能

2024-03-13 09:00:00

人工智能Nightshade人工智能毒化

2009-11-11 15:41:29

ADO数据对象

2024-07-12 12:55:55

2019-11-05 18:50:37

代码开发工具

2023-05-31 14:23:44

人工智能

2020-03-31 10:13:04

Google 开源技术

2020-11-19 18:10:46

格物钛

2020-04-28 13:34:53

AI 工具算法

2024-01-15 14:44:19

语言模型PaLMAI

2023-03-31 14:33:49

人工智能数据开发自然语言

2023-02-27 09:17:02

苹果设备AI模型

2023-10-31 12:45:00

智能数据

2022-01-06 09:57:02

数据计算机神经网络

2024-01-03 18:53:13

语言模型LLM
点赞
收藏

51CTO技术栈公众号