DALL-E、Midjourney和Stable Diffusion等人工智能生成艺术工具的兴起引发了激烈的辩论和争议。这些系统可以通过在互联网上收集的大量数据集上进行训练,简单地根据文本提示创建真实感图像和艺术。然而,这引发了人们对侵犯版权、滥用艺术家作品的主要担忧。
因此研究人员开发了一种名为Nightshade的激进新技术,允许创意人员“毒害”他们的数字艺术。其目的是破坏试图在未经许可的情况下使用他们作品的人工智能系统。
DALL-E 2和Stable Diffusion等工具使用一种称为神经网络的人工智能技术。他们是在大量的图像数据集上训练的,这些图像与字幕或文本描述配对。这使他们能够学习文本概念和视觉特征之间的关系。
例如,如果模型看到数百万张标有“狗”的图像,显示皮毛、四条腿、尾巴等,它就会学会将这些视觉模式与“狗”一词联系起来。然后,当收到“一只可爱的小狗坐在草地上”这样的文本提示时,它就可以从头开始生成全新的逼真的小狗图像。
抓取艺术家作品的担忧
随着对更多数据的训练,模型变得更有能力。这导致他们背后的科技巨头在未经艺术家同意的情况下从互联网上抓取了数百万张图片。然而,许多创作者对他们的作品在未经许可或补偿的情况下被用于人工智能培训感到不满。
这给艺术家们带来了一个困境——公开分享他们的作品,冒着人工智能训练被滥用的风险,还是私有化,失去曝光率?Instagram、DeviantArt和ArtStation等平台已成为人工智能系统的训练数据宝库。
Nightshade如何为人工智能模型注入毒药
根据最近的一篇研究论文,Nightshade通过攻击和破坏人工智能模型本身提供了一个聪明的解决方案。人类看不见这些数字艺术像素中微妙的变化。但这些调整扰乱了人工智能所依赖的图像概念和文本提示。
例如,Nightshade可以修改狗的照片,使人工智能模型将其误认为自行车或帽子。如果有足够多的“中毒”图像通过人工智能的数据集传播,就会产生文本和图像之间奇怪联系的幻觉。
测试表明,Nightshade可以导致Stable Diffusion等人工智能模型生成完全超现实和荒谬的艺术。例如,狗的图像变成了“章鱼”这样的多脚生物,在50个中毒样本后扭曲了卡通脸。在摄入300张“中毒”狗的照片后,Stable Diffusion甚至在提示创建狗时输出猫。
Nightshade的攻击利用了神经网络的黑盒特性。中毒原因在庞大的数据集中很难追踪。这意味着删除毒药数据就像大海捞针。
攻击也在相关概念之间传播。因此,毒害“幻想艺术”图像也会在“龙”或“城堡”等相关术语上混淆人工智能。这使得手动清理Nightshade的影响几乎不可能大规模进行。