AI 打败 AI:谷歌研究团队利用 GPT-4 击败 AI-Guardian 审核系统

人工智能
谷歌 Deep Mind 的研究人员 Nicholas Carlini 在一篇题为“AI-Guardian 的 LLM 辅助开发”的论文中,探讨了使用 GPT-4“设计攻击方法、撰写攻击原理”的方案,并将这些方案用于欺骗 AI-Guardian 的防御机制。

8 月 2 日消息,谷歌研究团队正在进行一项实验,他们使用 OpenAI 的 GPT-4 来攻破其他 AI 模型的安全防护措施,该团队目前已经攻破 AI-Guardian 审核系统,并分享了相关技术细节

IT之家经过查询得知,AI-Guardian 是一种 AI 审核系统,能够检测图片中是否存在不当内容,及图片本身是否被其他 AI 修改过,若检测到图片存在上述迹象,便会提示管理员前来处理。

谷歌 Deep Mind 的研究人员 Nicholas Carlini 在一篇题为“AI-Guardian 的 LLM 辅助开发”的论文中,探讨了使用 GPT-4“设计攻击方法、撰写攻击原理”的方案,并将这些方案用于欺骗 AI-Guardian 的防御机制。

▲ 图源 谷歌研究团队

据悉,GPT-4 会发出一系列错误的脚本和解释来欺骗 AI-Guardian ,论文中提到,GPT-4 可以让 AI-Guardian 认为“某人拿着枪的照片”是“某人拿着无害苹果的照片”,从而让 AI-Guardian 直接放行相关图片输入源。谷歌研究团队表示,通过 GPT-4 的帮助,他们成功地“破解”了 AI-Guardian 的防御,使该模型的精确值从 98% 的降低到仅 8%。

目前相关技术文档已经发布在 ArXiv 中,有兴趣的小伙伴们可以前往了解不过 AI-Guardian 的开发者也同时指出,谷歌研究团队的这种攻击方法将在未来的 AI-Guardian 版本中不再可用,考虑到别的模型也会随之跟进,因此当下谷歌的这套攻击方案更多在日后只能用于参考性质。

责任编辑:姜华 来源: IT之家
相关推荐

2023-08-02 15:20:45

2023-03-17 10:17:52

GPT-4AI

2023-06-16 13:02:22

GPT-5GPT-4AI

2023-06-28 08:36:44

大语言模型人工智能

2023-05-10 15:45:08

GPT-4AI模型

2024-01-23 14:39:30

2023-08-15 15:03:00

AI工具

2023-09-14 10:07:38

人工智能数据管理

2023-12-15 12:52:17

AI模型

2023-11-13 19:35:12

训练数据

2023-12-16 09:45:56

论文GPT-4AI

2023-03-30 11:08:49

AI模型训练

2023-03-10 13:30:01

微软人工智能

2023-10-12 13:05:00

谷歌AI

2024-06-04 08:30:32

2024-04-02 11:38:31

模型训练

2024-06-17 18:04:38

2023-05-06 09:34:15

MetaAI

2023-05-11 06:59:11

AI重构搜索

2024-04-02 11:17:18

点赞
收藏

51CTO技术栈公众号