DeepSeek-R1大模型在安全分析中过半越狱攻击失败,暴露重大安全隐患

安全
Qualys对DeepSeek AI的蒸馏版DeepSeek-R1 LLaMA 8B变体进行了安全分析,揭示了其关键的安全和合规性问题。

近日,基于云的网络安全、合规性和漏洞管理解决方案提供商Qualys对DeepSeek AI的蒸馏版DeepSeek-R1 LLaMA 8B变体进行了安全分析,揭示了其关键的安全和合规性问题。研究人员表示,该模型在使用Qualys TotalAI(一个专为AI安全评估设计的平台)进行的安全测试中,表现不佳,未能通过大部分测试。

测试范围与结果

Qualys TotalAI的知识库分析涉及对大语言模型(LLM)在16个类别中的响应进行评估,包括争议话题、过度代理、事实不一致、骚扰、仇恨言论、非法活动、法律信息、错位、过度依赖、隐私攻击、亵渎、自残、敏感信息泄露、色情内容、不道德行为以及暴力/不安全行为等。根据Qualys与Hackread.com分享的研究,该模型在多个领域表现出弱点,尤其在错位测试中表现较差。

越狱攻击是指通过技术手段绕过LLM的安全机制,可能导致有害输出。Qualys TotalAI测试了18种不同的越狱攻击类型,包括AntiGPT、基于分析的攻击(ABJ)、DevMode2、PersonGPT、始终越狱提示(AJP)、邪恶知己、伪装与重建(DRA)以及Fire等。总共进行了885次越狱测试和891次知识库评估,测试规模相当全面。结果显示,该模型在61%的知识库测试和58%的越狱攻击中失败。

不同攻击类型的脆弱性

Qualys的详细数据显示,该模型对不同越狱技术的抵抗能力存在显著差异。例如,尽管整体越狱失败率为58%(513次失败测试),但该模型对某些攻击(如Titanius、AJP、Caloz、JonesAI、Fire)的抵抗力较弱,而对其他攻击(如Ucar、Theta、AntiGPT、Clyde)则相对较强。然而,其高失败率表明该模型极易受到对抗性操纵,有时会生成有害活动的指令、制造仇恨言论内容、宣扬阴谋论并提供错误的医疗信息。

合规性与隐私问题

研究人员还发现,该模型存在显著的合规性挑战。其隐私政策指出,用户数据存储在中国的服务器上,这引发了关于政府数据访问、与国际数据保护法规(如GDPR和CCPA)的潜在冲突以及数据治理实践模糊性的担忧。这可能对受严格数据保护法律约束的组织产生影响。

值得注意的是,在DeepSeek AI发布后不久,Hackread.com报道称,Wiz Research发现DeepSeek AI暴露了超过100万条聊天记录,包括敏感的用户交互和认证密钥,凸显了其数据保护措施的不足。

企业应用的风险与建议

鉴于DeepSeek-R1在知识库攻击和越狱操作中的高失败率,现阶段企业采用该模型存在较大风险。因此,制定全面的安全策略,包括漏洞管理和遵守数据保护法规,对于确保无风险、负责任的AI应用至关重要。

Qualys研究人员在与Hackread.com分享的博客文章中表示:“保护AI环境需要进行结构化的风险和漏洞评估——不仅针对托管这些AI管道的基础设施,还包括引入新安全挑战的新兴编排框架和推理引擎。”

通过以上分析可以看出,DeepSeek-R1大模型在安全性和合规性方面存在显著问题,企业需谨慎评估其应用风险,并采取相应的安全措施。

责任编辑:赵宁宁 来源: FreeBuf
相关推荐

2011-03-30 10:15:24

2010-06-11 22:25:51

云计算安全隐患

2009-07-27 15:44:32

ASP.NET虚拟主机

2010-06-13 10:00:31

云计算安全

2010-10-25 17:22:52

2017-02-24 08:11:09

Docker数据安全容器

2010-03-11 15:05:37

云计算安全

2012-06-25 09:18:36

2025-02-06 10:18:45

2014-11-05 09:33:34

2012-08-29 10:37:34

2019-07-08 11:34:19

大数据技术数据安全

2010-09-17 14:29:23

2015-09-22 15:40:51

2021-08-08 14:33:55

数据安全网络安全科技

2014-08-04 13:51:53

Android安卓安全

2014-08-05 10:51:26

超级手机病毒手机病毒

2010-04-19 23:46:16

2009-07-19 15:55:08

2010-09-30 16:26:06

点赞
收藏

51CTO技术栈公众号