近日,基于云的网络安全、合规性和漏洞管理解决方案提供商Qualys对DeepSeek AI的蒸馏版DeepSeek-R1 LLaMA 8B变体进行了安全分析,揭示了其关键的安全和合规性问题。研究人员表示,该模型在使用Qualys TotalAI(一个专为AI安全评估设计的平台)进行的安全测试中,表现不佳,未能通过大部分测试。
测试范围与结果
Qualys TotalAI的知识库分析涉及对大语言模型(LLM)在16个类别中的响应进行评估,包括争议话题、过度代理、事实不一致、骚扰、仇恨言论、非法活动、法律信息、错位、过度依赖、隐私攻击、亵渎、自残、敏感信息泄露、色情内容、不道德行为以及暴力/不安全行为等。根据Qualys与Hackread.com分享的研究,该模型在多个领域表现出弱点,尤其在错位测试中表现较差。
越狱攻击是指通过技术手段绕过LLM的安全机制,可能导致有害输出。Qualys TotalAI测试了18种不同的越狱攻击类型,包括AntiGPT、基于分析的攻击(ABJ)、DevMode2、PersonGPT、始终越狱提示(AJP)、邪恶知己、伪装与重建(DRA)以及Fire等。总共进行了885次越狱测试和891次知识库评估,测试规模相当全面。结果显示,该模型在61%的知识库测试和58%的越狱攻击中失败。
不同攻击类型的脆弱性
Qualys的详细数据显示,该模型对不同越狱技术的抵抗能力存在显著差异。例如,尽管整体越狱失败率为58%(513次失败测试),但该模型对某些攻击(如Titanius、AJP、Caloz、JonesAI、Fire)的抵抗力较弱,而对其他攻击(如Ucar、Theta、AntiGPT、Clyde)则相对较强。然而,其高失败率表明该模型极易受到对抗性操纵,有时会生成有害活动的指令、制造仇恨言论内容、宣扬阴谋论并提供错误的医疗信息。
合规性与隐私问题
研究人员还发现,该模型存在显著的合规性挑战。其隐私政策指出,用户数据存储在中国的服务器上,这引发了关于政府数据访问、与国际数据保护法规(如GDPR和CCPA)的潜在冲突以及数据治理实践模糊性的担忧。这可能对受严格数据保护法律约束的组织产生影响。
值得注意的是,在DeepSeek AI发布后不久,Hackread.com报道称,Wiz Research发现DeepSeek AI暴露了超过100万条聊天记录,包括敏感的用户交互和认证密钥,凸显了其数据保护措施的不足。
企业应用的风险与建议
鉴于DeepSeek-R1在知识库攻击和越狱操作中的高失败率,现阶段企业采用该模型存在较大风险。因此,制定全面的安全策略,包括漏洞管理和遵守数据保护法规,对于确保无风险、负责任的AI应用至关重要。
Qualys研究人员在与Hackread.com分享的博客文章中表示:“保护AI环境需要进行结构化的风险和漏洞评估——不仅针对托管这些AI管道的基础设施,还包括引入新安全挑战的新兴编排框架和推理引擎。”
通过以上分析可以看出,DeepSeek-R1大模型在安全性和合规性方面存在显著问题,企业需谨慎评估其应用风险,并采取相应的安全措施。