据Harmonic公司称,尽管GenAI工具具有潜力,但许多企业由于担心敏感数据被无意共享并可能用于训练这些系统,而犹豫是否全面采用这些工具。
GenAI中的敏感数据暴露问题
一项基于数万名商业用户提示的新研究揭示,近10%的提示可能泄露敏感数据。
Harmonic Security在2024年第四季度对这些提示进行了分析,并监控了包括Microsoft Copilot、OpenAI ChatGPT、Google Gemini、Anthropic的Claude和Perplexity在内的GenAI工具的使用情况。
在绝大多数情况下,员工使用GenAI工具的行为是直接的。用户通常会要求总结一段文本、编辑博客或编写代码文档,然而,8.5%的提示令人担忧,并可能使敏感信息面临风险。
在这些提示中,45.8%可能泄露了客户数据,如账单信息和认证数据,另有26.8%包含员工信息,包括薪资数据、个人身份信息(PII)和就业记录,一些提示甚至要求GenAI进行员工绩效评估。
其余提示中,法律和财务数据占14.9%,这包括销售管道数据、投资组合以及并购活动的信息,与安全相关的信息占敏感提示的6.9%,尤其令人担忧。
示例包括渗透测试结果、网络配置和事件报告,这些数据可能为攻击者提供利用漏洞的蓝图。最后,敏感代码,如访问密钥和专有源代码,占其余5.6%可能泄露的敏感提示。
免费的GenAI服务构成安全威胁
同样令人担忧的是,大量员工使用GenAI服务的免费版本,而这些版本通常不具备企业版本的安全功能。许多免费版本工具明确表示,它们使用客户数据进行训练,这意味着输入的敏感信息可能被用于改进模型。
在评估的GenAI模型中,63.8%的ChatGPT用户使用的是免费版本,而使用Gemini的用户中有58.6%,使用Claude的用户中有75%,使用Perplexity的用户中有50.5%。
“大多数GenAI的使用是平凡的,但我们分析的8.5%的提示可能使敏感的个人和公司信息面临风险。在大多数情况下,企业能够通过阻止请求或警告用户他们即将要做的事情来管理这种数据泄露,但并不是所有公司都具备这种能力。大量免费订阅也是一个令人担忧的问题,‘如果产品是免费的,那么你就是产品’这句话在这里同样适用。尽管GenAI工具背后的公司做出了最大努力,但仍存在数据泄露的风险。”Harmonic Security的首席执行官阿拉斯泰尔·帕特森(Alastair Paterson)说。
企业必须超越“阻止”策略,以有效管理GenAI的风险。