企业当前要么正在采用生成式AI(GenAI)解决方案,要么正在评估如何将这些工具整合到业务计划中,或者两者兼而有之。为了推动明智的决策和有效的规划,获取硬数据至关重要,然而此类数据却出人意料地稀缺。
LayerX发布的“2025年企业生成式AI数据安全报告”为工作场所中AI工具的实际应用提供了前所未有的洞察,同时揭示了关键的安全漏洞。该报告基于LayerX企业客户的真实遥测数据,是少数能够详细说明员工实际使用生成式AI情况的可靠来源之一。
例如,报告揭示,近90%的企业AI使用发生在IT部门的可视范围之外,这使企业面临数据泄露和未经授权访问等重大风险。
以下我们将分享报告中的一些关键发现。阅读完整报告以完善和增强您的安全策略,利用数据驱动的决策进行风险管理,并推动资源投入以加强生成式AI的数据保护措施。
企业生成式AI使用尚不普遍
尽管生成式AI的热潮可能会让人觉得整个劳动力已经将办公室操作转向了生成式AI,但LayerX发现实际使用情况略显冷淡。大约15%的用户每天都会访问生成式AI工具。虽然这一比例不可忽视,但并非主流。
不过,我们认同LayerX的分析,并预测这一趋势将迅速加速,尤其是因为目前有50%的用户每隔一周使用一次生成式AI。
此外,报告发现,39%的常规生成式AI工具用户是软件开发者。这意味着通过生成式AI泄露源代码和专有代码的风险最高,同时在代码库中使用有风险的代码也存在隐患。
生成式AI如何使用?谁也不知道
由于LayerX嵌入了浏览器中,因此该工具能够观察到“影子SaaS”的使用情况。这意味着他们可以看到员工使用未经企业IT批准的工具或通过非企业账户访问这些工具。
尽管像ChatGPT这样的生成式AI工具被用于工作目的,但近72%的员工通过个人账户访问它们。即使员工通过企业账户访问,也仅有约12%使用单点登录(SSO)。因此,近90%的生成式AI使用对企业来说是不可见的。这让企业对“影子AI”应用以及未经授权在AI工具上共享企业信息的情况一无所知。
50%的粘贴行为涉及企业数据
还记得帕累托原则吗?在这种情况下,虽然并非所有用户每天都使用生成式AI,但使用生成式AI的用户往往会频繁粘贴潜在机密信息。
LayerX发现,在向生成式AI工具提交数据的用户中,平均每天发生近4次企业数据粘贴行为。这可能包括商业信息、客户数据、财务计划、源代码等。
企业如何规划生成式AI的使用?
报告中的发现表明,急需新的安全策略来管理生成式AI风险。传统安全工具无法应对现代以AI驱动的、基于浏览器的工作环境。它们缺乏在源头(即浏览器)检测、控制和保护AI交互的能力。
基于浏览器的安全解决方案能够提供对AI SaaS应用程序、ChatGPT之外未知的AI应用程序、启用AI的浏览器扩展等的可见性。这种可见性可用于部署针对生成式AI的数据丢失防护(DLP)解决方案,使企业能够安全地将生成式AI纳入其计划,为未来的业务保驾护航。
如需了解更多关于生成式AI使用情况的数据,请阅读完整报告。