最新调查报告显示,在部署生成式AI方面,70%以上的企业仍然处在“探索” 阶段。这意味着,开发大型语言模型的AI开发商需要确保他们的产品具有适当的数据安全机制,才能让使企业用户感到满意。
近日,三星等大型企业出于对数据安全的担忧,开始禁止员工使用ChatGPT等AI工具。一位分析师表示,像微软这样的供应商如果希望这项技获得成功,就需要设计和提供为企业量身定制的解决方案。
三星禁止员工使用ChatGPT,生成式AI存在数据泄露风险
由于源代码在上个月泄露,三星已经命令该公司员工避免使用聊天GPT、必应和谷歌的Bard等AI工具。而在此前,其他科技公司也发表了类似的声明,表达了对使用生成式AI的数据安全的担忧。
OpenAI日前证实,正在为企业用户开发特定版本的ChatGPT平台,该平台默认禁止企业用户在ChatGPT再训练中使用对话。目前尚不清楚这是否足以解决大型企业客户担忧的安全问题,但这些企业的高管显然渴望采用这项技术。
根据Gartner对2500名行业高管进行的一项调查,45%的受访者认为ChatGPT促进了AI投资,70%的受访者表示他们的组织正在研究部署生成式AI的方法,19%的受访者已经处于试验或生产阶段。
Gartner副总裁分析师Frances Karamouzis表示:“用户对于采用生成式AI的痴迷并没有减弱的迹象。很多行业组织都在争先恐后地决定投入多少资金使用生成式AI解决方案,哪些产品值得投资,何时开始以及如何降低这种新兴技术带来的风险。”
最能说明问题的是,68%的受访者认为生成式AI的好处大于风险,只有5%的受访者认为使用这种技术的风险大于好处。
随着对生成式AI投资的深化,以及数据安全的影响变得更加明显,这些情况可能会发生变化,就像三星面临的安全困境情况一样(该公司正在建立自己的AI模型)。
大势所趋,避免采用生成式AI可能比部署AI更难
尽管全球经济放缓,科技行业大规模裁员,但只有17%的受访者表示成本优化是投资AI的主要原因,而客户体验是最重要的焦点。
随着微软等公司通过Copilot在其CRM和Office 365套件中部署AI,Salesforce也在其全套产品中添加了聊天机器人技术,避免采用生成式AI可能比部署AI更难。
Gartner副总裁兼分析师Avivah Litan表示,企业在使用公共大型语言模型时面临多重风险,但有一些方法可以减轻风险,包括确保他们有能力自动过滤输出的错误信息、幻觉和不需要的事实信息。
她表示,企业还需要确保大型语言模型供应商提供可验证的数据治理和安全保证,以确保传输给大型语言模型的企业机密信息不会受到损害。透明度方面也需要确保任何使用都符合GDPR法规和欧盟AI法案等立法。
她解释说:“在满足这些要求之前,我们看到的是,谨慎的企业或者限制员工对聊天的访问权限(由于个人设备的存在,这是不可能执行的),或者允许有节制的尝试性使用,从而避免向大型语言模型发送机密数据。”
人们对部署生成式AI这项技术的兴趣在于其潜在的好处,特别是从昂贵而广泛的数据集训练的公共模型中获益。Litan说,“OpenAI和第三方开发的大型语言模型的巨大价值在于训练它们的大量数据,以及运行它们所需的巨大复杂的超级计算机功能。企业根本没有资源来重建这些有价值的模型。”
对于OpenAI、微软和任何想要部署这种技术的供应商来说,其解决方案是通过共享安全责任协议创建技术工具。如果机密数据被泄露,供应商应该承担责任,这也是他们前进的方向。