思科调查:超25%公司在内部实施了生成式AI禁令

人工智能
根据思科(Cisco)日前进行的一项调查,尽管很多员工了解生成式AI​在数据隐私方面的缺陷,但许多人仍在向ChatGPT等类似的AI应用程序输入敏感的公司数据。

根据思科(Cisco)日前进行的一项调查,尽管很多员工了解生成式AI在数据隐私方面的缺陷,但许多人仍在向ChatGPT等类似的AI应用程序输入敏感的公司数据。

思科针对全球12个国家的2600名隐私和安全专业人士进行的年度数据隐私基准调查表明,超过四分之一的公司在内部实施了生成式AI禁令,三分之二的公司对哪些信息可以输入基于大型语言模型(LLM)的系统设置了护栏,或者禁止使用特定的应用程序。

思科卓越隐私中心主任Robert Waitman在博客文章中写道:“超过三分之二的受访者表示,他们担心数据有被竞争对手或公众共享的风险。尽管如此,他们中的许多人输入了可能有问题的信息,包括有关所在公司的非公开信息(48%)。”

多数受访者已经意识到生成式AI的数据隐私问题

不出所料,调查表明,受访者对生成式AI的了解程度越来越高,55%的人表示他们“非常熟悉”这项技术。而在2023年的调查中,52%的人表示不熟悉。与此同时,79%的受访者在今年的调查表示,他们正在从生成式AI应用中提取“显著或非常显著的价值”。

即便如此,在部署此类工具时,受访者对公司保护数据安全的能力一直持保留态度。其中包括担心AI可能危及其公司的法律和知识产权(69%),将专有数据泄露给竞争对手或公众(68%),以及应用程序输出内容可能不准确(68%)。与此同时,92%的受访者认为,部署生成式AI需要“管理数据和风险的新技术”。

尽管存在这些担忧,但许多受访者坦率地承认,他们曾将敏感的公司数据输入到生成AI应用程序中。例如,62%的人输入了有关内部流程的信息,而48%的人在生成式AI应用程序中使用敏感的公司数据以寻求新的见解。

企业发布内部使用生成式AI禁令变得越来越普遍

很多公司似乎也开始通过对生成式AI的使用设置护栏来应对带来的这些诱惑。27%的受访者表示,他们的公司已经完全禁止使用这项技术。其他公司则设置了一定的限制,这些限制措施通常是数据限制(63%)、工具限制(61%)或数据验证要求(36%)。

这些调查发现与零售、制造业和金融服务行业组织在2023年发布的类似公告相呼应,他们将对生成式AI的内部使用设置护栏。今年5月,三星禁止其员工使用生成式AI,亚马逊、苹果和Verizon也实施了类似的限制。

生成式AI专家Henry Ajder表示,这些决定可能是出于监管的不确定性,以及对数据隐私的担忧。

 “人们意识到,如果他们以目前的方式使用生成式AI,在当前的监管环境下,他们的一些行为将会违反法规,或者公司在安全维护方面的成本将非常高。”Ajder说。

责任编辑:庞桂玉 来源: 极客网
相关推荐

2010-08-10 15:17:08

应用安全网络测试

2023-07-24 07:59:53

2020-02-21 11:40:36

AI人工智能计算机芯片

2021-09-22 14:51:41

物联网审计IOT

2010-05-20 13:28:16

IIS metabas

2020-12-01 09:35:15

AI 数据人工智能

2022-02-21 22:49:34

公有云云计算首席信息官

2018-04-10 10:26:00

2009-12-14 13:17:26

路由器配置

2024-08-27 13:40:44

模型运动指令ADN

2013-11-07 14:45:48

苹果OS X更新

2020-08-12 17:54:12

微软TikTok员工

2023-09-11 06:51:41

2023-08-04 07:17:20

2023-11-20 11:30:50

AI

2023-06-18 12:18:57

2023-08-11 17:02:57

2024-11-04 10:16:06

2020-03-09 13:58:19

机器人机器人流程自动化RPA

2024-03-11 09:55:51

点赞
收藏

51CTO技术栈公众号