超四分之一企业禁止员工使用生成式人工智能

人工智能 应用安全
根据思科2024年数据隐私基准研究,超过四分之一(27%)的组织出于隐私和数据安全风险的考虑,暂时禁止在员工中使用生成式人工智能。

根据思科2024年数据隐私基准研究,超过四分之一(27%)的组织出于隐私和数据安全风险的考虑,暂时禁止在员工中使用生成式人工智能。

大多数组织还对此类工具实施了控制。近三分之二(63%)的受访者对可以输入的数据进行了限制,61%的受访者对员工可以使用哪些GenAI工具进行了限制。

尽管有这些限制,许多组织承认已经将敏感数据输入到生成人工智能应用程序中。其中包括内部流程的信息(62%)、员工姓名或信息(45%)、有关公司的非公开信息(42%)以及客户名称或信息(38%)。

大多数受访者(92%)认为生成式人工智能是一种全新的技术,带来新的挑战,需要采用新技术来管理数据和风险。

受访者对人工智能技术最大的担忧是:

  • 可能会损害组织的法律和知识产权(69%)
  • 输入的信息可能会公开泄漏或与竞争对手共享(68%)
  • 返回给用户的信息可能是错误的(68%)
  • 对人类有害(63%)
  • 可能会代替其他员工(61%)
  • 可能会代替自己(58%)

员工的人工智能账户泄漏和滥用也是企业面临的重大风险。根据卡巴斯基的调查,大量被盗ChatGPT账户在暗网热销,对用户和公司构成重大威胁。

此外,ChatGPT等流行大语言模型的训练数据和生成数据还可能存在违反GDPR等数据保护法规的风险。

91%的安全和隐私专业人士承认,他们需要采取更多措施,让客户放心使用人工智能的数据。

然而,思科的调研显示,下列帮助建立AI信任的工作中没有任何一项获得超过50%的受访者的采用:

  • 解释AI应用如何工作50%
  • 确保流程中有人员干预50%
  • 制定AI道德管理计划49%
  • 审计AI应用偏差33%

思科首席法务官DevStahlkopf评论道:“超过90%的受访者认为人工智能需要新技术来管理数据和风险。AI安全治理对建立客户信任至关重要。”

责任编辑:华轩 来源: GoUpSec
相关推荐

2013-04-27 14:15:10

社交

2024-11-07 13:07:47

2013-04-19 10:48:42

2011-11-14 09:29:19

LBS

2010-03-16 16:38:50

.com四分之一个世纪

2016-03-31 13:28:46

联通

2012-07-31 09:48:51

Google Fibe光纤

2012-03-17 19:52:07

iPad

2009-02-16 09:06:03

技术移民美国科技企业

2020-12-07 16:42:37

密码网络攻击网络安全

2019-07-23 09:58:58

人工智能网络安全物联网

2018-05-07 15:23:51

2022-06-08 19:31:38

人工智能Cloudera自动化

2019-10-17 12:58:33

云计算IT支出SaaS

2015-12-18 11:37:03

2012-04-06 10:32:14

企业网络WLANWi-Fi网络

2012-06-28 11:14:09

戴尔M420刀片

2018-05-24 21:11:12

2023-09-20 14:38:53

智能汽车
点赞
收藏

51CTO技术栈公众号