Gartner:Deepfake和生成式AI让我们进入零信任世界

新闻 人工智能 零信任
Gartner发布了一系列《Predicts 2021》研究报告,其中一份报告概述了人工智能(AI)将在未来几年引发的重大影响,包括广泛的道德和社会问题。

本文转自雷锋网,如需转载请至雷锋网官网申请授权。

 Gartner发布了一系列《Predicts 2021》研究报告,其中一份报告概述了人工智能(AI)将在未来几年引发的重大影响,包括广泛的道德和社会问题。

Gartner的五位分析师在《2021年预测:人工智能对人类和社会的影响》的报告中预测了2025年将会产生的变化,该报告特别关注了所谓的人工智能的二级后果,这种后果是非预期的新技术的成果。

例如,生成式AI现在可以创建出实际上并不存在的人物和物体的非常逼真的照片。

[[378406]]

Gartner预测,到2023年,将有20%的账户被这种由AI产生的Deepfake接管。报告指出:“可以创建和生成超逼真的内容的AI能力,将对人们相信自己的眼睛所看到的产生变革性的影响。”

该报告从AI市场的5个角度进行了预测,并就企业如何应对和适应这些未来的挑战提出了建议: 

  • 到2025年,预先训练的AI模型将主要集中在1%的供应商中,这将使AI的负责任地使用成为社会关注的问题

  • 在2023年,成功的账户接管攻击将有20%使用Deepfake,它将会成为社会工程学攻击的一部分

  • 到2024年,将有60%的AI提供商会将缓解危害/滥用行为作为其软件的一部分

  • 到2025年,将有10%的政府通过使用合成AI来避免隐私和安全问题 

  • 到2025年,工作场所75%的对话将被记录和分析,以用于增加组织价值和评估风险

这些分析中的每一个都足以使AI观察者引起足够的关注,如果将这些预测结合起来时,就可以勾勒出未来的严峻形势,其中涉及道德问题,潜在的AI滥用以及工作场所隐私的丧失。 

如何应对 

如果Gartner的分析师的预测准确无误,那么关于AI带来的隐私和真相的影响的担忧必将成为未来几年的主要话题,成功的企业将需要准备迅速适应这些担忧。

该报告中的一个重要的主题是,在依赖AI的公司(无论是服务还是产品)中建立道德委员会。Gartner说,对于计划记录和分析工作场所对话的企业,尤其要注意这一点,应建立具有员工代表的董事会,以确保公平使用对话数据。

Gartner还建议企业建立负责任的AI使用标准,并优先考虑“可以证明AI能够清晰发展和解决相关社会问题”的供应商。

至于围绕Deepfake和生成式AI的安全问题,Gartner建议组织安排有关Deepfake的培训。报告说:“我们现在正在进入零信任的世界。除非使用加密的数字签名证明它是经过认证的,否则任何事物都不能被信任。” 

该报告有很多内容值得关注,有数据说,最好的Deepfake检测软件从长期来看将以50%的识别率达到顶峰。还预测到2023年,一家大型美国公司将采用对话分析来确定员工薪酬。这些分析中有很多需要担心的地方,也包括潜在的解决方案。

责任编辑:张燕妮 来源: 雷锋网
相关推荐

2023-05-08 15:21:41

2024-04-10 07:48:41

搜索引擎场景

2023-04-26 00:19:18

AICSI-RSChatGPT

2018-12-11 11:55:21

零信任网络安全信任

2022-11-21 14:02:14

2018-01-30 09:07:36

Ceph分布式存储

2022-07-12 11:36:21

零信任网络攻击

2023-02-28 11:19:35

CHATGPT人工智能

2019-03-18 08:06:25

物联网IOT物联网技术

2023-07-21 15:48:21

人工智能数字零售

2022-12-26 00:32:01

2024-06-14 10:19:03

2023-09-07 23:10:36

AI生成式 AI

2021-04-30 07:23:02

人工智能AI深度学习

2023-10-12 15:32:36

2023-10-12 08:59:52

Docker AI生成式 AI

2023-09-14 10:16:34

2023-06-18 12:18:57

2023-12-15 08:31:14

零信任生成式AI边缘计算

2023-05-23 11:51:03

AI
点赞
收藏

51CTO技术栈公众号