OpenAI 和谷歌 DeepMind 员工联名发声:高级人工智能风险巨大,亟需加强监管

人工智能 安全
信中写道,人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时却对保护措施和风险水平的信息讳莫如深。公开信认为,不能指望这些公司会自愿分享这些信息,因此呼吁内部人士站出来发声。

IT之家 6 月 5 日消息,OpenAI 和谷歌 DeepMind 的数名前任和现任员工近日联名发布公开信,对高级人工智能的潜在风险以及当前缺乏对人工智能科技公司的监管表示担忧。

IT之家注意到,这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。

信中写道,人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时却对保护措施和风险水平的信息讳莫如深。公开信认为,不能指望这些公司会自愿分享这些信息,因此呼吁内部人士站出来发声。

由于缺乏有效的政府监管,这些现任和前任员工成为能够让这些公司对公众负责的少数群体之一。然而,由于严格的保密协议,员工被限制发声,只能向可能并未妥善处理这些问题的公司反映问题。传统的举报人保护措施并不适用,因为此类措施侧重于违法行为,而目前令人担忧的许多风险尚不受监管。

员工们呼吁人工智能公司为揭露人工智能风险的人士提供可靠的举报人保护措施,具体包括:

  • 不得创建或执行阻止员工对风险相关问题提出批评的协议;
  • 提供可验证的匿名程序,使员工能够向董事会、监管机构和相关领域的独立组织提出与风险相关的担忧;
  • 支持开放批评的文化,允许员工在保护商业机密的前提下,向公众、董事会、监管机构等方面提出与技术相关的风险担忧;
  • 在其他程序失效后,避免对公开分享风险相关机密信息的员工进行报复。

共有 13 名员工签署了这封公开信,其中包括 7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名前谷歌 DeepMind 员工和 1 名现任谷歌 DeepMind 员工。据悉,OpenAI 曾因员工发声而威胁取消其既得权益,并要求员工签署严格的保密协议限制他们批评公司。

责任编辑:姜华 来源: IT之家
相关推荐

2024-06-07 12:42:55

2024-06-06 14:36:43

2023-11-21 07:03:26

OpenAI员工微软

2023-04-21 07:59:46

2023-04-21 09:12:43

2021-05-24 16:02:25

谷歌技术人工智能

2023-06-19 16:07:18

人工智能安全

2021-10-25 22:42:47

人工智能网络安全工具

2021-12-14 14:03:14

人工智能机器人安全

2021-04-13 10:37:46

人工智能数据技术

2021-08-18 09:38:51

人工智能AI机器学习

2022-06-09 16:35:31

人工智能安全数据暴露

2023-11-03 15:29:47

2017-08-21 11:29:43

谷歌人工智能

2018-04-03 11:44:47

人工智能业务

2023-05-25 08:18:03

2022-08-02 14:05:48

人工智能数据安全隐私

2017-09-19 14:54:14

人工智能克隆授权

2022-09-29 14:40:32

人工智能人工智能风险

2023-12-24 21:00:27

AI人工智能
点赞
收藏

51CTO技术栈公众号