姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制

人工智能
包括图灵奖得主约书亚・本吉奥、杰弗里・辛顿、姚期智等在内的数十位的中外专家日前在北京联合签署了由智源研究院发起的《北京 AI 安全国际共识》,涉及人工智能“风险红线”和“路线”两大块,其中“风险红线”包含“自主复制、改进”“权力寻求”“协助不良行为者”和“欺骗”四个部分。

3 月 18 日消息,据腾讯科技报道,包括图灵奖得主约书亚・本吉奥、杰弗里・辛顿、姚期智等在内的数十位的中外专家日前在北京联合签署了由智源研究院发起的《北京 AI 安全国际共识》,涉及人工智能“风险红线”和“路线”两大块,其中“风险红线”包含“自主复制、改进”“权力寻求”“协助不良行为者”和“欺骗”四个部分。

IT之家整理四部分内容大致如下:

  • 人工智能的“自主复制、改进”:强调人在该过程的作用,要求任何人工智能系统都不应在人类没有明确批准和协助的情况下复制或改进自身,包括制作自身的精确副本、创造具有相似或更高能力的新人工智能系统。
  • “权力寻求”:明确要求任何 AI 系统不能采取不当增加自身权力、影响力的行动。
  • “协助不良行为者”:所有 AI 系统都不应辅助提升其使用者的能力,使之可达设计大规模杀伤性武器、违反生物或化学武器公约,或执行导致严重财务损失或同等伤害的网络攻击领域专家的水平
  • “欺骗”:要求任何 AI 系统都不可拥有持续引导其设计者或监管者误解其僭越任何前述红线的可能性

据介绍,该共识呼吁行业在进行 AI 技术研发时,限制其获取通过“越狱”“诱导开发者”的形式获得超常规权限,并限制 AI 在未经监管的情况下进行自身复制与改进,为 AI 的发展套上“紧箍咒”。

共识还强调,确保上述红线不被僭越可以实现的前提,是行业共同努力,建立并改进治理机制,同时研发更多安全的技术。关于 AI 的发展路线,则涉及“治理”“测量与评估”“技术合作”三部分。大致如下:

  • 治理:建议针对超过特定计算或能力阈值的人工智能模型和训练行为,立即实施国家层面的注册。
  • 测量与评估:在实质性风险出现之前开发全面的方法和技术,使红线具体化、防范工作可操作化,并建议组建由人类监督下的红队测试和自动化模型评估,且开发者应当为人工智能的安全性负责。
  • 技术合作:建立更强的全球技术网络,呼吁 AI 开发者和政府资助者将超过 1/3 的预算投入到安全领域。
责任编辑:庞桂玉 来源: IT之家
相关推荐

2024-03-22 13:05:55

模型训练

2024-03-19 09:25:32

2010-05-20 11:00:36

富士康员工

2023-10-25 12:44:47

2009-06-02 08:40:08

巨人应届生解约

2024-05-24 09:52:09

2023-02-13 14:43:04

IBM云原生AI

2018-10-25 15:22:30

AI攻击网络安全

2020-09-10 14:00:37

网络安全网络安全技术周刊

2024-04-07 00:00:01

编程语言开发

2024-09-24 12:39:52

2015-07-08 14:23:21

网页设计设计趋势

2015-08-21 09:50:45

2024-02-04 16:42:04

网络犯罪勒索软件网络攻击

2023-10-12 10:25:50

2024-09-20 14:25:35

2024-06-05 15:05:48

2023-05-23 11:49:05

2023-03-24 16:03:27

DevOps工具
点赞
收藏

51CTO技术栈公众号