四家公司组成了一个新的联盟,旨在促进负责任的人工智能(AI)开发,并在面临越来越多的政府和社会审查时建立行业标准。
OpenAI网站上的一份声明写道:“Anthropic、谷歌、微软和OpenAI宣布成立前沿模型论坛,这是一个新的行业机构,专注于确保安全、负责任地开发前沿人工智能模型。”声明称,为了“整个人工智能生态系统”的利益,前沿模型论坛将利用其成员公司的技术和运营专业知识。该小组寻求推进技术标准,包括基准和评估,并开发一个解决方案的公共资源库。
联盟的核心目标包括:
推进人工智能安全研究,促进前沿模型的负责任开发,最大限度地降低风险,并实现对能力和安全的独立、标准化评估。
确定负责开发和部署前沿模型的最佳实践,帮助公众了解技术的性质、能力、局限性和影响。
与政策制定者、学者、民间社会和公司合作,分享有关信任和安全风险的知识。
支持开发有助于应对社会最大挑战的应用程序,如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。
论坛将“前沿模型”描述为大规模机器学习模型,在完成各种任务方面优于当前顶级模型的能力。
该组织计划解决负责任的人工智能开发问题,重点关注三个关键领域:确定最佳实践、推进人工智能安全研究以及促进商业企业和政府之间的信息共享。论坛将协调研究,在对抗性、稳健性、机制可解释性、可扩展监督、独立研究访问、紧急行为和异常检测等领域推进这些工作。
列出的其他未来行动包括成立一个咨询委员会来指导该联盟的战略和优先事项,以及与一个工作组和执行委员会一起组建章程、治理和资金等机构。论坛表示支持现有的行业努力,如人工智能伙伴关系(Partnership on AI)和机器学习联盟(MLCommons),并计划与民间社会和政府就“有意义的合作方式”进行协商。
尽管该联盟只有四个成员,但它对那些积极开发和实施这些前沿模式、通过技术和体制手段对其安全表现出坚定承诺、并准备根据成员要求清单,通过积极参与联合倡议来推进论坛目标的组织持开放态度。
该组织写道:“论坛欢迎符合其他标准组织加入,并在确保安全和负责任地开发前沿人工智能模型方面进行合作。”
不过有批评人士表示,主要人工智能参与者的这些自我监管尝试可能会创造新一代的技术垄断。
未来,政府和人工智能创新者之间需要持续深入的接触。人工智能将影响生活和社会的方方面面,任何如此全面的技术,政府都必须发挥作用,保护大众免受意外后果的影响,并围绕这些新创新创造的重要问题建立一个单一的真相来源,包括安全人工智能的实际参数。
从长远来看,需要将道德置于人工智能的中心,加深和维持对一定的减速带,并最终确保人工智能成为一股向善的力量。这还包括确保法规不会削弱竞争,产生新一代技术垄断。同时需要邀请所有人工智能社区负责任地参与这一社会变革。