英国人工智能安全研究所(AI Safety Institute)推出了一个新平台,允许企业在公开发布人工智能模型之前对其进行测试。
这个名为Inspect的平台是一个软件库,旨在评估人工智能模型的能力,在推理和自主能力等方面对它们进行评分。
目前,开发人员缺乏可用的安全测试工具。上个月,MLCommons发布了一个大型的以语言模型为重点的安全测试基准。
Inspect就是为了填补这一空白而开发的,它是开源的,所以任何人都可以用它来测试他们的人工智能模型。
企业可以使用Inspect来评估人工智能模型和外部工具使用的提示工程。该工具还包含包含标记样本的评估数据集,因此开发人员可以详细检查用于测试模型的数据。
它被设计为易于使用,并提供了用于运行整个过程中提供的各种测试的解释器,包括模型是否托管在AWSBedrock等云环境中。
安全研究所表示,开放测试工具的决定将使全球的开发人员能够进行更有效的人工智能评估。
英国科技大臣MichelleDonelan表示:“作为英国在人工智能安全方面不断发挥领导作用的一部分,我已批准人工智能安全研究所的测试平台开源我之所以对此充满热情,并将Inspect开源,是因为如果我们抓住人工智能的风险,我们可以获得非凡的回报。”
安全研究所表示,它计划在未来开发除Inspect之外的开源测试工具。该机构将在今年4月签署一项联合工作协议后,与美国同行合作开展相关项目。
人工智能安全研究所主席Ian Hogarth表示:“在人工智能安全测试方面的成功合作意味着有一个共享的、可访问的评估方法,我们希望Inspect能成为人工智能安全研究所、研究机构和学术界的基石。我们希望看到全球人工智能社区不仅使用Inspect进行自己的模型安全测试,而且帮助适应和建立开源平台,以便我们能够全面进行高质量的评估。”
OpenUK首席执行官Amanda Brock表示,安全研究所新平台的成功只能通过已经承诺使用该测试工具的公司数量来衡量。
Brock说:“由于英国在监管方面的立场缓慢,这个平台必须取得成功,英国才能在未来的人工智能领域占有一席之地。现在所有人的目光都集中在韩国和下一届安全峰会上,看看世界是如何看待这一点的。”
Saidot公司首席商务官Veera Siivonen表示,“Inspect能够评估广泛的人工智能功能并提供安全评分,使各种规模的组织不仅能够利用人工智能的潜力,还能确保负责任地、安全地使用人工智能。这是实现人工智能安全民主化的一步,此举无疑将推动创新,同时防范与先进人工智能系统相关的风险。”