12 月 10 日消息,本周末,欧盟就全球首个 AI 监管法案“AI Act”达成初步协议,涉及包括 ChatGPT 在内的通用人工智能系统,这被视为世界上第一个全面监管 AI 的关键一环。
综合《财富》杂志、彭博社当地时间周六晚上报道,根据彭博社获得的一份欧盟文件,所有通用人工智能系统的开发人员(或者很有可能会被广泛应用的强大模型)都必须满足基本的透明度要求,除非这些系统是免费开源的。
IT之家附有关要求如下:
- 制定可接受的使用政策
- 随时更新有关模型训练的信息
- 将用于训练模型的数据进行汇总,将详细摘要上报
- 制定尊重《版权法》的政策
根据该文件,被认为会构成“系统性风险”的模型将受到额外规则的约束。报道称,欧盟将根据训练模型的计算能力来确定是否存在风险,为模型设定的阈值是每秒超过 10 万亿次运算。有专家表示,目前唯一能达到这一门槛的模型是 OpenAI 的 GPT-4。
此外,欧盟执行机构还可根据数据集的规模、是否在欧盟拥有至少 10000 名注册商业用户、注册用户的最终数量等可能的指标来指定其他阈值。
报道还称,在欧盟委员会制定出更协调且长期有效的控制措施期间,这些“能力更强”的模型应该签署行为准则。这些模型还必须满足如下要求:
- 主动报告自身能耗情况
- 在内部或外部进行红队测试 / 对抗性测试
- 评估和减轻可能的系统性风险,并报告任何事件
- 确保使用适当的网络安全控制措施
- 报告用于微调模型的信息及其系统结构
- 如果制定了更节能的标准,则开发过程中应当符合新的标准
至于没有签署行为准则的模型,则必须向欧盟委员会证明它们确实会遵守《AI 法案》。需要注意的是,对开源模型的豁免不适用于那些“被认为会带来系统性风险”的模型。