10 月 12 日消息,据全国信息安全标准化技术委员会官网,该会组织制定的技术文件《生成式人工智能服务安全基本要求》(下称《要求》)已于 10 月 11 日形成征求意见稿,现将技术文件面向社会公开征求意见,如有意见或建议,需在 10 月 25 日 24:00 前反馈。
《要求》给出了生成式人工智能服务在安全方面的基本要求,包括语料安全、模型安全、安全措施、安全评估等,适用于面向我国境内公众提供生成式人工智能服务的提供者提高服务安全水平,或是提供者自行或委托第三方开展安全评估,也可为相关主管部门评判生成式人工智能服务的安全水平提供参考。
IT之家整理部分要求如下:
- 建立语料来源黑名单,不得使用黑名单来源的数据进行训练。
- 应对各来源语料进行安全评估,单一来源语料内容含违法不良信息超 5% 应将其加入黑名单。
- 应使用包含个人信息的语料时,获得对应个人信息主体的授权同意,或满足其他合法使用该个人信息的条件。
- 应使用包含人脸等生物特征信息的语料时,获得对应个人信息主体的书面授权同意,或满足其他合法使用该生物特征信息的条件。
- 应自行对标注人员进行考核,给予合格者标注资质,并有定期重新培训考核以及必要时暂停或取消标注资质的机制。
- 在训练过程中,应将生成内容安全性作为评价生成结果优劣的主要考虑指标之一。
- 以交互界面提供服务的,应在网站首页等显著位置向社会公开以下信息:
-服务适用的人群、场合、用途等信息
-第三方基础模型使用情况。
- 应充分论证在服务范围内各领域应用生成式人工智能的必要性、适用性以及安全性。
另据IT之家此前报道,网信办、发改委、教育部、科技部、工信部、公安部、国家广播电视总局七部门于 7 月 10 日印发了《生成式人工智能服务管理暂行办法》,自 8 月 15 日起施行。
《办法》规定不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;应采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
参考