9月26日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称“《规范》”),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
早在今年1月5日,全国信息安全标准化技术委员会发布了《网络安全标准实践指南—人工智能伦理安全风险防范指引》(以下简称“《指引》”),表示相关组织或个人在开展人工智能研究开发、设计制造、部署应用等相关活动时,应充分识别、 防范、管控人工智能伦理安全风险。
相较于《指引》,本次出台的《规范》对隐私保护与数据安全进行了更为详细的阐述,同时对算法偏见等技术伦理问题也给予了关注。
重视数据与隐私安全,强调算法伦理
《规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。其中,数据与隐私安全内容贯穿了人工智能管理、研发、供应等特定活动的具体伦理要求。
《规范》指出,人工智能各类活动应充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。
在管理方面,要充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
在研发方面,要提升数据质量,在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
在供应方面,要强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
算法伦理也是本次规范的关注重点之一。《规范》在“研发规范”中明确提出,在数据采集和算法开发中要避免偏见歧视,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。同时,要增强安全透明,在算法设计、实现、应用环节提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
技术伦理与数据安全成市场监管重点
近年来,人工智能伦理治理问题日益引发关注,数据安全与算法伦理合规一直是我国人工智能产业的关注焦点,相关制度正在不断完善之中。
2021年7月14日,深圳市人大常委组织部起草的《深圳经济特区人工智能产业促进条例 (草案) 》要求人工智能企业“设立伦理风险岗位”,“履行伦理审查和风险评估职责”,并明确规定开展人工智能研究和应用活动中禁止侵犯个人隐私和个人信息保护、损害国家安全和社会公共利益、算法歧视等一系列行为。
2021年7月28日,科技部发布《关于加强科技伦理治理的指导意见 (征求意见稿) 》,明确了伦理先行、敏捷治理等基本要求,并提出了五项科技伦理原则,要求“从事生命科学、医学、人工智能等科技活动的机构,研究内容涉及科技伦理敏感领域的,应设立科技伦理 (审查) 委员会”
此外,《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》于今年6月和8月相继出台,数据和信息安全重要性被前所未有地强调。政策风向之下,AI企业在融资上市的时候也越来越重视数据安全与算法伦理的合规问题。
在过去的一年里,依图、旷视、云从、海天瑞声、云天励飞等“AI概念股”扎堆涌向IPO,数据合规及科技伦理均是审核关注的焦点。今年5月,在旷视科技IPO过程中,上交所首次对科技伦理进行了问询,要求旷视披露公司在人工智能伦理方面的组织架构、核心原则、内部控制及执行情况。而云从科技曾因财务资料过期而一度被中止发行上市审核,依图科技已撤回申请,其发行上市审核现已终止。
监管力度加大的背景下,近日, “AI四小龙”之一的商汤科技提交港股上市招股书,并在招股书中设有专章详尽披露了隐私与AI治理环节,说明其在业务中如何做到数据隐私及个人信息保护,并称将遵循三项人工智能伦理原则:可持续发展原则、以人为本原则和技术可控原则。
浙江垦丁律师事务所创始合伙人王琼飞在此前接受21记者采访时曾表示,对于AI产业及科技公司来说,短期来看,鉴于数据合规、AI治理均将耗费大量的精力与成本;但从中期看,上市科技公司主动对个人隐私、AI治理工作进行披露,无疑将对其他企业起到示范以及指引作用,从而减轻数据标准化以及降低数据治理的工作量;从长期来看,此举亦将加速AI行业的健康发展,在尊重和保护个人隐私的前提下,逐步实现人工智能创新与监管的平衡状态
(作者:实习生王祎琛,见习记者吴立洋 编辑:曹金良)