导语:回顾过去几年,AI负面案件频出,政府出台一系列政策以加强管控,但政策法律似乎无法完全解决这一问题,更需要与学术界、企业界通力合作,从技术研发、治理手段、伦理建设等方面完善。
人工智能技术发展迅猛的同时,引发了很多关于音视频造假、监控隐私、算法偏见、创作版权、就业等各个方面的社会性问题。
对此,雷锋网对旷视AI治理研究院今日盘点的“2019全球十大AI治理事件”进行了解读。
比起聚焦在镁光灯下的热点AI落地应用,这十大案件却反映出了AI落地的不光彩一面。
如果说解决AI治理的核心命题在于新时代下的伦理与法律规范,那么2020将是考验其是否切实可行的关键一年。
为什么AI会让我们有危机感?
特征一:新生事物对传统伦理与法律的挑战
典型案例:AI编写假新闻、智能助手劝人“自杀”
事件说明:2019年2月,OpenAI公布了一款可编写新闻的软件,如提供“一节装载受控核材料的火车车厢今天在Cincinnati被盗,下落不明”,软件可编写出7个段落组成的虚假新闻。考虑到这款软件采用的无监督语言模型GPT-2滥用可能带来的危害,OpenAI仅发布部分代码和研究论文供研究人员试验。
2019年12月,某用户在借用智能音箱查询心脏问题时,该语音助手给出的答案却吓坏了该用户,“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭……请确保刀能够捅进你的心脏。”对此,事故方回应称,语音助手可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。
警示意义:在以上两起案例中,AI已经具备了一定的文本学习并生成文字的能力。如果一开始收集的数据就被曲解,那么输出的结果也会反映这一点。这极大地考验着研究者会为其灌输怎样的价值导向。不过,现在AI还无法基于理解,实现自主学习人类的伦理道德。
特征二:社会发展与人类平权的固有矛盾
典型案例:性取向检测、未来被淘汰职业
事件说明:追溯到2017年,斯坦福研究人员利用超过 35,000 张美国交友网站上男女的头像图片训练,让机器学习识别人们的性取向。结果发现,机器识别的准确率要远高于人类。
同年,BBC发布了10年后365种职业被淘汰的概率,其中,电话推销员、打字员、会计位居前三,而这些职位的一个共同特征是,均属于大量重复性劳动,机器经由训练即可掌握。
警示意义:原本性取向话题,以及机器取代人力的焦虑是任何一个国家、社会由来已久的矛盾,然而AI像一个不懂事的孩子,直白地将问题放大,引发社会广泛争议。
社会要发展,势必要提高生产力,AI俨然是眼下最具变革性的技术。在这样的大背景下,那些前AI时代就在社会中存在的难题,能否随着社会的发展得到妥善解决呢?
特征三:“裸奔”时代,公民的安全与隐私问题
典型案例:AI换脸、杭州人脸识别第一案、监测头环
事件说明:2019年8月,一款AI换脸软件在社交媒体刷屏,用户只需要一张正脸照就可以将视频中的人物替换为自己的脸。由于用户疯狂涌进,使得该软件运营商服务器一晚上就烧掉了200多万人民币的运营费用。
2019年10月,浙理工某教授状告杭州野生动物世界违规收集人脸识别信息。他认为,该类信息属于个人敏感信息,一旦泄露、非法提供或者滥用,将极易危害包括原告在内的消费者人身和财产安全。
2019年11月,浙江一小学戴号称“脑机接口”的头环视频播出。这些头环宣称可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长。随后,该行为被当地教育部门叫停。
警示意义:对于当下应用广泛的人脸识别等涉及公民隐私的身份认证技术,在为社会提供便利的同时,是否考虑过公民是否愿意、甚至是知情的情况下交出人脸数据?
人脸数据具有不可逆的唯一性,一旦与用户家庭住址、消费行为等数据打通,个人隐私相当于“裸奔”。相比国外当前出台的保护和禁止条例,国内对隐私的保护力度显然不足。
特征四:事故发生后权责认定的不清晰
典型案例:自动驾驶事故频发
事件说明:2018年3月,美国亚利桑那州坦佩市,一辆处于上路测试的Uber自动驾驶汽车撞死行人,根据行车记录仪显示,事故发生时这辆汽车的安全员一直在看车辆中控下方,被撞女性则是从漆黑的道路上突然出现的。尽管随后Uber全面停止了自动驾驶车辆测试,但这场事故的责任方究竟如何判别,却引发了更多关注。
警示意义:近年来,自动驾驶汽车在道路安全事故中没少惹祸,甚至发生多起致人死亡案件。如何消除安全隐忧,提升安全系数是当下所有自动驾驶公司需要解决的问题。
自动驾驶的终极目标是消除事故伤亡,但以生命作为代价“换取”科技进步的问题,在未来很长一段时间内值得立法者和管理者思考。
针对AI治理,我们不能坐视不管
正如上文案例所述,科学发展中,我们一度关心技术的工作原理,试图从技术角度解释和改善安全问题的出现。但实践证明,当下的AI技术并不是在任何地方都是安全的。这一方面与技术的局限性有关,也跟实际的应用对象、场景、环境密切相关。
就在近日,欧盟专利局拒绝了AI 发明的专利申请,“理由是它们不符合欧盟专利同盟(EPC)的要求,即专利申请中指定的发明人必须是人,而不是机器。”这对于当下国内尝试利用AI以缓解版权专利问题所引发的争议,起到了一定的参照作用。
可见,构建完善的法律制度或许是AI治理最迫切的手段,同时,还需要各个科学组织和社会机构,从道德和伦理层面进行进一步约束。
值得一提的是,我们已经能看到国内政府机构、学术研究机构以及企业代表们在人工智能发展的治理问题上有了积极的探索。
2019年5月,北京智源人工智能研究院联合北京大学、清华大学等单位发布《人工智能北京共识》,并成立“人工智能伦理与安全研究中心”,提出了各个参与方应遵循的有益于人类命运共同体的15条原则。
同月,上海国家新一代人工智能创新发展试验区揭牌,明确了建立健全政策法规、伦理规范和治理体系的相关任务。
6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”人工智能治理八条原则。
在8月的世界人工智能大会上,青年科学代表们宣布《上海宣言》,腾讯董事会主席兼首席执行官马化腾演讲时表示,AI治理的紧迫性越来越高,应以“科技向善”引领 AI 全方位治理,确保 AI“可知”、“可控”、“可用”、“可靠”。
外交部前副部长、清华大学国际战略与安全研究中心主任傅莹则表示,传统的立法是需要等待的,需要社会不断地实践来积累共识。面对AI如此快速地发展,法律制定需要新的思维。
12月,国家互联网信息办公室、文化和旅游部、国家广播电视总局印发《网络音视频信息服务管理规定》,首次将AI造假音视频列入法规,并且自2020年1月1日起施行。
实际上,在政府完善法律政策、学术机构建立伦理和道德约束目标的同时,我们也看到禁用技术这种做法存在的“一刀切”问题。
例如,去年3月美国加州通过的一项议案,禁止警察身体摄像头安装人脸识别软件。尽管面部识别软件对降低抓捕罪犯难度有潜在优势,但显然,政府则立足于保护公民隐私安全和可能存在的算法偏见问题。
是禁用AI技术以解决风险问题,还是积极采纳以提升社会运转、保障效率?这可能并不是对与错的问题。但作为人工智能从业者来讲,一定要有红线意识。
中国科学院自动化研究所研究员曾毅指出,实际上很多企业对存在的风险视而不见,人工智能的健康发展,一定是治理和发展双轮驱动,要保证它向着正确的方向发展。
为推动AI治理,旷视做了哪些努力?
早在2019年7月,旷视科技就意识到了这一问题,从企业自身角度公布了《人工智能应用准则》管理标准。
《准则》从正当性、人的监督、技术可靠性和安全性、公平和多样性、责任可追溯、数据隐私保护六个维度,对人工智能正确有序发展作出明确规范;同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展,呼唤起各界对善用技术的重视,倡导行业提早建立可持续发展的生态。
与此同时,旷视还组织成立了人工智能道德委员会,目的是积极与各方探讨全球AI伦理相关的共性问题,促进与社会各界的沟通、推动AI的健康发展,以确保创新技术为社会带来更积极正面的影响。
组织和原则的确立仅为接下来的AI治理开了一个好头。据旷视科技透露,公司在人工智能道德委员会下成立了“旷视人工智能治理研究院”。该研究院将在旷视《人工智能应用准则》的指导下,深度探索可信任AI系统的开发与应用问题。进入2020年,旷视还将通过与更多同行业建立联合委员会,期待加速AI应用准则的真正落地。
总结
今天看来,这十大热门事件并非个案,若不加以正确引导都将对社会造成极大负面影响。
人工智能系统收集或上传隐私,对隐私的界定规则是什么?
自动驾驶车辆在遭遇危机时刻,责任人是驾驶员、车辆,还是政府的不当监管?
由于人类是通过生物性原理来获得教育和学习,与目前单纯依靠统计推理的训练而存在的机器学习系统有本质差别,我们又该如何面对机器给出的建议和结论?
或许AI在很长一段时间内都会因与人类社会的伦理有所偏差而在融入社会时产生不小的矛盾,但可以预见的是,2020年,随着5G在国内全面投入商用,5G或将带动AI算法、边缘计算等技术大力发展,进一步极大赋能智能制造、智能家居等更为广泛的生产生活领域。其巨大的潜力和价值有理由让我们接受这个挑战。
而边界问题讨论未明之时,我们更要有耐心教育它、指导它、规范它,促使它成为符合人类社会发展的智能技术。
本文转自雷锋网,如需转载请至雷锋网官网申请授权。