- 英国国家医疗服务体系NHS就在其健康医疗大数据平台care.data停摆一事中,失去了这种“执照”。尽管利用NHS数据记录来提升医疗服务的概念得到了广泛的支持,但该机构对数据保护问题的处置引起了公众的强烈抗议,最终摧毁了这项计划。
- 任何由数据驱动的自动决策,都是基于感知到的风险和责任水平来接受评估。例如,与自动驾驶汽车建议相比,亚马逊的购物建议得到的关注就要少得多。
- 人工智能两种不同的发展前景:第一种被称为“泳池模型”,即人工智能的“池水”将溢满整个世界;第二种是他自己预测的“坑洞模型”,即人工智能的“水滴”会滴落在一切事物上,但只会注满特定的“坑洞”。
原文翻译:
近段时间,数据伦理进入主流视野,我们看到媒体报道了有人在YouTube上宣传恐怖主义,大数据公司Cambridge Analytica利用Facebook帖子进行个性化竞选活动,以及打车应用Uber被无休止的丑闻吞没。
我们所遵行的原则和法规已难以跟上技术的发展步伐。英国科技企业游说组织techUK召集了一个专家小组,讨论了如何确保行为符合规范。技术的最新进步正在不断延展关于知情同意和隐私的伦理观念,在这种情况下,我们需要一个新的框架来建立保护数据的标准。
“我们需要可以提供确定性的标准来进行创新。”英国皇家统计学会(Royal Statistical Society)的执行理事赫丹·沙阿(HetanShah)说,“失去了公众信任,我们就可能失去‘营业执照’。”
英国国家医疗服务体系NHS就在其健康医疗大数据平台care.data停摆一事中,失去了这种“执照”。尽管利用NHS数据记录来提升医疗服务的概念得到了广泛的支持,但该机构对数据保护问题的处置引起了公众的强烈抗议,最终摧毁了这项计划。
公众对数据使用的态度
近期关于数据使用的丑闻使得公众信任处于低水平。英国皇家学会(The Royal Society)最近展开了一项调查,询问公众对一家机构的信任度,以及如果要向该机构提交你的数据,此时你对它的信任度还有多高。
“人们对第二个问题的信任度总是低于第一个。”沙阿说,“如果一家机构掌握着你的数据,你对它的信任度绝不会超过之前它没有掌握数据时的情况。信任出现了赤字,这是一个社会问题。”
英国皇家学会的科学政策主任克莱尔·克雷格(Claire Craig)参与了一项调查,向拥有不同社会经济背景的英国公民,询问他们对于数据使用的看法。这项定性研究揭示,公众判断风险的标准始于对动机的感知。
“主要讯息是情境的重要性。”克雷格说,“对于数据的某种应用,他们判断其风险和好处的基本标准始于对动机的感知。”
“他们真的很关心为什么一项新技术会被引入,为什么会有新的应用,以及数据有哪些,目的是什么。他们也关心受益者,尤其是,如果他们看到它帮到了自己,帮到了像自己一样的人、像自己一样的群体以及更大范围的群体,他们的态度会更加支持。”
从根本上说,消费者需要得到直接的好处。如果这件事帮到了人们,赚不赚钱就不是问题。
任何由数据驱动的自动决策,都是基于感知到的风险和责任水平来接受评估。例如,与自动驾驶汽车建议相比,亚马逊的购物建议得到的关注就要少得多。
人们支持那些能够实现更多人际交往的技术应用,比如,技术可以省下时间,让用户与亲友有更多的交流。
对技术的过度依赖可能导致人们永久性地失去历代人所掌握的技能。
技术需要被证明能够增强而不是削弱人类的能力。能够帮助专业人士省下时间从事更重要工作的技术,将得到广泛支持,但那些有可能取代人力的自动化技术将让人们心生警惕,这一点毫不意外。
“人们很担心自己会被取代,对未来的工作也有很大的担忧。”克雷格说,“那些潜在的新工作,都在哪里呢?”
随着技术让我们走上无个性化的必然道路,并挑战人之为人的本质和价值,这些担忧会发展成有关存在价值的恐惧。如果一台计算机能够比你更好地完成所有工作,如果一种算法有权力决定你的选择,那么自由在职业、教育和财政支持等领域遭到限制,似乎就是不可避免的后果。
建立信任
数据的有益使用得到的媒体曝光很少与其负面使用得到的曝光度相同。拉斯维加斯的赌场或许会用数据科学来估算你的消费门槛,并在你达到那个门槛时送上一杯酒,希望你能继续消费。但同时,我们也看到Streams这样的应用通过扫描患者数据来预测急性肾损伤风险,从而达到提升医疗效果和减轻护士日常工作负担的目的。
我们可以通过宣传正面使用的事例来提升公众的信任,比如伦敦交通局使用开放数据预测公交车的到站时间,或是食品标准局通过社交网络来监测诺如病毒的传播。
咨询公司FrontierEconomics在最近的一份报告中预测,到2035年时,人工智能将为英国经济增加8,140亿美元的产值,并让经济增长率从2.5%上升到3.9%
“这些实实在在的数字令人印象深刻,但它们仍然未能充分反映由数据驱动的技术,比如数据分析和人工智能,将如何积极地改变经济和生活的方方面面,并真正帮助我们建设更加富裕、更加健康和更加清洁的社区。”微软英国的政府事务经理欧文·拉特(Owen Larter)说。
美国医疗系统已经在应用能够进行模式识别的算法技术,来应对医院中可预防的错误,这些医疗事故是位居癌症和心脏病之后的第三大致死原因。由数据驱动的模式识别技术可以依照既有的最佳临床实践,为医生标记出反常现象,防止这些错误造成重大伤害。
如今,英国背负着伦理责任,它要应对一系列挑战,比如老龄化人口的医疗费用问题,那意味着,今天的NHS到了明天将无法维持。
techUK的副首席执行官安东尼·沃克(Antony Walker)认为,我们开发的数据宝藏能够拯救生命,但前提是它的潜力得到释放。
“如果我们希望子孙后代能够拥有一套免费的医疗服务体系,我们对他们是有伦理上的责任的。”沃克说,“做成这件事的唯一办法是通过使用数据。”
当涉及计算机代码时,追究责任可能成为一个难题,但让整个过程可审计,解释其中的工作原理,将帮助建立公众信任。克雷格认为,我们还需要对公众担心的事情做出回应。
“透明度是必要的,但绝对说不上什么效率。”他说,“知道发生了什么事,这只是起点。”
问责、职责和责任是一个复杂的三角。最后一个会真正对公司造成损害,也是违规需要得到纠正的地方。
除了上述关于隐私、治理和知情同意的问题,在数据公平和偏见方面,公众也存在着持续的担忧。与人的意见相比,算法通常被赋予了更多的信任,尽管算法也是人类情感和偏见的产物。
数据科学仍然是一门相对较新的学科,因此,科学家需要在数据伦理和标准方面,接受全面的训练。他们设计的算法造成的结果应该接受审计,以确保透明度和安全性。
“我们很难窥视算法的黑箱。”沙阿说。
他希望组建一个独立的数据伦理委员会,而且,相比建立新的监管机构,他更愿意赋予现有监管机构额外的权力。
迈向未来
牛津大学哲学和信息伦理学教授卢西亚诺·弗洛里迪(Luciano Floridi)一直在研究数据未来的发展,以及未来几年产生的伦理影响。
他描述了人工智能两种不同的发展前景:第一种被称为“泳池模型”,即人工智能的“池水”将溢满整个世界;第二种是他自己预测的“坑洞模型”,即人工智能的“水滴”会滴落在一切事物上,但只会注满特定的“坑洞”。
“就连接这些坑洞来说,人工智能不会做所有的工作,那将由人类来完成。”弗洛里迪说,“而且,我们将如何充当人工智能应用与其他人工智能应用,或是与其他需要连接的系统之间的接口,在这方面,我们需要搞清楚的伦理问题还有很多。如何连接这一切,是完全未知的领域。”
新技术总是会为犯罪活动提供新的机会,而私人企业、公共机构和执法部门的追赶步伐可能非常迟缓。在欧洲刑警组织2016年的《互联网有组织犯罪威胁评估报告》中,有一个章节专门讨论了现有的各种网络犯罪行为,但几乎没有提到人工智能。
“很多人都在谈论利用机器学习和人工智能来打击有组织犯罪,但有人在谈论有组织犯罪会怎样使用相同的技术吗?”弗洛里迪问道,“如果你在操作系统中发现了某种漏洞,你能想象有人利用人工智能系统对这一漏洞进行攻击后,事情会演变成什么样吗?据我所知,只有汽车行业的人在谈论这件事。”
人们看到了算法在提升计算机安全性方面的潜力,但它同样有能力去破坏这种安全性。当自动化技术把这些算法安装到相同的系统上时,一旦黑客发动攻击,他们将不再需要逐一破解每辆汽车上的电脑。
不过,我们在私人领域看到了一些积极的发展态势。企业越来越把数据伦理视为一笔珍贵的资产,尤其是在它们从初创公司成长为大型企业之后。
技术可以改变伦理,比如避孕药的出现,它在公众掀起性革命之前,就引发了这样一场革命。如果要让数据充分发挥它所具有的变革性潜力,就必须建立一套伦理规范,同时还要搭建一个伦理框架来提供保障。新的制度能否落实到位,取决于政府和行业。