大数据、人工智能与法律职业的未来

人工智能 深度学习 大数据
法律是人类最古老的学科,人类历史上第一部成文法典《汉穆拉比法典》出现在3800多年以前。

 我做过很多次关于人工智能与法律职业的未来的讲座。这两年关于人工智能基本上每隔两三天就会出一个非常大的新闻,比如AlphaGo Zero打败了AlphaGo,沙特阿拉伯第一次授予一个叫“索菲亚”的机器人以公民身份。2017年12月,深圳有两辆无人驾驶公交车正式上路试点。正是因为人工智能在2017年取得了非常多的突破性进展,所以法律界开始越来越多地关注人工智能与法律的关系问题。

[[349417]]

与其螳臂当车,不如放手拥抱

法律是人类最古老的学科,人类历史上第一部成文法典《汉穆拉比法典》出现在3800多年以前。而无论是以阿兰·图灵(Alan Turing)于1950年第一次提出“机器能否思考”这个问题作为起点,还是以1956年达特茅斯会议上数学家约翰·麦卡锡(John McCarthy)第一次提出“Artificial Intelligence(AI)”这个术语作为发端,人工智能都只有60多年的历史。且这60多年间经历了好几次大起大落,其取得突破性进展则是最近几年的事情。

人工智能的发展正改变人类社会的交往方式、组织结构和商业模式,并且对法律职业产生了直接冲击。早在“人工智能”这个词汇出现之前,将人类的工作自动化,即用机器替代人的劳动就已经成为无数科学家努力的方向。一开始是用机器取代人的体力劳动,现在是取代人的脑力劳动。诺伯特·维纳(Norbert Wiener)在20世纪40年代末出版《控制论》时,就已经有很多人在讨论这个问题了。

如果说当时的机器取代人类的脑力劳动还相去甚远,那如今利用互联网所产生的海量数据进行深度学习的机器却离这个目标越来越近了。我们谈人工智能的时候显然有两个关键词:一是“人工”,二是“智能”。

但是,人工智能用机械和电子的方式来模拟人类智能,它在取得突破性进展之后是可以复制的。一个人工智能产品可以批量生产的这种可复制性就导致了它对人类的职业、人类劳动产生非常大的冲击。

法律和医学一直以来都是人类社会各种职业当中的塔尖职业,因为这两种职业的技能都需要经过长时间的学习和训练才能够掌握,都有很高的准入门槛,从业者都受到严格的法律和伦理规范的约束。但是,人工智能目前正猛烈地冲击这两个职业,大数据精准医疗和法律人工智能产品正在改变着这两种职业的未来前景。

同样地,学习法律的人也是在学习一套相对封闭的概念和原理。起源于古罗马时代和亨利二世时代的英国的法律概念,直到今天,我们法律人每天都还在学习和应用。如果我们单纯地用法教义学的方法来学习法律,就很难应对周围正在发生的天翻地覆的变化。而作为社会秩序的维护者,法律人适应这种变迁的意愿和能力往往都比较弱。专门评论互联网和人工智能问题的一位非常著名的公共知识分子和媒体人克莱·舍基(Clay Shirky)说过:“制度和机构是为解决具体的社会问题而设立的,而它们总是试图不让这些问题得到彻底解决,从而维护自己存在的合理性。”他是在批判法律人的保守性,因为法律人试图用固有的一套框架、机构和程序来规范整个社会,包括规范突飞猛进的科技。在他看来,这种保守性可能会在整个社会发生急剧变迁的时代带来很多问题。作为制度化和机构化的动物,法律人每每试图关上自己所不熟悉的大门,努力用自己所熟悉的概念和思维框架来限定技术革新正在带来的各种新的可能性。但这种努力与其说可以力挽狂澜,不如说更像是螳臂当车。更加可行的态度是向新技术敞开心扉,积极投入它所带来的各种新的职业场景,在参与过程中去理解它,充分利用它所创造出来的新机会,同时留意它所带来的各种新风险。正如驯服一匹马的最好方法是骑上它,而不是挡在它前面一样,驯服人工智能的最好方法也是在驾驭中控制它。

现在很多讨论都是非常悲观地预测人工智能将会如何取代人的劳动,使人失去工作,但在我看来其实人工智能会开放出很多新的就业机会。人工智能会取代很多就业岗位,但只要我们能够不断地更新自己的知识结构,它会开放出更多的就业机会。

实际上,一些有远见的法律人早已行动起来。比如被大成合并的美国德同(Dentons)早在2016年就创建了自己的人工智能实验室Nextlaw Labs。它与IBM公司的认知技术平台“沃森”(Watson)合作,一起开发了法律人工智能产品——ROSS。这是目前市场上比较成熟的法律人工智能产品之一,已经在数十家国际律所和中国的几家红圈所测试使用。

此外,包括戴维律所在内的许多大型律所都已经设置了一种新的职位叫首席知识官,或者叫首席技术官。其主要工作是投资、购买和使用法律知识产品。购买、应用这种产品就意味着律所会解雇一批从事案头工作的律师。这在美国已经成为一个非常明显的事实。首席知识官会带领一个团队专门从事本所的数据库建设和人工智能产品的投资开发与调配。这表明一种新的法律职业——法律知识工程师正在兴起。我国目前也有明显迹象。近几年的司法改革,在客观上导致了大量法官和检察官投身大数据和人工智能行业。例如,华宇元典、上海的贝格数据、阿里的法务部门和安全部门都吸收了大量辞职的法官和检察官。这个迹象同时也表明法律人工智能产品正在大量地替代律师。很多的律所都会花巨资去购买法律人工智能产品,而不是招聘新的律师。这对同学们来说是一个坏消息,但也是一个好消息。因为以前大家的选择面都很小,要么去公、检、法,要么去做律师,但以后法科毕业生完全可以进入其他行业如大数据公司,而且不只是进入法务部,甚至可以进入生产部门和程序员一起设计更加符合法律规则的人工智能产品。在我看来,法律知识工程师就是一种全新的职业,它不是一个概念,它已经变成了一个现实。

 

人工智能在法律职业中的应用现状

下面举三个美国的例子来说明人工智能在法律职业中的现有应用现状。

第一个是电子取证。这里的“取证”不是狭义的诉讼过程中的取证,而是包括诉讼和交易环节的对事实素材的整理和相关性分析,是广义的取证。现在大量的交易是在网上完成的,有大量的交易记录,像这样的东西都属于电子取证,都是人工智能产品需要去分析的对象。非诉业务当中也要保存大量的事实,以帮助完成报税、合规审查、上市准备、商业谈判、交易等工作。这种工作在美国已经有非常成熟的产品,有一家叫Brainspace的公司所开发的产品Discovery就可以帮助当事人完成对事实素材的整理。以前一个大企业想完成一年的报税往往需要很大的团队,花一两个月的时间才能够完成相关数据的整理,但是如果利用Discovery这样的人工智能产品就可以在一两天的时间内把所有的数据整理出来。最新一代的产品Discovery 54还增加了中文、日文和韩文等多种东方语言的阅读功能,从而大大提高了跨国法律业务当中的取证能力。随着自然语言处理(Natural Language Processing,NLP)技术的发展,这个领域的产品可以覆盖的语言种类也会越来越多。

第二个是诉讼管理。美国Casetext公司专门开发的案件分析研究助理(Case Analysis Research Assistant,CARA),可以帮助律师和企业法律顾问完成从案例法规分析到陪审员的选择直到法庭辩论文书生成等一系列任务。其最终出来的产品就是一份正式的法律文书,律师或者公司法人代表拿到这样的文书,就可以直接出庭应诉或者完成一项交易。这样的产品不仅在美国越来越多,在中国也会越来越多。

此外,更加著名的就是前文提到的基于IBM Watson平台开发的人工智能产品——ROSS。它的主要功能就是进行法律研究(legal research)。法律研究不是指学术研究,而是指所有的法律职业人士都必须做的法条、司法解释、判例的搜索和研读工作。无论从事的是诉讼业务还是非讼业务,都需要花费大量的时间来研究法条和判例,从而形成相应的“诉讼策略”或“交易策略”。法律研究是传统律师业务中最耗费工时的工作。据说,ROSS系统可以替代目前美国律师70%的法律研究工作,而且准确率高达90%以上,远远高于顶尖法学院毕业生从事同类工作的准确率。

当然,目前主要由律所合伙人从事的人际沟通工作和法官的判断工作还无法被机器所取代。但这里的“无法”不是指技术上不可能,而是指我们人类还不能够放心让机器去代替我们作判断。如果我们放心,实际上机器人可能比人类法官更加准确、更加公正,因为它不带有人类的感情。亚里士多德说过一句名言:“法律是摒除了激情的理性!”但是,任何人类的决策者都不可能完全摒除情感,机器显然比人类更能够做到不带情感地去作判断。所以如果放心让机器人去当法官,它是可以胜任的,在技术上也是可以实现的。此外,还有一个责任问题,即如果机器人作了判断,那到底谁来承担责任?像这样的问题都使我们还“无法”把这个判断工作交给机器人。

ROSS系统不仅可以作法律研究,还可以把研究结果生成简报或者备忘录,或者律师所使用的其他文件。如果把它用到法院,直接生成判决书也没有问题。

这方面走在前面的是贵州省高级人民法院(以下简称贵州省高院)。贵州省高院使用上海贝格数据有限公司所开发的人工智能产品,可以做到直接生成判决书。在判决书当中需要人类去把关的部分,它会特别标注出来,法官只要对标注出来的这些部分再修改就可以了。这说明现在的人工智能系统甚至可以直接形成一个最终的判决书,这正是很多的法律人特别是目前法学生所担心的问题。显然,人工智能可能会取代很多法律人的工作。美国法学院毕业生通过律师执业资格考试后,一般都会从初级律师开始做起。经过7~10年才可能升为合伙人。这个阶段的主要工作就是法律研究,也就是所谓的案头工作。以前这种工作需要大量的律师花费大量的时间去完成,而随着越来越多的美国律所购入人工智能产品,他们对从事案头工作和法律研究工作的律师的需求会越来越小。根据美国律师协会的数据,从2005年到2015年,申请法学院的人数在美国减少了40%,而且这个趋势还在持续。同时大家也可以想象,以后将会有越来越多的企业选择购买这样的产品,而不是聘请律师来为自己提供法律服务,这将极大地改变法律服务行业的图景。这种冲击一个是内部的,另一个是外部的。内部是律所本身会去购买人工智能产品,外部是潜在的客户也会去购买人工智能产品。这种内外夹击就会使目前大家所熟悉的律师工作的空间越来越狭小。

第三个是合同起草和合同审核。起草和审核合同是企业法律顾问面对的主要工作之一,现代商务世界的复杂使这项工作十分耗费时间和精力。美国LawGeex公司专门开发了有深度学习能力的人工智能产品。它通过对海量真实合同的学习掌握了生成高度精细复杂并结合具体情境的合同的能力。它起草的合同不仅远超照搬合同范本的结果,甚至好于很多有经验的公司法律顾问的作品。

 

未来已来

在互联网早期,人们普遍认为互联网会极大地拓展人的自由,认为互联网是不能被规制的,因为在互联网上发声的都是匿名的。当时有一句话说:当你在网络上说话的时候,没人知道你是一只狗还是一个人。

在未来,所有人只要下载一个App就可以控制自己家里的所有电器,从冰箱、洗衣机到整个照明系统。但是,这就意味着可能你自己都不了解自己家里面正在发生什么,而其他人可以了解,因为你家里的所有电器时刻都在向网络传送着各类信息。我参加过中德高端论坛,参会者很多是来自德国各部部长。他们的议题本来是全球化与反全球化,与人工智能没有关系,但是几乎所有的德国人都在讨论人工智能问题。他们提出了很多概念,比如,全世界冰箱联合起来,那么超市就会知道你家里面缺什么。它不仅知道你缺什么,也知道你在不在家,使用冰箱的频率是多少,然后可能在将来的某一天不用你去下单,超市就会直接把你需要的东西送到家门口,而你不会拒绝,因为你发现这正是你所需要的。

在这样的背景下,法律职业其实是很不幸的。在我看来,它是一个最容易被人工智能取代的行业,因为人工智能与法律思维有着很强的表面相似性。世界上的两大法系,分别强调演绎和归纳的重要性,而这与人工智能领域的两大流派(符号主义的编程法和神经网络)分别对应。神经网络可以学习海量的人类经验实现归纳,而早在神经网络出现之前,符号主义的编程法已经可以模拟人的演绎推理。

今天,人工智能已经可以从人脑无从把握的海量数据中自行搜索并进行深度学习,可以说它在经验归纳方面也具有超越人脑的能力。因此,无论强调法律是逻辑还是经验,计算机都可以替代人类,法律职业在技术上是最容易被替代的。但同时它也可能是最难被替代的,因为所有的国家决策者基本上都是法律人,法律人不会让自己被替代,我们会设计出各种各样的规则来阻止人工智能技术替代法律。

 

互联网大数据和人工智能

何谓大数据?所谓大数据不是指量大,它指的是海量存储分析和处理技术。它包括三个层次的含义。一是物理层次,涉及数据量的产生速度和多样性,也就是所谓的三维。二是分析技术层次,大数据分析技术能够很快完成所谓的数据融合,在很短的时间内赋予非结构化的数据以一定的结构,从而能够为决策和行动提供非常明确的参照。三是社会层次,大数据之大在于它改变了现有的生活方式、消费习惯、城市管理、交通管理、医疗卫生、教育科研和国家治理等社会方方面面。

主要问题就是可能激化社会矛盾。人工智能时代的到来,会使两极分化越来越严重。人工智能时代的技术发展太快了,法律是远远滞后于科技和它所带来的相关商业模式的变化的。

这将导致这样几个问题:

第一,它使个人的隐私和自由变得非常脆弱。

第二,它使传统制造业和其他与互联网没有直接关联的行业处于很明显的劣势。这是因为人工智能是一种覆盖人类生活全部领域的技术。最早进入互联网领域的企业因其行业特性自然而然成了大数据掌控者,人工智能对大数据的依赖又使他们自然而然成了人工智能领域的先驱。

比如Google和百度,传统上都认为它们只是搜索引擎公司,但是我们惊讶地看到,Google和百度通过自己所积累起来的大数据开始进军所有的行业,包括貌似离人工智能和大数据非常之遥远的农业。现在Google、百度、阿里巴巴都在搞农业,通过在农作物上安装生物传感器,来获得比实验室作业更加直接和可靠的植物生长数据,从而获得农业科技方面的突破。这并不是一种假设,而是Google和阿里巴巴等公司正在做的事情。

像这样的例子就说明,人工智能之所以值得我们去思考和担忧,恰恰在于它在颠覆着所有的传统行业,它不是单一领域的事情。这个时候政府应该做什么,就是一个非常值得深思的问题。

第三,由于这些企业已经掌握了比政府更多的关于公民(作为消费者)的信息,它们热衷于建设智慧城市、智慧政府、智慧法院等,政府部门可能也不得不求助于它们。像前文提到的,现在的智慧法院建设所用的都是私人企业开发的人工智能产品。这其实就模糊了公权力与私权利之间的边界,使政府应该监管的对象成为政府的合作伙伴,乃至实际控制人。这对各个法律部门,从宪法、行政法到民法都提出了非常全新的问题。

第四,这些掌握人工智能应用技术的企业可以用人工智能来分析任何数据,包括消费者行为数据、政府决策数据、立法数据和法院判决数据并生成对策。这些对策有些要求线下的人际沟通,而有些则完全可以通过线上操控来完成。比如,Google和百度的搜索结果排序,京东、亚马逊、淘宝有针对性的商品推荐等。这些排序其实是受算法决定的。而Google的排序影响美国总统大选也是不争的事实。也就是说,很多操控完全可以通过算法、通过线上的方式来完成。这个时候法律如何介入、何时介入就会成为一个问题,法律以后应该更多地考虑如何规制没有明显人为介入的因素。虽然其实背后都是人,但我们对这种线上操纵背后的人为因素还重视不足。

由此导致的结果便是人们都“自愿服从”于某种他们看不见的力量,而这种力量借助人工智能的超强脑力使法律和监管完全找不到对象,乃至被牵着鼻子走。用脸书创办人扎克伯格(Mark Elliot Zuckerberg)的话来说,我们正在进入算法而不是法律统治人的时代。而算法从表面上来看就缺乏法律的无偏私性和一般性,它毫不掩饰地服务于设计者植入其中的目的。现在世界各国的法学家都在讨论算法问题,因为现在算法是一个黑箱,我们要规制它就不能让它永远保持为一个黑箱,所以以后这个规制要进入算法设计层面。

第五,一旦人工智能被应用于本来就充满流动性、风险与不确定性的金融市场,便可能带来既无创新价值又危害巨大的灾难性后果。2010年5月6日,美国股市发生了闪电崩盘,1万亿美元的资产价值瞬间蒸发,股价跌了9个百分点,道琼斯工业指数激落1000点。因为没有看到明显的人为的因素,没有内幕交易,也没有市场操控,美国证券交易委员会花了半年时间才搞清楚发生了什么。原来是不同炒家的计算机程序在相互竞争的过程当中导致了失控。在这个被称为高频交易的神秘世界里,这些系统可以用迅雷不及掩耳的速度来收割小型获利机会,还可以相互探测和利用彼此的交易策略。当它们彼此进行策略性交易的时候,就导致了这个系统的崩溃。

像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策无法阻止人们在巨大利益的引诱下利用人工智能进行损害范围无法控制的赌博式行为。

 

法律规制机器人的现有做法

世界各国规制人工智能的立法,目前有这样几种模式:

第一个就是赋予人工智能法律人格,这个主要是欧洲联盟(以下简称欧盟)。

这个很有趣,也就是说欧盟建议在自然人和法人之外增加第三种法律主体叫作电子人。但是,在我看来,这个是没有必要的。因为它只在这个部分提到了“电子人”的概念,而在后面所有的部分特别是在讲法律责任问题的时候,就再也没有提到过电子人。比如,电子人造成了损害。首先,它没有自己的财产,至少到目前为止机器人不可能有自己独立的财产。它如果能够赚钱,它赚的钱也都归它的所有者所有,所以不能对电子人给予经济上的处罚。其次,你也不能把它投入监狱,你把它关起来其实就是剥夺了它的所有者的财产权。所以电子人这个概念是没有任何意义的,最终承担法律责任的还是自然人或者法人。

“电子人”这个概念是很符合法学家的思维方式的,既然出现了人工智能体,那么就创设一种新的法律人格。但是,我们可以看到最终落实法律责任的时候,还是需要自然人或法人来承担责任。所以这并不是一个很成功的立法模式,虽然欧盟的政客和法学家们都非常推崇这种模式。

第二个立法的实例就是德国的自动驾驶汽车立法。2017年5月,德国联邦议会和参议院通过了一部法案,对德国《道路交通法》进行了修改,它允许高度自动化和完全自动化的汽车作为交通工具上路。但是,为了符合1968年《维也纳道路交通公约》第8条,法案要求每一部车辆在行驶时都必须有驾驶员到位。自动驾驶汽车的自动化程度分为0到5级,到了4级和5级的时候,基本上可以做到完全的无人驾驶。而只有做到无人驾驶,它才有真正的意义。但这部法律规定,当自动驾驶汽车系统启动之后,司机可以转移注意力去读书或者上网,但必须保持足够的警觉,以便在系统发出请求时恢复人工控制。它还要求高度或完全自动化汽车安装记录驾驶过程的黑匣子,在没有卷入交通事故的情况下,黑匣子信息必须保存半年。如果自动驾驶模式正在运行过程当中发生了事故,责任在于汽车制造商,但如果自动驾驶系统已经发出了请求人工控制的信号,责任便转移到了汽车上的驾驶员身上。

在这部法律通过之前,就有很多学者和行业人士对它提出了批评。比如,这部法律使德国的自动驾驶汽车无法实现真正的无人驾驶。因为现在投入生产的很多自动驾驶汽车,它其实根本就没有方向盘,但这部法律通过之后,这些没有设计方向盘的自动驾驶汽车就进入不了市场。而且在这部新法之下,司机不知道如何才能避免法律责任,它阻碍了自动驾驶汽车的商业化发展。因为它要求司机必须保持足够的警觉,在自动驾驶系统请求人工控制时介入以应付紧急状态,这其实给驾驶员提出了更高的要求,使他即使在干别的事情的时候仍然不能放松自己的警觉。

这部新法还把自动驾驶汽车造成人身伤亡的最高赔偿额度提高到了1000万欧元,将近1亿人民币,比原来的最高赔偿额度增加了1倍。虽然这笔赔偿在多数情况下由保险公司支付,但保险公司无疑会提高保费,这也增加了自动驾驶汽车车主的负担。诸多因素就使自动驾驶汽车在德国只能沦为有钱人的玩具,普通人不会把它当成一种代步工具。

与德国立法模式相对照,2017年9月,美国众议院通过了美国《自动驾驶法案》,采取了一种完全不同的思路。这是第三种思路。它没有改变现有的道路交通规则和事故责任相关的侵权法规则,而是用宪法和行政法的思维方式划分了联邦与各州之间在规制自动驾驶汽车方面的责任,明确了交通部在确立自动驾驶汽车硬件安全标准、网络安全标准、公众知情标准等方面的具体义务和履行时间表。

其中第12条强化了隐私权保护,要求制造商和经销商只有在提出了满足一系列具体要求的“隐私权保障计划”的前提下,才可以供应、销售或进出口自动驾驶汽车。这部法律要求交通部来控制自动驾驶汽车的相关技术标准,但是它并非自己提出标准,相关标准的提出者是业界。谁想去生产和销售自动驾驶汽车,谁就有义务制定从隐私权保障到网络安全的一整套标准,交通部只是作为最后的把关者。这样其实把决策权交给了业界,也是对政府和资本极高的行业要求。因为不懂技术的立法者制定一部全新领域的法律,很可能会犯一些低级的错误,完全遏制这个产业的发展。

与上述约束自动驾驶汽车制造者和使用者的规范不同,德国交通部长任命的伦理委员会提出的一个报告又展现出了另一种思路,可以说这是第四种思路。这种思路要求算法也就是软件的编写者遵守一系列的伦理法则,其中提出了20条很具体的伦理指导意见,可以说是抓住了问题的重点,因为他看到算法才是人工智能系统的灵魂。比如第7条要求,在被证明尽管采取了各种可能的预防措施仍然不可避免危险的情况下,保护人的生命在各种受法律保护的权益中享有最高的优先性。因此,在技术上可行的范围内系统必须被编程为在权益冲突时可以接受对动物和财产的损害。同时第8条规定,诸如伤害一个人以避免对其他更多人的伤害这样的伦理难题不能通过事先编好的程序来处理,系统必须被设定为出现这种情况的时候请求人工处理。所以,这个方案是直接把规制的层面落实到了算法上面,它要求编写者把相关的伦理规则写进算法。

 

总结

为了更好地应对人工智能带来的新风险,在保护创新的同时确保人类生活的品质,法律发展可能应该包括以下这样几个向度。

首先,现有的法律模式没有摆脱传统的具象化乃至拟人化的思维方式,仅仅将有形的智能化机器或机器人纳入规制范围。但是这些有形的机器人只是人工智能的一种表现形态。其实它们都受一种无形的、弥散化的智能的控制。这种被称为合成智能的由算法、网络和大数据组成的无形无界的存在才是人工智能的智能所在。

其次,为了做到这一点,政府应当在发展人工智能方面加大投入,吸收更多的人工智能人才参与立法、行政和司法工作,避免使自己远远落后于商业力量。因为现在商业力量在人工智能发展方面已经远远地超过了政府,而政府不得不大量地借助商业机构开发的软件,政府在这时就很可能会被商业机构所操纵。一方面,我们要让越来越多的法律人进入商业机构去介入它的算法设计。另一方面,政府本身也应该越来越多地吸收人工智能人才,包括公、检、法都应该配备自己专门的技术人员,而不仅仅是去购买企业所开发的人工智能产品。这在我国相对来说比较容易做到,因为顶尖的大学和科研机构都是国家资助和管理的。而如果这些人才中大多数都转而为商业机构服务,不仅无法体现社会主义的优越性,也不利于让人工智能向服务于社会公共利益的方向发展。

再次,从现有的各国立法模式来看,欧盟和德国直接修改民事规则和交通法规的做法是在事实不清、需要解决的问题不明朗的情况下作出的仓促选择,既不利于鼓励创新,也不利于保障公民的权利。在目前这个阶段比较稳妥的方案是指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准。但是,这个标准本身不应当是自上而下强加给行业,而应该是由行业自己来提出。政府只是作为一个把关者,在最后通过的时候需要邀请行业专家学者还有业界人士共同来参与评估企业自己所提出的这些标准是不是符合公共利益,这也是非常重要的一个方面。

最后,德国的自动驾驶汽车程序设计伦理规范是一个可取的思路。由于人工智能的核心在于算法,算法的设计决定着智能化机器的行为。而对于普通人和大多数立法者、执法者和司法人员来说,算法都是一个黑箱,人们只能看到它所导致的结果,却无法看到它的运行过程。制定相关规则来约束算法设计者的行为,在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理,并且追究其相关责任,这显然是一种治本之法。因为算法只要是人设计的,它就符合一定的人类目的,就都是用自然语言可以说清楚的。并不见得法律人都必须去学习编程,但是你必须懂得人工智能的技术原理以及它哪些方面可能出错,将来我们就可以要求程序员用自然语言来说明它编程的原理。也就是说,本来是可以防范、防止某种危害的,你没有在算法当中写入防止这种危害的程序,那么就要承担相关的责任。不愿意解释或认为解释不清楚,都只是一种推托之词。

鉴于人工智能对人类社会的影响越来越大,我建议应像普及法律知识一样普及人工智能知识。但是,在人工智能知识像普法一样被普及开来之前,一个过渡性的做法是设立由相关领域专家和法律职业人士共同组成的伦理委员会或者“人工智能法院”,按照风险防范而不是纠纷解决的思路来处理相关规则的设计和落实问题。也就是说现在仓促地立法可能还为时过早,但是相关的讨论、正式的公共政策讨论应该纳入议事日程。

责任编辑:华轩 来源: 今日头条
相关推荐

2018-06-07 15:22:58

人工智能大数据比较

2020-03-25 09:51:55

人工智能技术机器

2018-06-06 14:21:36

人工智能大数据数据处理

2022-09-21 11:41:27

人工智能AI

2024-01-08 07:46:20

人工智能敏感信息数据收集

2023-08-24 10:05:30

人工智能开发测试

2018-04-12 16:58:15

大数据人工智能云计算

2017-07-13 10:35:35

人工智能大数据开发

2022-10-13 14:48:53

人工智能proptech智能家居

2023-03-20 16:08:27

2018-06-14 16:01:10

2018-04-15 10:00:29

大数据 AI 云计算

2018-03-29 11:11:32

人工智能大数据开发

2023-08-20 12:23:39

人工智能大数据

2018-12-17 13:06:25

数据人工智能分析

2013-04-03 10:28:47

2013-04-07 09:32:55

2020-10-29 10:27:29

人工智能技术数据

2020-09-30 19:50:03

人工智能

2017-05-27 14:55:41

人工智能软件架构
点赞
收藏

51CTO技术栈公众号