传统的人类中心的朴素伦理学信念已经受到人工智能迅猛发展的威胁性挑战,当哲学家、人类学家、伦理学家们尚在沉默时,一线科学家们已经做出一个权宜的回答:“阿西洛马人工智能原则”即“为了人和人类利益的人工智能”(Beneficial AI);人类不确定性的未来仍是挥之不去的阴影,从基督教“世界末日”的预言到“上帝死了”(尼采)到“人死了”(福柯)的西方非理性思潮再到今天“人类的终结”的猜测,似乎是越来越大的震动的脚步声,我们的文化和文明能够重生新的超越的伦理学吗?
2017年1月在美国加州Asilomar召开的“阿西洛马会议”(the 2017 Asilomar conference),包括844名人工智能和机器人领域的专家们基于对AI和Robot迅猛发展的深切关注,联合签署了称之为“阿西洛马人工智能原则”(Asilomar AI Principles),呼吁全世界的人工智能领域工作遵守这些原则,共同保障人类未来的利益和安全。
对AI和Robot的发展所产生的对人类自身的地位和价值的影响的担忧由来已久,稍前一些,2014年由 Skype联合创始人Jaan Tallinn、麻省理工学院教授Max Tegmark,物理学家史蒂芬•霍金、SpaceX 和 Tesla Motors 创始人Elon Musk、牛津大学Future of Humanity Institute主任Nick Bostrom、 MIT Center for Digital Business主任Erik Brynjolfsson、哈佛大学遗传学教授George Church、MIT物理学教授Alan Guth以及剑桥大学、UC Berkeley 等人工智能方面的专家、教授以志愿者的身份创立了“生命的未来研究所”(Future of Life Institute,FLI)。
2015年1月11日他们发表了一封公开信:Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter(公开信:为稳健性和利益性的人工智能而进行研究http://futureoflife.org/static/data/documents/research_priorities.pdf ),提出“我们的人工智能必须只做我们要它们做的”(our AI systems must do what we want them to do)即“有益的人工智能”(Beneficial AI)的口号,而对这样的问题的高度关注此前已经引起了业内外的广泛注意和严肃讨论并所行动,如:AAAI 2008-09 Presidential Panel on Long-Term AI Futures,Asilomar Meeting on Long-Term AI Futures,Partnership on Artificial Intelligence to Benefit People and Society等,而更早的时候,在实体机器人出现之前的上世纪四十年代,科幻小说家阿西莫夫(Isaac Asimov)著名的“机器人学三大法则”和以后的多种补充原则:
LawⅠ:A Robot may not injure a human being or, through inaction, allow a human being to come to harm. 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;
LawⅡ: A robot must obey 0rders given it by human beings except where such orders would conflict with the first law. 第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;
LawⅢ: A robot must protect its own existence as long as such protection does not conflict with the first or second law. 第三定律:机器人在不违反第一、第二定律情况下要尽可能保护自己的生存。
这三条法则实际是把机器对人的服从作为机器的设计和制造的原则,并没考虑具有“自主能力”、甚或有自我意识等高级人工智能的问题,现在那种“高度自主的人工智能系统”(Highly autonomous AI systems)或被称为“强人工智能”或“通用人工智能”(Artificial General Intelligence ,AGI)等似乎已在敲门了,人类如应何而对?
“阿西洛马人工智能原则”实际上是所有关注AI和Robot 的发展所产生的对人类难以估量的影响的长期观察和思考的一次集中性表达,在更深远的意义上,可以看作是科学家顶替缺位的哲学家、人类学家、伦理学家对人类自身的性质和地位和价值的一次严肃思考。
一、 Asilomar AI Principles 阿西洛马人工智能原则
Research Issues科研问题
1) Research Goal: The goal of AI research should be to create not undirected intelligence, but beneficial intelligence.
研究目的:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。
2) Research Funding: Investments in AI should be accompanied by funding for research on ensuring its beneficial use, including thorny questions in computer science, economics, law, ethics, and social studies, such as:
研究经费:投资人工智能应该有部份经费()用于研究如何确保有益地使用人工智能,包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:
- How can we make future AI systems highly robust, so that they do what we want without malfunctioning or getting hacked?
如何使未来的人工智能系统高度健全(“鲁棒性”),让系统按我们的要求运行,而不会发生故障或遭黑客入侵?
- How can we grow our prosperity through automation while maintaining people’s resources and purpose?
如何通过自动化提升我们的繁荣程度,同时维持人类的资源和意志?
- How can we update our legal systems to be more fair and efficient, to keep pace with AI, and to manage the risks associated with AI?
如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展速度,并且能够控制人工智能带来的风险?
- What set of values should AI be aligned with, and what legal and ethical status should it have?
人工智能应该归属于什么样的价值体系?它该具有何种法律和伦理地位?
3) Science-Policy Link: There should be constructive and healthy exchange between AI researchers and policy-makers.
科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性的、有益的交流。
4) Research Culture: A culture of cooperation, trust, and transparency should be fostered among researchers and developers of AI.
科研文化:在人工智能研究者和开发者中应该培养一种合作、信任与透明的人文文化。
5) Race Avoidance: Teams developing AI systems should actively cooperate to avoid corner-cutting on safety standards.
避免竞争:人工智能系统开发团队之间应该积极合作,以避免安全标准上的有机可乘。
Ethics and values伦理和价值
6) Safety: AI systems should be safe and secure throughout their operational lifetime, and verifiably so where applicable and feasible.
安全性:人工智能系统在它们整个运行过程中应该是安全和可靠的,而且其可应用性的和可行性应当接受验证。
7) Failure Transparency: If an AI system causes harm, it should be possible to ascertain why.
故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。
8) Judicial Transparency: Any involvement by an autonomous system in judicial decision-making should provide a satisfactory explanation auditable by a competent human authority.
司法透明性:任何自动系统参与的司法判决都应提供令人满意的司法解释以被相关领域的专家接受。
9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications.
责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。
10) Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.
价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。
11) Human Values: AI systems should be designed and operated so as to be compatible with ideals of human dignity, rights, freedoms, and cultural diversity.
人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。
12) Personal Privacy: People should have the right to access, manage and control the data they generate, given AI systems’ power to analyze and utilize that data.
个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据。
13) Liberty and Privacy: The application of AI to personal data must not unreasonably curtail people’s real or perceived liberty.
自由和隐私:人工智能在个人数据上的应用不能充许无理由地剥夺人们真实的或人们能感受到的自由。
14) Shared Benefit: AI technologies should benefit and empower as many people as possible.
分享利益:人工智能科技应该惠及和服务尽可能多的人。
15) Shared Prosperity: The economic prosperity created by AI should be shared broadly, to benefit all of humanity.
共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。
16) Human Control: Humans should choose how and whether to delegate decisions to AI systems, to accomplish human-chosen objectives.
人类控制:人类应该来选择如何和决定是否让人工智能系统去完成人类选择的目标。
17) Non-subversion: The power conferred by control of highly advanced AI systems should respect and improve, rather than subvert, the social and civic processes on which the health of society depends.
非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆。
18) AI Arms Race: An arms race in lethal autonomous weapons should be avoided.
人工智能军备竞赛:致命的自动化武器的装备竞赛应该被避免。
Longer-term Issues更长期的问题
19) Capability Caution: There being no consensus, we should avoid strong assumptions regarding upper limits on future AI capabilities.
能力警惕:我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识。
20) Importance: Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources.
重要性:高级人工智能能够代表地球生命历史的一个深刻变化,人类应该有相应的关切和资源来进行计划和管理。
21) Risks: Risks posed by AI systems, especially catastrophic or existential risks, must be subject to planning and mitigation efforts commensurate with their expected impact.
风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。
22) Recursive Self-Improvement: AI systems designed to recursively self-improve or self-replicate in a manner that could lead to rapidly increasing quality or quantity must be subject to strict safety and control measures.
递归的自我提升:被设计成可以迅速提升质量和数量的方式进行递归自我升级或自我复制人工智能系统,必须受制于严格的安全和控制标准。
23) Common Good: Superintelligence should only be developed in the service of widely shared ethical ideals, and for the benefit of all humanity rather than one state or organization.
公共利益:超级智能的开发是为了服务广泛认可的伦理观念,并且是为了全人类的利益而不是一个国家和组织的利益。
二、 人类的道德和伦理的尊严
老子的“道德经”和亚里士多德的“尼各马可伦理学”(Ethika Nikomachea)代表了人类对自身的存在状态和社会生存方式的深刻的思想,在这种朴素的人性意识中,人总是作为世界中的唯一的自我意识者的无意识者而被意识到的,虽然“人类中心主义”特别是狭隘的“强人类中心主义”遭到过广泛的讨论或批判,但“人是万物的尺度”(普罗泰戈拉)、“人为自然立法”(康德)这种基于人的价值和地位的统一的朴素观念始终是人和人类的尊严,但这种古老的信念今天已面临危机。
如果说实证科学研究世界“是什么”和“如何是”,那么,伦理学就研究社会“如何是”和人“应该如何是”,这两门学问一直是“科学”和“人文”两大分别领域(所谓的“两种文化”)中的最具代表性的学科,但从科学研究领域中产生和迅猛发展的计算机和人工智能、机器人所具有性质已经不可阻挡地成为了对人类的伦理学的核心理念的侵蚀,机器“具有”人的智能,或机器“具有”人的性质,似乎不是人的空想,如果说“人”的尊严和地位却被人类社会自身的发展所动摇,今天一点也不过份,正是这种伦理学的意义上,AI和Robot的伦理学问题成为了今天所有人关注的焦点。
伦理学的核心概念是人的社会行为,伦理行为是就实践的道德哲学,AI和Robot的伦理学关切实际上具有超越这种人类伦理本质的深刻层次:
(一)、人(研究、开发者)是如何将传统的人的道德和伦理信念贯彻在自己的所研究、制造、开发的AI和Robot中,使服从甚或具有人的伦理原则;
(二)、是人是否有这种超越能力做到这一点?
(三)、AI和Robot在支配它们的物理规律之上有没有或有何种伦理规范?更有甚者,比如,所谓的“科幻模式”的超人工智能(Artificial Super-intelligence ASI),可以问这种伦理问题吗?
在这些复杂、甚至是难以想象的情况下,我们还不得不进一步追问:有没有机器的道德(moral)不道德(immoral)或非道德(amoral)问题?这是人类的问题还是AI和Robot的问题或是“我们”共同的问题?按照这种方式设想下去,或许有一天机器可能会有模拟人的甚或他们自己的不同于人类自我性质,甚至有他们的思想家、哲学家,它们是类人的人类或者反过来说,我们只是人类类中的子类?
在我们没有超越自身作为这种“人类类”甚或是“类生命”的主体之前,我们无法也不能实质性地设想这些问题,现在最迫切的是,我们是否有赋予AI和Robot以道德心灵的能力?就象上帝造人时也无法使人具有免除罪恶的天性,我们能有这种似乎是超越上帝的能力的能力吗?
我们只能在我们已有的人类的伦理学的理念的基石上进行探索,在这个意义上,我们只有人类的伦理学,从这个观点上看,我们的所有关注、思考和行动都是人类的伦理学。从这样的意义上看,Beneficial AI不是机器的道德和伦理,而只是人在研究、发展AI和Robot中的伦理原则,人能否将人的伦理原则赋于机器是一个不确定的问题,今天我们能做的就是坚守我们人类的伦理底线,所以“阿西洛马人工智能原则”是人的道德呼唤,是人性的忧患意识,在这个意义上“阿西洛马人工智能原则”是人类尊严的体现。
三、 人机的伦理关系:为了人的AI(Beneficial AI)
“阿西洛马人工智能原则”中,人的伦理学精神和原则贯彻始终,我们可以将Beneficial AI解读为“为了人和人类的AI”,因此“阿西洛马人工智能原则”是世界剧烈变化中古老的人类伦理学精神的觉醒,是剧烈变化和世界中人为捍卫人的地位和尊严的一种努力,“阿西洛马人工智能原则”中主要体现在以下各条中:
第1项“研究目的”确定了人工智能研究的目的是创造服务于人、并为所控的AI和Robot这个原则,这个原则是人机之间的伦理保证,这个保证最先由研究和开发人员的伦理意识体现和遵守;所以第16项“人类控制”表达了一种深切的期望。
第2项“研究经费”中对人类资源、意志、价值体系的前提地位的保守和保护。
第10项“价值归属”、第11项“人类价值观”、进一步提高为机器对人的价值的归属是高级人工智能的设计原则;
第9项“责任”则将这种人机伦理关系作为责任明确地加在研究人员身上;第12项“个人隐私”和第13项“自由和隐私”体现了人的尊严;
第6项“安全性”是为研究工作设定的机器对人的保障的条件,第7项“故障透明性”、第8项“司法透明性”对人现有研究、开发的工作制度和法制方面的要求。
第14项“分享利益”、第15项“共同繁荣”第17项“非颠覆”、第18项“人工智能军备竞赛”是人类社会的伦理原则在人工智能研究领域中的体现。
上述的这些内容都是基于人和人性理解的人机伦理关系,“阿西洛马人工智能原则”最后一条23条“共公利益”甚至包括了“超级智能”(superintelligence),但这仍是在作为全人类整体利益的考虑,就是为了人类价值和利益的人工智能(beneficial AI),这种把维护人的伦理地位这个前提放在人工智能领域不同层次上多次予以申明,都是基于人的道德和人类尊严的朴素性,但机器或人工智能这个在人的发展中产生的不同于“自然”又不同于人类自身的东西究竟有何种本质、有何种伦理地位,仍是一个不确定的问题。
四、 不确定的未来
最困惑人的问题是:有没有高于人的智能的“人工智能”,所谓的“高级人工智能”、“通用人工智能”或“强人工智能” (Artificial General Intelligence ,AGI)就是这种意义所指。 “阿西洛马人工智能原则”第19项“能力警惕”中承认但却不能确定的困难,换一句话问:在人与人工智能的关系之中,存不存在这种基于我们基本信念的人机之间的伦理关系?一切似乎又回到最古老的哲学问题,人是什么?
迄今为止,人工智能的实体都建立在物理定律的基础上,物理实体不存在服不服从伦理学原则的问题,但建立在物理实体上的人工智能与建立在生命实体上的人的智能有何本质不同,这一直是人类知识理论中最困难的问题,人们总在等待回答,但今天,人工智能的伦理学问题已经迫使科学家做出回答了,尽管有了“阿西洛马人工智能原则”,但这仍只是一个权宜的解决,但,或许,我们永远只有这种权宜的解决。
迄今为止,哲学家和科学家都不能回答什么是人的“智能”的回题,也不理解智能与意识关系,当然也就不可能清晰地回答究竟什么是人工智能的问题。如果AI和Robot没有自己的独立意识,AI就永远只能是人的意义和价值的附庸,这也包括了人的恶德,所以我们可以看到,科幻电影中的人工智能对人类的犯罪也只不过是对人的罪孽的模仿,如果我们为未来的机器人世界有可能毁灭人类而忧心忡忡的话,不如去检讨为什么人类社会仍然会有这么多的自己造成的不幸。
如果高级人工智能具有不同于人类的“智能”,就意味着具有不同于人类的意义或价值存在,人类如何去“理解”?这使哲学家、人类学家伦理学家面对轰轰烈烈的人工智能大潮只能保持沉默的尴尬。
人类历史上最初的哲学家也是科学家,古代希腊人可以将科学、哲学、宗教、伦理问题混合在一起讨论,宗教具有伦理学的本质性,历史上社会现实中的伦理学问题主要是由宗教承担的,但宗教不是回答了人的伦理学问题,只是把人的终极的伦理学问题让渡给神,宗教以从世俗的人向神性的人格过渡为最终目的,因此宗最终还是不能取代以世俗世界为目的伦理学,人类知识的富积和征服改造的野心,已经挑战上帝的底线,威胁人自己存在的尊严.。
“上帝死了”(尼采),“人死了”(福柯),和今天的“人类终结”的猜测,现在已迫使科学家又一次扮演了伦理学家的角色,科学家不能将人机伦理关系交回给上帝,机器没有原罪,而人具有智能,过去人们可以说:除了上帝的“创造”,人可以“学习’,但现在不能说:“除了人的‘学习’,机器只能‘模仿’”,现在机器也可以“学习”了,“人”还有什么?“理性”自身还有什么?这样的问题已经成为了以确定性和客观性为傲的科学理性的对自己的无奈讽刺。
五、 中国思想的启示
笛卡儿说:“我思故(则)我在”,这实际上是基于近代以来的科学理性的怀疑、批判精神对世界和人自己的一种科学态度,即二元论之一的主观世界对包括自己在内的客观世界的一种主观态度而不是一种科学解释,而且这种主观的态度并也不等于“我思”与“我在”二者之间的因果、逻辑、规律等关系,即使有无数的物理、生理、心理等相关方面的研究成果,也无法解释自身的客观性是如何成为意识的主体性的,因此西方文化不能没有超验一元的上帝。
在这些之外,除了思想或意识本身,无法外在地去观察“思想”,我们只能直觉到或意识到“思想”,去思想“思想”。我们虽然没有类似的难于理解解的关于不可观察的的“量子态”的量子力学,但中国哲学或中国思想一直坚持,“思想”对主体的内在(内“心”)性反思超越性才是无元无级(无极)的“思想”的本质,只有这种在这个本质上,我们才能进入到理解人的“智能”的道路。
所以,即使有高级甚或越级的人工智能,也必须在“思想”这样的自行越超的“行为”中才有在时间中“存在”的意义,中国文化滋育的中国思想具本身就有这种内在的时间性的本质。
“中国思想一词指称中国文化本质中具有动力或创造性的核心,思想一词在这里就是指人的思想观念的动力或创造性,它是精神活动的实在过程”,“中国思想具有的自身的本体性意义,它不同于对一般的思想观念的研究,不是研究它所表达的内容的特点和性质,也不是指某种具体思想观念的产生和发展的演变,而是指思想自身作为动力性本质的本体性存在过程”
“中国思想是植根于历史与现实的,历史使命和现实的责任是儒家文化自觉的生命,正是在这个意义上,中国思想实现了自己的主体”;“中国思想的结果是归化万有的和谐统一,作为思想目标它只是一个虚幻图景。任何将这种目标的固化就是思想的死亡。一与无的学说正是对这种状况的写照,老子关于无的学说是思想的极致,合一即是最终的统一,也是统一的开始,作为最终的统一,所有的差别、个性、分裂和冲突将消失,但这不是终极死亡,道的终极统一不是此岸世界的末日,易是自性的重生,一即是易,因此一也是万化之源的浑沌,为天地母,无中生有,这就是一的超越之道。”
“中国思想的本质既不能自身形式化,也就得不到对现实世界的最终控制权,它是终极自由的,也是终极无奈的。”“这种命运正也是中国思想自身的困境,中国思想需要自己的肌体,但又不能在其中固化,正如易的形式,它只有在易中才是合的,在合中才是易的。”