当AI有了“自由意志”

人工智能
AI算法的最初目标一定是体现了人类的某一目的,比如在对抗学习中拿到最高的分数、在图像识别中得到最高的识别率,在偏好推荐上要不断满足用户喜好,找到尽可能多的相似内容。人工智能不仅在某些方面表现不错,而且还有了赶超人类决策的计算能力。

在人工智能呈现一番欣欣向荣的景象之时,这项技术的问题和潜在威胁也正在显现。是时候认真探讨一下AI技术的“价值观”问题了。

很多人最近一定注意到,有关AI的负面新闻频频上头条,而且还带有很强的魔幻色彩。

11月20号,韩国13岁的天才围棋少女金恩持承认了她在9月底的一场在线围棋比赛中作弊,使用了AI推荐的棋谱,约等于断送了自己的职业生涯。11月27日,伊朗核武器专家法赫里扎遭到一挺由AI控制的自动机枪的袭击而身亡,这意味着精准的人脸识别技术作为AI武器已经参与到人间的杀戮当中。

说回国内,前一段时间有人带头盔去售楼处看房,就是为避免被房地产商进行精准的人脸识别而被,当做“熟客”来“宰杀”,人脸识别滥用问题已摆在我们面前。

更荒诞的是,最近曝出一个房产中介就利用政府机构的在线服务的流程流动,轻而易举地让售房者在不知情的状况下通过人脸识别系统把房子过户给了买家,自己套取了交易款。原本为民提供便利的AI服务成了别有用心者的帮凶。

“杀人者人也,非刀也”,这是我们为“工具无道德价值”做辩护的古老理由,也是人类确证自己具有独一无二的道德价值的傲娇说辞。

同样这一理由似乎也可以为上面这些AI的负面案例做解释,可以说这里的AI技术也都只是人类应用的工具,真正始作俑者的还是人类。

这样说似乎无可厚非,正如一切技术的发明带给人类巨大福祉的同时也可能带来可能的灾祸一样,反之亦然。比如诺贝尔发明的炸药可以开矿搬山也可以投入战场屠戮生灵,核技术可以用来制造原子弹毁天灭地也可以用来做核电站造福大众。理性乐观派总是相信人类可以通过技术进步创造一个美丽新世界,并克服技术产生的种种负面效应。

不过,我们需要注意的是,这一次人工智能技术革命的不同之处在于它将真正重塑人类。以往的任何一场技术革命只是增强了人类在体力、脑力等方面的专项能力,但这一次AI将直接抵达人的核心本质——那个所谓撑起人尊严和价值的“自由意志”。

大多数人会将这种宏大议题当作杞人忧天的无稽之谈,因为“狼来了”的故事人们已经听过多次。很多大人物对于人工智能威胁人类地位的告诫,也有种“口嫌体正直”的意味,无不在自己的领域内推动AI技术的进化和使用。

但是作为人类社会基石的“自由意志”本身已经从脑神经科学和社会学上被严重挑战,而人工智能在模拟和指导人类决策的能力又在大幅提升,这样我们就将接近这个人类命运改变的交汇点:人的自由被还原为一种可计算的生理机制,AI的计算能力又超过人类的计算能力。

这时,我们也就如同温水中的青蛙,只能黯然接受“被煮熟”的命运安排。幸而在AI技术正在日渐暴露出这些无伤大雅的问题之时,我们仍然要有一种对AI的警惕。

那就是AI拥有“自由意志”之时,可以做到价值中立吗?

技术的价值中立难成立,AI亦然

在关于“技术是否价值中立”的探讨中,现在的人们大多会倾向于“技术中立”的观点。

我们通常认为一项技术的道德价值在于使用它的人,比如决定一把刀是用来烹饪还是用来行凶的关键是手握这把刀的那个人的想法;而一项技术的价值大小也不在于它自身而在于使用它的人的用途。

比如在电影《上帝也疯狂》里,非洲原始部落的人们获得了一个完整的可乐玻璃瓶,这个在现代社会平平无奇的消费品,从一开始被当做无所不能的神物到后面变成引发族群纷争的魔鬼。这个可乐瓶的价值在土著人手里就经历了天壤之别的变化。

 

[[357523]]

这一假设的好处就是维护了人的尊严,选择什么样的技术用来做什么样的事情,都是我们自己的选择,最终的后果都要由我们来负责。

但实际上真的如此吗?

从最初的人类开始掌握生火和放火这一项最初级技术的时候,一个部落中的女性就能释放出超出她体力数以万倍的能量,因为一把火就能烧出一大片森林,他们就能收获这片土地里没有来得及逃跑的生灵的肉类,后面还可以开垦出一片又一片的农田。

想想今天的亚马逊雨林,在全球化的消费贸易网络中,被巴西农民几乎烧毁殆尽来该种粮食作物。火本身是无目的的,但是使用火的人是知晓火的特性和威力,也能控制火的范围和用途。人类之火,与天然之火的不同之处在于,火本身已经包含了人类的意志和目的。

可以想见,人类此后发明的任何一个工具或技术都或多或少包含着发明者本身的目的。一把锋利的石刀既带有了切割了功用,也带有了杀戮的能力,而一把枪发明出来,自然就有着更高效地杀戮的功效在里面,不管买它的人是用来防身还是用来害人,都是深知这一点的。

一项技术的发明总是有原因的,而原因背后一定是有目的方向性的,暗含了其主观价值。

随着人类的技术工具越来越复杂和高级,技术的目的性对于使用者的影响也就越大。而且我们已经越发习惯这些技术,就如同我们须臾离不开电池和网络一样,这些技术已经在潜移默化地改变着我们的选择和判断。

当我们以为自己的选择是自由选择的时候,其实大多数都是被工具所训练和改变了的。

最典型的现代技术莫过于各种互联网应用和游戏,以短视频最为典型。依托沉浸式展示、无限下滑换页和偏好推荐算法,短视频成为手机用户的“杀时间”神器,很多人不知不觉就会在其中花费数十分钟时间。如果稍加反省,我们就会发现这套推荐技术当中所包含的利用人性弱点和上瘾机制来获取用户时间的价值倾向。

虽然我们清楚这些公司和他们的聪明无比的工程师未必有操纵人心的恶意,而只是有取得商业成功的动机,就会不断地加入操纵人心的技术。而这一次,工程师们有了一个最好的助手,那就是人工智能。

AI算法的最初目标一定是体现了人类的某一目的,比如在对抗学习中拿到最高的分数、在图像识别中得到最高的识别率,在偏好推荐上要不断满足用户喜好,找到尽可能多的相似内容。人工智能不仅在某些方面表现不错,而且还有了赶超人类决策的计算能力。

从“不够好”的AI到“被用坏”的AI

AI威胁论,很多人已经讲了很多次,但我们这里并不是再重复这种大众所理解的“AI统治人类”、“AI取代人类工作”的观点。因为这种观点也仿佛再说AI会成为一个独立于人的新的物种存在,而如今来看,这样的AI不知要到猴年马月才实现,或者根本无法实现。

我们这里强调的是,不同于以往任何力学的、化学的、生物的技术,仅仅提高人类的局部性的能力,这一次AI技术这次要替代的是人的感知、判断和决策能力,是对人的理性行为的一种“复刻”。

AI技术的这种“非中立”特性难免会导致以下结果:

一、AI算法在数据训练中由于模型设计和数据样本不足等问题会难以避免地出现偏见。

比如,2018年的一则报道中,亚马逊的AI招聘系统被指出系统性地歧视女性,在发现简历中出现“女性”字样就会降低应聘者的分数,而且还被发现,标注某两所女子大学的简历也会在排序上被降级。而人工智能的这一权重决策正是来自于学习了亚马逊此前10年的简历数据。

显然,这十年中,大部分被录用的候选人都是男性,人类HR在招募技术岗位上的偏好也教会了人工智能采用同样的策略。

 

[[357524]]

而在更常见的人脸识别领域,则出现了明显的性别和种族歧视的算法偏见。根据美国NIST(国家标准及技术研究院)在2019年12月的一份报告,在美国人脸识别系统中,黑人的人脸识别错误率是白种人的100倍,与黄种人相比,黑人人脸的识别错误率也是前者的10倍,而在执法机关的人脸图片库中,识别错误率最高的是美国原住民。另外,女性和老人的脸部也更难以识别。

这一研究的数据来源是美国签证申请和过境数据库中的1800万张人脸照片,并测试了189种人脸识别算法,研究结果代表了绝大部分商业应用算法的结果。

今年上映的一部《编码偏见》的流媒体影片正揭露了这一问题,人工智能正在接管着关于人们的信息、安全、机会甚至自由等权力的时候,如果人们不改正这些算法中存在的偏见和歧视,那么AI技术会必然创造一个更加糟糕的世界,比如被错误识别并逮捕的少数族裔青年、被算法判断为能力不足的女性员工,被垃圾信息所包围的少年。

当然,这还只是AI技术不够好的一种表现。很多人觉得我们可以不断调整算法,增大数据样本就可以解决这些低级错误、算法歧视等问题。假如偏见可以消除、算法可以优化,我们又将迎来一个怎样的局面呢?

二、AI技术很可能会由于数据的规模聚集和技术竞赛的排他性中,掌握在少数技术公司和政府手中,帮助拥有技术特权的人群和组织获得难以撼动的权力和财富,从而巩固这一趋势。

我们不能说AI技术一定会助长极权和垄断,但是我们正在看到这样的苗头出现。

普通大众不仅通过在互联网上的各种操作交出了自己的习惯偏好和消费数据,而且现在还在通过可穿戴设备等信息来获取我们的生理指标数据。如果任何一个AI算法系统能够同时拥有这两种数据,并且对其建立起相对应的相关性,那么,这一系统将真正全面获得操纵人心的能力。

正由于我们人类的任何决策可以转化为各种生理、心理和行为的各种数据,而我们又想通过AI技术来洞悉这一切背后的因果链条,那么AI将有极大地可能完成人类的这一使命,如果往好处走,AI将代替人类的智力释放出前所未有的生产力,如果往坏处走,AI技术也将产生无法想象的破坏力。

比如,在核冬天的威慑之后,AI武器的发展将使得精准杀戮成为可能,虽然在一定意义上可以避免大规模的热武器冲突,但是每个国家都将在这种无孔不入的AI武器或杀手机器人的威胁下产生十足的敌意。

如果这些AI武器一旦被极端组织掌握,更有可能成为挑起事端的大杀器。再比如更有可能的一个趋势是,AI算法只是代表了少数特权阶层的意志,而大部分人沦为供AI进化的数据源。

尽管来说,AI直接统治人类既无可能,但AI被人类用坏,成为塑造人类不平等的帮凶是极有可能的。

现在,我们更重要的是,放弃对AI技术客观中立性的幻想,也要警惕AI算法对于我们决策的强大操纵力,同时又得致力于推动人工智能的普惠,才是接下来要做的事情。

对AI的自由意志保留拒绝的权利

我们这里只是指明了一个问题:人工智能是存在价值观的,其价值观的来源并非来自于突然的“自我觉醒”,而是从人这里继承了相应的价值观,“复刻”了人的所谓“自由意志”。

当AI算法不够强大的时候,其可能继承人类的认知错误和偏见,但当AI算法足够强大的时候,其也并不会变得“客观中立”,而是体现了人类工具理性推向极致的价值观,那就是更集中的权力、更多的财富、不断自我强化和升级。

这一价值观反作用到普通的人类个体身上,可能有两个结果,一种是与AI算法协同进化,在智识上甚至生理上不断升级自己,成为掌控AI的发展趋向的超级人类;一种是无法理解AI技术运行逻辑,也没有办法参与自主决策的大众,将自己的生活决策交给算法。

因为人的生物学的进化速度实在难以赶上AI计算能力的增长,人类的知识只能以线性循环的方式一代又一代传授,而AI则是以指数级方式累计增长,这就决定了大多数人只能交付出自己的决策机制,而由AI来判断我们的各种想法的成功概率。

而在今天,这一问题已以种很隐蔽的方式呈现着。正如很多人认为自己要听从自己内心的声音,但是我们却并不知道这些内心的需求哪些是我们的“自由意志”想要的,哪些是被各种价值体系所塑造的。而我们知道AI算法已经开始从每一个广告推荐、每一个内容筛选、每一次自拍美颜、每一次你的行为追踪下,就已经开始为你进行需求的植入了。

在人工智能狂飙突进的这几年当中,我们其实已经过分站在“AI将造福人类”的宏大叙事当中,毕竟我们对于这一新型技术产业寄予了太多的希望。但是我们看到现在针对个人隐私领域上马的AI应用,正在竭尽所能地掌握人们的全方位数据,但其实我们并未对这一趋势做好准备。

最近我们也注意到,由于一些行业和场景中人脸识别技术被大量滥用,一些地方的相关部门开始推出整治规范,要求拆除这些AI设备。未来,这场关于人工智能的应用边界博弈的拉锯战还将一直持续下去。

但未来的长期博弈中,我们哪怕牺牲一点便利性,也要在让度自己的选择权,交给人工智能来处理的时候,保持足够的冷静,同时对AI有拥有“Say No”的力量。

责任编辑:未丽燕 来源: 脑极体
相关推荐

2020-12-14 15:26:38

AIAI算法

2021-03-18 14:16:35

人工智能

2024-02-04 14:04:46

AIGC

2017-03-21 08:31:33

人工智能

2015-09-25 10:23:06

SDN

2020-06-29 11:24:39

华为云

2020-02-11 17:39:16

人工智能香水制造

2021-11-30 08:04:32

AIIT运维

2019-08-07 15:11:27

iPad电脑集线器

2023-06-29 17:56:00

AI计算机

2024-06-11 12:38:12

2023-06-27 16:53:50

2018-06-07 16:56:29

AI设计师艺术

2022-09-01 17:08:38

DebianLinux

2021-03-03 10:54:41

2023-03-07 10:08:06

2020-11-03 07:48:47

当AI入职FBI

2021-09-08 15:02:28

人工智能AIRFID

2018-03-17 17:33:13

云计算AI人工智能

2024-11-11 08:45:00

AI数字化
点赞
收藏

51CTO技术栈公众号