我们对于人类未来最持久的恐惧之一便是人工智能会有潜能逃脱我们的掌控并且灭绝我们。撇开天网与HAL9000不谈,这会是我们最终将面临的一个非常现实的风险。因为在几十年内,机器智能完全有可能超越我们自己的智慧。更重要的是,我们真的无法预测这样一台机器会如何思考与行动。
但我们确实知道我们是如何思考和行动的,很明显,生物智能对一个星球的影响是非常急剧的。除了微生物,地球上的大多数生物都受人类大脑的支配。如果我们想要地球上不再有大象,那么我们就可以迅速对它们完成灭绝。我们之所以允许它们存在是因为我们喜欢它们,但它们仍然濒临灭绝,是因为我们几千年来一直在猎杀它们,并且非法狩猎行为直到今天依然存在。同样地,如果一个人工智能变得比我们更聪明,那么我们也会被它的怪念头左右。
更重要的是,这样的一个人工智能能够自我提升,使自己比刚开始的时候更聪明。它可能会进入自我完善的循环,并以我们从未想过的方式结束。更糟的是,它可能会在我们发觉之前意外地浮现在未来某一台高度先进的电脑里,而当我们意识过来时,一切都太迟了。这被称为“涌现的超级智能”。所以,几十年后,我们可能会对人工智能有一些严重的担忧。
埃隆·马斯克(Elon Musk)、斯蒂芬·霍金(Stephen Hawking)和比尔·盖茨(Bill Gates)都为我们敲响了警钟。但它是否会导致我们的灭绝其实是一个更为模糊的问题,是因为我们从根本上假设它会把我们视为存在的威胁,毕竟,我们可以拔掉它的插销,这样就能消除像《终结者》电影里的天网杀掉人类那样的问题。但这不是唯一可能的结果。
在某些情况下,还有其他几种可能会让我们得以生存或是以另一种形式生存。一种方法是由超级计算机来决定,存在的意义就是让快乐最大化。这种快乐主义的机器可能为本身通电只为体验乐趣,并可能从重新为我们布线中感觉到这种唯一的乐趣,这种唯一的乐趣会以某种方式建立一个永远在微笑的乌托邦,虽然我认为一段时间过后这样的事情实际上可能会成为一个反乌托邦。
第二种可能并不是骇人听闻,反而与我们很密切。电脑也许会建立作为个体的认知,这是牛津大学的尼克博斯特罗姆提出的一个概念。在这种情况下,超级智能的A.I意识到因为它比我们更聪明,唯一合乎逻辑的事情便是接管我们的文明并为我们做出决定。它也许会通过精神控制技术、摄像头,各种奥威尔式的事等一切手段来强制执行来达到这种状态,这样的程度以致于它可以如此彻底地控制和欺骗我们我们,我们可能永远都不会知道它的存在。第三种可能性是它可能会得出结论发射自己进入太空是更容易的选择,自己出发,而不是为花费资源在消灭我们上而费心。这是一个浩瀚的宇宙,对于一个超级智能来说当然足够大去寻找一个生存的和平之地。或者,如果它足够聪明,它可能会创造一个属于自己的宇宙,然后完全地离开这个宇宙。
也许还会有一种机器自杀行为。人工智能也许会意识到在几分钟内就了解了这个宇宙后得出的结论是存在并没有意义,紧接着它便切断自己的电源。我会看到程序员会奇怪为什么他的超级电脑突然关机了并且再也打不开了。
但如果这一切还不够糟糕,还有另外两种与人工智能有关的可能性这可能会导致我们物种的灭绝,也会导致人工智能的灭绝。在宇宙中释放一个人工智能可能对其他物种造成潜在威胁或其他机械超级智能就潜藏在宇宙中。他们的反应可能只是在我们的人工智能给他们制造麻烦之前摧毁我们。
当然,这种情形的可能性极低,但是有可能的。另一个可能则让我想起了一个关于宇宙是否是计算机模拟的视频。如果我们去创造一个人工智能它会自己逃脱,并开始占用运行中的计算机上的过多我们的模拟资源,控制器的模拟可以简单的选择拔掉我们的插头。
如果他们不这样做,人工智能将最终接管整个宇宙,并可能毁灭一切宇宙所模拟的结果。