为了获得对人工智能的真正理解,研究人员应该把注意力转移到开发一种基本的、潜在的AGI技术上,这种技术可以复制人类对环境的理解。
谷歌、微软和 Facebook 等行业巨头,Elon Musk 的 OpenAI 等研究实验室,甚至 SingularityNET 等平台都在押注通用人工智能(AGI)——智能代理理解或学习人类无法完成的任何智力任务的能力,这代表了人工智能技术的未来。
然而,有点令人惊讶的是,这些公司都没有专注于开发一种基本的、底层的 AGI 技术来复制人类的上下文理解。这可能解释了为什么这些公司正在进行的研究完全依赖于具有不同程度特异性并依赖于当今人工智能算法的智能模型。
不幸的是,这种依赖意味着,人工智能充其量只能表现出智能。无论他们的能力多么令人印象深刻,他们仍然遵循包含许多变量的预定脚本。因此,即使是GPT3或 Watson 等大型、高度复杂的程序也只能表现出理解能力。实际上,他们不理解文字和图像代表了物理宇宙中存在并相互作用的物理事物。时间的概念或原因产生影响的想法对他们来说是完全陌生的。
这并不是要剥夺今天人工智能的能力。例如,谷歌能够以令人难以置信的速度搜索大量信息,以提供用户想要的结果(至少大多数时候是这样)。Siri等个人助理可以预订餐厅、查找和阅读电子邮件,并实时给出指示。这个列表还在不断扩展和改进中。
但无论这些程序多么复杂,它们仍在寻找输入并做出完全依赖于其核心数据集的特定输出响应。如果不相信,请向客户服务机器人询问一个“计划外”的问题,该机器人可能会生成一个毫无意义的响应或根本没有响应。
总之,谷歌、Siri或任何其他目前的AI例子都缺乏真正的、常识性的理解,这最终将阻止它们向人工通用智能(Artificial General Intelligence)发展。原因可以追溯到过去50年大多数人工智能发展的主要假设,即如果困难的问题能够解决,简单的智能问题就会得到解决。这一假设可以用莫拉维克悖论(Moravec’s Paradox)来形容,它认为,让计算机在智力测试中表现出成人水平的表现相对容易,但在感知和行动能力方面,让它们具备一岁婴儿的技能却很难。
人工智能研究人员的假设也是错误的,他们认为,如果构建了足够多的狭义人工智能应用,它们最终将共同成长为通用智能。与儿童可以毫不费力地整合视觉、语言和其他感官的方式不同,狭义的AI应用无法以一种通用的方式存储信息,从而允许信息被共享并随后被其他AI应用使用。
最后,研究人员错误地认为,如果可以建立一个足够大的机器学习系统和足够的计算机能力,它就会自发地表现出通用智能。这也被证明是错误的。正如试图获取特定领域知识的专家系统无法创建足够的案例和示例数据来克服潜在的缺乏理解一样,人工智能系统也无法处理“非计划内的”请求,无论其规模有多大。
通用人工智能基础知识
为了获得真正的人工智能理解,研究人员应该将注意力转移到开发一种基本的、潜在的 AGI 技术,以复制人类对上下文的理解。例如,考虑一个 3 岁儿童玩积木时表现出的情境意识和情境理解。3 岁的孩子明白积木存在于三维世界中,具有重量、形状和颜色等物理特性,如果堆叠得太高会掉下来。孩子还理解因果关系和时间流逝的概念,因为积木在首先被堆叠之前不能被击倒。
3 岁也可以变成 4 岁,然后是 5 岁,最后是 10 岁,以此类推。简而言之,3 岁儿童的能力与生俱来,包括成长为功能齐全、普遍聪明的成年人的能力。对于今天的人工智能来说,这样的增长是不可能的。不管它多么复杂,今天的人工智能仍然完全不知道它在其环境中的存在。它不知道现在采取的行动会影响未来的行动。
虽然认为一个从未经历过自身训练数据之外的任何事情的人工智能系统能够理解现实世界的概念是不现实的,但为人工智能添加移动感觉舱可以让人工实体从现实环境中学习,并展示出对现实中物理对象、因果关系和时间流逝的基本理解。就像那个3岁的孩子一样,这个配备了感觉舱的人工实体能够直接学习如何堆叠积木、移动物体、随着时间的推移执行一系列的行动,并从这些行动的后果中学习。
通过视觉、听觉、触觉、操纵器等,人工实体可以学习以纯文本或纯图像系统根本不可能的方式进行理解。如前所述,无论它们的数据集有多大和多变,这样的系统根本无法理解和学习。一旦实体获得了这种理解和学习的能力,甚至有可能移除感觉荚。
虽然在这一点上,我们无法量化需要多少数据来表示真正的理解,但我们可以推测,大脑中一定有一个合理的比例与理解有关。毕竟,人类是在已经经历和学习过的一切事物的背景下解释一切事物的。作为成年人,我们用生命最初几年学到的知识来解释一切。考虑到这一点,似乎只有AI社区认识到这一事实,并采取必要步骤建立基本的理解基础,真正的人工通用智能才有可能完全出现。