超越ChatGPT:通向AGI的五个最严峻挑战

人工智能
本文剖析了实现AGI必须跨越的五大障碍:AI系统缺乏人类与生俱来的常识直觉,无法像人类跨领域迁移知识;物理世界交互依赖人工传感器,难以突破数字边界;算力需求指数级增长遭遇能耗瓶颈;更关键的是社会对 "黑箱 "AI的信任危机。

 但像我们这样看着《星际迷航》、《银翼杀手》或《2001太空漫游》长大的人知道,这只是个开始。 

与那些虚构世界中的AI,甚至是人类自己相比,今天的AI无法完全探索、交互并从这个世界中学习。如果它可以做到,就像《星际迷航》中那个非常有用的机器人Data(或一个人类)一样,它可以学会如何解决任何问题或执行任何工作,而不仅仅局限于它最初被训练来做的事情。 

包括ChatGPT的创造者OpenAI在内的一些全球顶级AI研究人员认为,构建这种智能的机器,即AGI,是AI发展的圣杯。AGI将使机器能够“泛化”知识,并处理几乎所有人类能执行的任务。 

不过,要实现这一目标,我们还有一些相当大的问题需要解决。AI领域的进一步突破、巨额投资以及广泛的社会变革都将必不可少。 

以下是我对如果我们想打造电影中承诺的那个光明、全自动、由AI驱动的未来(可能出错的地方?)所必须克服的五大障碍的概述: 

常识和直觉 

今天的AI缺乏充分探索和利用其所在世界的能力。作为人类,我们通过进化学会了很好地解决现实世界中的问题,利用我们能得到的任何工具和数据。而机器没有做到这一点——它们是通过从现实世界中提炼出的数字数据(无论保真度如何)来了解世界的。 

作为人类,我们构建了一个“世界地图”,为我们理解世界提供了信息,并因此为我们成功完成任务提供了能力。这个“地图”是根据我们的所有感官、所学的一切、固有的信仰和偏见以及经历的一切构建而成的。机器则通过在网络上移动的数字数据,或使用传感器收集的数据进行分析,还无法达到这种深度理解。 

例如,在计算机视觉方面,AI可以观看飞行中的鸟类视频并学习很多关于它们的知识——也许包括它们的大小、形状、种类和行为。但它不太可能通过研究它们的行为,而发现自身飞行的方法,并将这种学习成果应用于建造飞行器,就像人类所做的那样。 

常识和直觉是智力的两个方面,仍然是人类所独有的,对我们驾驭模糊性、混乱和机遇至关重要。在实现AGI之前,我们可能需要对它们与机器智能的关系进行更深入的研究。 

学习的可迁移性 

我们通过广泛的世界交互所发展出的一个天生能力,是将从一项任务中获得的知识应用到另一项任务中。 

今天的AI是为狭隘的任务而构建的。一个医疗聊天机器人可能能够分析扫描结果、与患者咨询、评估症状并开出治疗方案。但让它诊断一台坏掉的冰箱,它就会不知所措。尽管这两项任务都依赖于模式识别和逻辑思维,但AI在数据处理方面仍然缺乏灵活性,无法解决其明确训练之外的问题。

相比之下,人类可以跨完全不同的领域运用问题解决、推理和创造性思维技能。因此,例如一位人类医生可能会利用他们的诊断推理能力去排除故障冰箱的问题,即使没有接受过正式的培训。 

为了AGI的存在,AI必须开发出这种能力——在不需要完全重新训练的情况下将知识应用于不同领域。当AI能够在不需要对全新数据集进行重新训练的情况下建立这些联系时,我们就离真正的通用智能又近了一步。 

物理与数字的鸿沟 

我们通过感官与世界进行交互。机器则必须使用传感器。这其中又体现了进化的差异,进化磨练了我们数百万年来观察、倾听、触摸、嗅闻和品尝的能力。 

相比之下,机器则依赖于我们赋予它们的工具。这些工具是否为其收集解决问题所需数据的最佳方式还不好说。它们可以以我们允许的方式与外部系统进行交互——无论是通过数字方式的API接口,还是物理方式的机器人。但它们没有一套可以适应与世界任何方面互动的标准工具,就像我们有手和脚一样。 

要像我们所做到的那样,以高超的方式与物理世界进行交互——例如协助体力劳动,或访问它未获得特定授权的计算机系统——将需要能够弥合这一鸿沟的AI。我们已经在Operator等自主式AI工具的早期迭代中看到了这一点,它使用计算机视觉来理解网站并访问外部工具。然而,要让机器能够独立地探索、理解和与物理和数字系统交互,从而使AGI不仅仅是梦想,还有更多的工作要做。 

可扩展性的困境 

即便是如今AI模型的训练和部署,也需要海量的数据和算力。但根据我们目前的理解,要实现AGI所需的数据和算力可能是成倍增加的。人们已经开始担心AI的能耗问题,要实现这个目标,还需要越来越大型的基础设施项目。是否有意愿投资到必要的程度,很大程度上将取决于AI公司能否证明他们能从前代AI技术(如现在很多公司正在利用的GenAI浪潮)中赚取投资回报。 

据一些专家称,我们已经看到,仅仅通过向构建更智能AI的问题中投入更多的算力和数据,所获得的回报正在减少。ChatGPT的最新更新——Omni系列模型,以及最近公布的竞争对手DeepSeek,都聚焦于增加推理和逻辑能力。但这会使得工具在用户手中的推理阶段(而非训练阶段)需要更多的算力。不管采用哪种解决方案,AGI可能需要的算力比现在可用的算力要大几个数量级,这就是它还未到来的另一个原因。 

信任问题 

这是一个非技术性的障碍,但这丝毫不会让它成为一个较小的问题。问题是,即使技术准备好了,社会是否准备接受机器取代人类,成为这个星球上最强大、最聪明和最能适应的实体? 

一个很好的理由是,它们可能不会这样做,因为机器(或创造它们的人)还没有达到所需的信任水平。想想自然语言、GenAI聊天机器人的出现是如何引发轩然大波的,它让我们认识到这对从工作到人类创造力的一切领域都将产生影响。现在想象一下,当能够自主思考并在几乎所有事情上击败我们的机器出现时,会有多少恐惧和担忧。 

如今,许多AI系统都是“黑箱”,这意味着我们对其内部运行情况或如何工作知之甚少。社会要足够信任AI,让其为我们做决策,AGI系统必须达到当今AI系统所远远不及的可解释性和可问责性水平。

责任编辑:庞桂玉 来源: 企业网D1Net
相关推荐

2023-02-26 12:44:03

ChatGPTAGI路线图

2022-07-19 15:15:51

加密货币比特币数字货币

2022-03-02 18:23:15

云迁移云计算

2023-08-13 08:29:27

ChatGPT指令AI

2019-04-03 14:36:15

2021-08-20 14:59:32

机器学习人工智能工具

2016-08-11 09:56:41

网络容量企业

2024-03-22 14:47:37

人工智能

2023-08-02 07:01:37

2013-01-23 09:59:50

2024-04-23 08:16:21

2023-05-15 12:11:24

2019-05-23 08:50:39

华为ARM芯片

2024-12-16 07:00:00

ProjectsChatGPTAGI

2023-08-22 15:43:04

2023-01-06 16:42:28

2023-03-23 13:35:08

ChatGPT人工智能

2023-10-30 07:46:21

2012-01-04 17:13:22

惠普工作站
点赞
收藏

51CTO技术栈公众号