LeCun一段近5分的视频,引起了全网300+万人的关注。
视频中,他再次重提对开源人工智能的几点看法:
- 未来将出现超越人类智能的人工智能
- 这些人工智能将受到我们的控制
- 它们不会成为我们的主宰,也不会对我们构成威胁
- 它们将成为我们与数字世界互动的中介
- 因此,这些人工智能需要是开放的平台,这样每个人都能参与进来,帮助它们学习和优化。
对此,马斯克表示,我们的数字上帝将以csv文件的形式出现。LeCun回应道,如果它是开源的,无论你选择什么格式,都会有导入过滤器。
COSS创始人Joseph Jack调侃道,我们能不能直接让LeCun担任AI总统,然后就此结束今天的讨论。
以下是视频中,LeCun个人提出的观点。
智能与统治毫无干系,开源是必然
在未来的某个时刻,也许是几十年后,我们将拥有智能与人类相媲美的AI系统。
因为人类在不同领域有各自的专长,这些AI系统不仅同样如此,而且在人类擅长的领域中,甚至可能都要比人类聪明。
现在你可能会想,「天呐!这样的系统会不会掌控世界?」
No!智能与统治之间并没有必然的联系。
就拿人类来说,人类中有一部分人有控制欲,但并非人人都有,并且,想要统治的并不是我们当中最聪明的人。
其实,国际政治舞台上的各种事件都在证明这一点。这背后的原因可能来自自然进化,不够聪明的人需要依赖他人,因此也会应影响他人,但聪明的人可以独立生存。
第二个观点是,我们习惯于比自己更聪明的人一起工作。对于我来说,我曾经领导过的一个研究实验室,只雇佣比我聪明的人,与聪明的人一起工作的感觉很棒。
我们与未来AI助手的关系,它会在日常生活中帮助我们。
想象一下,未来10-20年,AI助手会在日常生活中帮助我们,而且可能会比我们更聪明。但它们的存在,是为了让我们更聪明。
我们命令它们,便会听命于我们。并不是因为它们聪明,就想要统治。
而这种统治欲其实源于,我们是社会性物种的本性。因此,我们需要有能力去影响他人。这也就是统治和服从的来源。
我们是一个有等级秩序的社会性物种,这也是进化论赋予我们的特征,像黑猩猩、狒狒狼等社会性动物一样。
但即便是猩猩这样的物种,智力接近人类,却没有被赋予控制他人的特征。
因此,控制和智能完全没有关系。
我们可以设计一个极其智能但不具备统治欲的系统,且非常聪明,也就是说,你给它们一个目标,就能帮你实现。
设定目标由我们人类来做,而这些系统会制定子目标。至于如何做到这一点的技术问题还没有解决,我们只是在想象未来的事情。
包括我之前谈到的「目标驱动的AI」,这只是未来。
想象一下,如果未来我们与数字世界、信息世界所有交互都是通过AI智能体来完成。
这些AI智能体将成为所有人类知识的宝库,与一个能进行对话和推理的「超级百科」类似,但知识比维基百科更丰富。
这将成为一个像现在的互联网一样的公共平台,它必须是开放的,而不是专有的,因为掌握在少数公司的超级AI将是非常危险的。
如果少数人控制着超级AI,便可以左右每个人的观点、文化等等。
所以,唯一的解决方案就是开源基础架构。这也是Meta开源Llama2的原因之一,因其是基础设施的一部分。
在此之前,Meta还发布了PyTorch,一个构建AI系统的软件系统,ChatGPT就是基于PyTorch构建的。
因此,这些系统必须是开源的,并且训练方式也必须是众包的,以确保它们成为所有人类的知识库。
这样,所有人类都可以为其中做贡献,而不是仅仅贡献给OpenAI、Meta或其他公司的专有系统。
它必须是开源的,无论听起来有多危险,但这是未来的必然趋势。
我们需要世界模型
对于超级AI的发展,LeCun一直以来都站在开源队列中。
就在本月初,他曾号召1700+位人工智能领域的专家和研究人员签署了一封联名信,呼吁AI更加开放。
在LeCun看来,当前自回归模型的能力远远不及人类,甚至都不如阿猫阿狗。
当被TED负责人问道,有没有一个理论能够证明人类大脑,而不是LLM能够推理。
LeCun表示,LLM以每个token的固定计算量生成答案。它们没有办法投入更多(可能是无限的)「时间和精力」来解决难题。这非常类似于人类快速和潜意识的「系统1」决策过程。
真正的推理和计划将允许系统搜索解决方案,使用潜在的无限时间。这种迭代推理过程更类似于人类有意识「系统2」。
这就是人类和许多动物在新情况下找到新问题的新解决方案的原因。
一些人工智能系统具有规划能力,即玩游戏或控制机器人的系统。AlphaGo、AlphaZero、Libratus和Cicero等游戏AI系统具有规划能力。与动物和人类相比,这些系统的规划能力仍然相当有限。
为了实现更通用的规划能力,人工智能系统需要拥有一个「世界模型」,即一个可以预测动作序列后果的子系统:给定时间t的世界状态,以及我可以采取的想象行动,在时间t+1时世界的合理状态是什么。通过世界模型,系统可以计划一系列行动以实现目标。
如何建立和训练这样的世界模型仍然是一个悬而未决的问题。更复杂的是如何将一个复杂的目标分解为一系列子目标。
这将实现分层规划,这是人类和许多动物可以毫不费力地做到的,但仍然完全超出了人工智能系统的能力范围。
网友热议
马库斯看后表示,他的每一句话中非常肯定,给人留下了深刻的印象。但如果他的一些前提(再次)被证明是错误的怎么办?
更多智能并不意味着更多危险。人工智能的威胁取决于编写损失函数的人是谁。
LeCun的演讲金句已被画出。