尽管人工智能的诞生已经超过半个世纪,但近十年来人工智能领域发展非常迅速。自2012年ImageNet竞赛开始深度学习的现代时代以来,只有8年的时间。自那时以来,人工智能领域的进步令人震惊,现在人工智能已经深入我们日常工作生活的方方面面。
有专家表示,这个惊人的步伐只会越来越快。从现在开始的五年后,人工智能领域将与今天大不相同。当前被认为是最先进的方法将已经过时;今天刚刚出现或处于边缘的方法将成为主流。
下一代人工智能将是什么样子?哪种新颖的AI方法将释放当前在技术和业务方面难以想象的可能性?本文重点介绍了AI中的三个新兴领域,这些领域将在未来的几年中重新定义人工智能领域和社会。
1、无监督学习
当今AI世界中最主要的范例是有监督的学习。在监督学习中,AI模型从数据集中学习人类根据预定义类别进行策划和标记的过程。(术语“监督学习”源于人类“监督者”预先准备数据的事实。)
在过去的十年中,尽管从无人驾驶汽车到语音助手,有监督的学习已经推动了AI的显着进步,但它仍然存在严重的局限性。
手动标记成千上万个数据点的过程可能非常昂贵且繁琐。在机器学习模型提取数据之前,人们必须手动标记数据这一事实已成为AI的主要瓶颈。
在更深层次上,有监督的学习代表了一种狭窄的、受限制的学习形式。受监督的算法不仅无法探索和吸收给定数据集中的所有潜在信息、关系和含义,而且仅针对研究人员提前确定的概念和类别。
相反,无监督学习是一种AI方法,其中算法无需人工提供标签或指导即可从数据中学习。
许多AI领导者将无监督学习视为人工智能的下一个前沿领域。用AI传奇人物Yann LeCun的话说:“下一场AI革命将不会受到监督。”加州大学伯克利分校的教授Jitenda Malik更加生动地说:“标签是机器学习研究人员的鸦片。”
无监督学习如何工作?简而言之,系统会根据世界的其他部分来了解世界的某些部分。通过观察实体的行为,实体之间的模式以及实体之间的关系(例如,上下文中的单词或视频中的人物),系统引导了对其环境的整体理解。一些研究人员用“从其他事物中预测所有事物”来概括这一点。
无监督学习更紧密地反映了人类学习世界的方式:通过开放式探索和推理,不需要监督学习的“训练轮”。它的基本优点之一是,世界上总是会有比已标记数据多得多的未标记数据(前者更容易获得)。
用LeCun的话来说,他喜欢密切相关的术语“自我监督学习”:“在自我监督学习中,输入的一部分用作监视信号,以预测输入的其余部分。可以通过自我监督学习而不是[其他AI范式]来学习有关世界结构的知识,因为数据是无限的,每个示例提供的反馈量很大。”
无监督学习已经在自然语言处理中产生了变革性的影响。 NLP得益于一种新的无监督的学习架构,即Transformer,最近取得了令人难以置信的进步,该架构始于Google大约三年前。 (有关Transformer的更多信息,请参见下面的#3。)
将无监督学习应用于AI的其他领域的努力仍处于早期阶段,但是正在取得快速进展。举个例子,一家名为Helm.ai的初创公司正在寻求利用无监督学习来超越自动驾驶汽车行业的领导者。
许多研究人员将无监督学习视为开发人类级AI的关键。 LeCun认为,掌握无监督学习是“未来几年ML和AI面临的最大挑战。”
2、联合学习
数字时代的主要挑战之一是数据隐私。由于数据是现代人工智能的命脉,因此数据隐私问题在AI的发展轨迹中扮演着重要的角色(并且常常是限制性的)。
保持隐私的人工智能(使AI模型能够从数据集中学习而不损害其隐私的方法)正变得日益重要。保持隐私的AI的最有前途的方法也许是联合学习。
联合学习的概念最早由Google的研究人员于2017年初提出。在过去的一年中,对联合学习的兴趣激增:到2020年的前六个月,发表了超过1,000篇有关联合学习的研究论文,而在2018年只有180篇。
如今,构建机器学习模型的标准方法是将所有训练数据收集到一个地方(通常在云中),然后在数据上训练模型。但是,这种方法对全球大部分数据都不可行,出于隐私和安全原因,这些数据无法移至中央数据存储库。这使其成为传统AI技术的禁区。
联合学习通过颠覆传统的AI方法解决了这个问题。
联合学习并不需要一个统一的数据集来训练模型,而是将数据保留在原处,并分布在边缘的众多设备和服务器上。取而代之的是,将模型的许多版本发送到一个带有训练数据的设备,每个模型都在每个数据子集上进行本地训练。然后将生成的模型参数(而不是训练数据本身)发送回云。当所有这些“微型模型”汇总在一起时,结果就是一个整体模型,其功能就像是一次在整个数据集上进行训练一样。
最初的联合学习用例是针对分布在数十亿移动设备上的个人数据训练AI模型。正如这些研究人员总结的那样:“现代移动设备可以访问大量适用于机器学习模型的数据...。但是,这些丰富的数据通常对隐私敏感,数量庞大或两者兼而有之,因此可能无法登录到数据中心....我们提倡一种替代方案,将训练数据保留在移动设备上,并通过汇总本地计算的更新来学习共享模型。”
最近,医疗保健已成为联合学习应用中特别有前途的领域。
不难理解原因。一方面,医疗保健中有大量有价值的AI用例。另一方面,医疗保健数据,尤其是患者的个人身份信息,非常敏感;像HIPAA这样的法规丛书限制了它的使用和移动。联合学习可以使研究人员能够开发挽救生命的医疗保健AI工具,而无需从源头转移敏感的健康记录或使它们暴露于隐私泄露中。
涌现了许多初创公司,以追求医疗保健领域的联合学习。最有名的是总部位于巴黎的Owkin;早期阶段的参与者包括Lynx.MD、Ferrum Health和Secure AI Labs。
除医疗保健外,联合学习有一天可能会在任何涉及敏感数据的AI应用的开发中发挥中心作用:从金融服务到自动驾驶汽车,从政府用例到各种消费产品。与差分隐私和同态加密之类的其他隐私保护技术结合使用,联合学习可以提供释放AI巨大潜力的关键,同时减轻对数据隐私的棘手挑战。
如今,全球范围内颁布的数据隐私立法浪潮(从GDPR和CCPA开始,即将推出许多类似的法律)只会加速对这些隐私保护技术的需求。期望联合学习在未来几年中将成为AI技术堆栈的重要组成部分。
3、Transformer
我们已经进入了自然语言处理的黄金时代。
OpenAI发布的GPT-3是有史以来功能最强大的语言模型,今年夏天吸引了整个技术界。它为NLP设定了新的标准:它可以编写令人印象深刻的诗歌,生成有效的代码,撰写周到的业务备忘录,撰写有关自身的文章等等。
GPT-3只是一系列类似架构的NLP模型(Google的BERT、OpenAI的GPT-2、Facebook的RoBERTa等)中最新的(也是最大的),它们正在重新定义NLP的功能。
推动语言AI革命的关键技术突破是Transformer。
在2017年具有里程碑意义的研究论文中介绍了Transformer。以前,最新的NLP方法都基于循环神经网络(例如LSTM)。根据定义,递归神经网络按顺序显示数据,即按单词出现的顺序一次处理一个单词。
Transformer的一项伟大创新是使语言处理并行化:给定文本主体中的所有标记都是同时而不是按顺序分析的。为了支持这种并行化,Transformer严重依赖于称为注意力的AI机制。注意使模型能够考虑单词之间的关系,而不论它们之间有多远,并确定段落中的哪些单词和短语对于“注意”最为重要。
为什么并行化如此有价值?因为它使Transformers的计算效率大大高于RNN,这意味着可以在更大的数据集上对它们进行训练。 GPT-3训练了大约5000亿个单词,由1750亿个参数组成,这使现有的RNN显得相形见绌。
迄今为止,由于GPT-3等的成功应用,Transformer几乎只与NLP相关联。但是就在本月,发布了一篇突破性的新论文,该论文成功地将Transformer应用于计算机视觉。许多AI研究人员认为,这项工作可以预示计算机视觉的新时代。 (正如著名的ML研究人员Oriol Vinyals所说的那样,“我的观点是:告别卷积。”)
尽管像Google和Facebook这样的领先AI公司已经开始将基于Transformer的模型投入生产,但大多数组织仍处于将该技术产品化和商业化的初期阶段。 OpenAI已宣布计划通过API将GPT-3进行商业访问,这可能会为在其上构建应用的整个初创企业生态系统注入种子。
从自然语言开始,期望Transformers在未来的几年中将成为整个新一代AI功能的基础。过去十年在人工智能领域令人兴奋,但事实证明,这仅仅是未来十年的序幕。