新架构RNN反超Transformer:每个隐藏状态都是一个模型,一作:从根本上改变语言模型

人工智能
将来在对长视频进行建模时,我们可以密集地采样帧而不是采样1 FPS,这些密集帧对Transformer来说是一种负担,但对TTT层来说是一种福音。

新架构,再次向Transformer发起挑战!

核心思想:将RNN中的隐藏状态换成可学习的模型。

甚至在测试时都可以学习,所以该方法称为TTT(Test-Time Training)。

共同一作UC伯克利的Karen Dalal表示:我相信这将从根本上改变语言模型。

图片图片

一个TTT层拥有比RNN表达能力更强的隐藏状态,可以直接取代Transformer中昂贵的自注意力层。

在实验中,隐藏状态是线性模型的TTT-Linear表现超过了Transformer和Mamba,用更少的算力达到更低的困惑度(左),也能更好利用长上下文(右)。

图片图片

此外,隐藏状态是MLP模型的TTT-MLP在32k长上下文时表现还要更好。

图片图片

Karen Dalel还指出,理论上可学习的隐藏状态可以是任意模型,对于更长上下文来说,可以是CNN、甚至可以是完整的Transformer来套娃。

目前刚刚出炉的TTT论文已经在学术界引起关注和讨论,斯坦福博士生Andrew Gao认为,这篇论文或许能成为下一篇Attention is all you need。

图片图片

另外有人表示,众多新架构能否真正击败Transformer,还要看能不能扩展到更大规模。

Karen Dalel透露,马上就会推出7B模型。

图片图片

用机器学习模型来压缩上下文

传统RNN,隐藏状态固定大小表达能力受限,也不好并行训练。

Transformer强大,但自注意力机制随上下文长度呈平方复杂度,非常昂贵。

最近一系列基于RNN的架构创新中:

RWKV,用线性注意力结合RNN和Transformer的优点,在训练时可以并行计算。

Mamba,赋予模型选择性记住或遗忘信息的能力来压缩上下文,同时设计了面向硬件的高效并行算法。

它们的表现在短上下文时追上甚至超越了Transformer,但在32k超长上下文以上,Trasformer依旧称霸。

图片图片

TTT团队的想法来自于:与其让隐藏状态被动地储存信息,不如让它主动学习。

就像Transformer模型作为一个整体在压缩互联网数据到参数中一样,可学习的隐藏状态模型也在少量参数上不断缩上下文信息。

这种“隐藏状态模型”随着时间的推移仍然具有固定的大小(固定的模型参数),但表达能力更强了。

论文的联合指导UCSD助理教授王小龙认为:

Transformer显式地储存所有输入token,如果你认为个神经网络是压缩信息的好方法,那么压缩这些token也将是有意义的。

图片图片

如此一来,整个框架的时间复杂度还是线性的,

图片图片

至此,序列建模被拆解为两个嵌套的学习循环,外循环负责整体的语言建模,内循环通过自监督学习压缩上下文信息。

外循环的参数变成了内循环的超参数,也就是元学习的一个变种了。

标准的元学习是训练一个适应不同任务的模型,而TTT是让模型去适应每一个测试样本。单个样本虽然信息量小,但用来训练隐藏状态模型也绰绰有余。

图片图片

特别的,在内循环是一个线性模型时,相当于线性注意力。当内循环是一个Nadaraya-Watson estimator时,TTT等价于自注意力。

图片图片

在测试时学习

在TTT层里,使用自监督学习方法将上下文压缩到隐藏状态。

上下文就是未标记的数据集,隐藏状态不再是一个固定的向量,可以是线性模型、小型神经网络或任何机器学习模型,更新规则采用了在自监督损失上的一步梯度下降。

这样一来,隐藏状态模型可以记住产生大梯度的输入,并且可以获得比选择性遗忘机制更强的拟合和泛化能力,并且在测试时仍然为每个输入序列训练不同的参数。

图片图片

到目前为止,朴素的TTT层已经有效了,但还无法并行化。

团队提出的解决方案为mini-batch梯度下降,把一个batch内的梯度计算并行化。

再通过Dual form方法,只在mini-batch结束时计算权重以及输出token,避免冗余计算。在JAX版实现中快了5倍以上。

图片图片

TTT能否成为“Transformer杀手”?

理论上都走的通了,那么TTT在实验中表现到底如何?

最简单干净的测试方法,应该是直接替换掉Transformer中的自注意力层。

但是在研究过程中,团队发现Mamba等现代RNN的骨干中在RNN层之前还包含时间卷积,对TTT也有帮助。

所以实验中TTT-Linear和TTT-MLP主要应用到Mamba骨干上,其他训练细节也严格遵照Mamba论文中的设置。

最终在Pile数据集短上下文测试中:

  • 2k上下文时,TTT-Linear、Mamba和Transform具有相当的性能,TTT-MLP的表现略差。
  • 8k上下文时,TTT-Linear和TTT-MLP都优于Mamba和Transformer,应用在Transformer骨干的TTT-MLP(T)在1.3B参数左右也略好与Mamba。

总的来说,随着上下文长度的增长,TTT层相对于Mamba的优势也会扩大。

另外团队猜测,线性模型比MLP表达能力差,因此从Mamba骨干的卷积中受益更多。

图片图片

长上下文实验使用Pile的子集Books3:

  • 32k上下文,TTT-Linear和TTT-MLP的表现都优于曼巴,类似于Pile 8k的观察。即使是带有Transformer骨干的TTT-MLP(T)表现也略好于曼巴。
  • 1.3B参数尺度上,TTT-MLP(T)仅比TTT-MLP(M)稍差,Transformer骨干可能更适合论文评估范围之外的更大模型和更长的上下文。

图片图片

在A100上测试速度,TTT-Linear在预填充阶段比Mamba稍快,解码阶段几乎与Mamba速度相同。TTT-MLP相比Transformer整体上也有线性复杂度的优势。

图片图片

共同一作Karan Dala表示:我一直被问到的一个问题是,我们是否相信TTT就是“Transformer杀手”,我仍然认为我们需要继续努力。

隐藏状态可以是任意模型,但目前的研究只涉及了线性模型和小型MLP,更复杂的还有待研究。

隐藏状态模型的学习可以用Adam代替普通的梯度下降等等。

还可用于视频建模

三位共同一作中:

Yu Sun博士毕业于UC Berkeley,目前是斯坦福大学博士后。

图片图片

Xinhao Li是电子科技大学校友,硕士毕业于UCSD。

图片图片

Karan Dalel本科毕业于UC Berkley,正在机器人初创公司1X实习。

图片图片

最后,联合指导UCSD助理教授王小龙还透露,TTT方法除了语言模型,还适用于视频。

TTT就是“Transformer杀手”,我仍然认为我们需要继续努力。

将来在对长视频进行建模时,我们可以密集地采样帧而不是采样1 FPS,这些密集帧对Transformer来说是一种负担,但对TTT层来说是一种福音。

图片图片

论文地址:https://arxiv.org/abs/2407.04620

参考链接:[1]https://x.com/karansdalal/status/1810338845659131940[2]https://x.com/xiaolonw/status/1810387662060269668

责任编辑:武晓燕 来源: 量子位
相关推荐

2009-06-30 19:32:16

SUN云计算IT

2023-03-20 14:08:00

元宇宙

2012-10-22 16:34:37

JavaJava8Lambda

2022-02-15 14:58:29

区块链娱乐加密货币

2020-04-26 10:00:48

大数据文件传输

2023-11-30 15:17:21

人工智能业务流程

2023-09-26 14:31:51

元宇宙

2024-04-15 07:50:00

AI架构

2022-01-11 14:05:01

区块链技术数据

2014-12-31 10:37:09

2021-11-19 10:13:01

模型人工智能计算

2018-11-05 15:28:05

2017-11-15 19:00:49

深度学习SoftmaxRNN语言模型

2023-11-22 09:00:00

NLP语言模型LSTM

2023-02-25 16:14:36

AIMeta语言模型

2020-02-11 09:30:08

微软浏览器Windows

2024-11-25 08:54:41

2024-03-04 08:15:00

2011-03-02 14:34:54

NVIDIA工作站

2019-07-21 19:45:23

GitHub代码开发者
点赞
收藏

51CTO技术栈公众号