内存占用小,训练表现也要好……大模型训练成功实现二者兼得。
来自北理、北大和港中文MMLab的研究团队提出了一种满足低秩约束的大模型全秩训练框架——Fira,成功打破了传统低秩方法中内存占用与训练表现的“非此即彼”僵局。
展开来说——
为了突破内存瓶颈,许多低秩训练方法应运而生,如LoRA(分解参数矩阵)和GaLore(分解梯度矩阵)。
△图1:从宏观层面分析三种内存高效低秩训练方法
然而,如上图所示,LoRA将训练局限于参数的低秩子空间,降低了模型的表征能力,难以实现预训练;GaLore将训练局限于梯度的低秩子空间,造成了子空间外梯度的信息损失。
相较于全秩训练,这两种方法由于施加了低秩约束,会导致训练表现有所下降。
但是,若提高秩值,则会相应地增加内存占用。
因此,在实际应用中,它们需要在确保训练表现与降低内存消耗之间找到一个恰当的平衡点。
这引发了一个核心问题:
能否在维持低秩约束以确保内存高效的同时,实现全秩参数、全秩梯度的训练以提升表现?
Fira即为最新答案,它有三大亮点:
- 即插即用:Fira简单易用,其核心实现仅涉及两行关键公式,现已封装进Python库,可直接融入现有的大模型训练流程中,替换原有优化器。代码示例如下:
from fira import FiraAdamW, divide_params
param_groups = divide_params(model, target_modules_list = [“Linear”], rank=8)
optimizer = FiraAdamW(param_groups, lr=learning_rate)
- 双赢解决方案:在维持低秩约束的前提下,Fira实现了大模型的全秩训练,打破了内存占用与训练表现的取舍难题。与此同时,区别于系统方法(如梯度检查点),Fira不以时间换内存;
- 实验验证:Fira在多种规模的模型(60M至7B参数)以及预训练和微调任务中均展现出卓越性能,优于现有的LoRA和GaLore,甚至能达到或超越全秩训练的效果。
打造Fira训练框架
Fira训练框架由两部分组成:
1) 基于梯度模长的缩放策略:利用了团队在大模型低秩和全秩训练中发现的共通点——自适应优化器对原始梯度的修正效应,实现了低秩约束下的全秩训练。
2) 梯度模长限制器,通过限制梯度模长的相对增长比例,解决了大模型训练中常出现的损失尖峰问题。
背景动机
大模型训练常常面临显著的内存瓶颈,尤其是其中的优化器状态。
举例来说,使用Adam优化器从头预训练一个LLaMA 7B模型(batchsize为1,精度为BF16)可能需要至少58GB内存。
其中14GB用于加载参数,14GB用于储存梯度,28GB用于储存优化器状态,剩下2GB用于储存激活值。
在这之中,优化器状态所占内存甚至要大于参数本身。
因此,使用低秩方法来减少这一部分内存,实现大模型的内存高效训练十分重要。
而在现有的低秩方法中,LoRA通过分解参数矩阵,使用低秩适配器来减少内存占用;Galore通过分解梯度矩阵,在自适应优化器中储存低秩梯度来减少内存占用。
鉴于使用LoRA低秩适配器方法来实现全参数训练的困难性,团队选择拓展Galore的梯度投影方法来实现全秩训练。
在Galore中,全秩梯度G𝑡 ∊ ℝmxn,会被投影矩阵P𝑡 ∊ ℝmxr分解成两项低秩梯度P𝑡R𝑡和(G𝑡—P𝑡R𝑡),其中。
为减少像Adam这样的自适应优化器在内存中对应的状态占用,Galore仅在优化器核心𝞧中保留低秩梯度R𝑡,而非全秩梯度G𝑡。
而另一项梯度(G𝑡—P𝑡R𝑡),则会因为缺少对应的优化器状态,被Galore直接丢弃,从而造成严重的信息损失。
这也解释了,为什么Galore的性能会在rank值减小时,显著衰减。
△图2:Fira与Galore及其变体的训练损失对比
为了弥补上述信息损失,最直观的方法是直接加上这一部分梯度(G𝑡—P𝑡R𝑡):
其中,W是参数矩阵, 𝜂是学习率。
然而,如图所示,使用这种方法(Galore-add)不仅未能带来性能提升,反而可能导致训练过程更加不稳定,且结果更差。
分析原因可归结于这一部分的梯度缺乏优化器状态,直接使用会退化为单纯的SGD算法,并且可能与前面使用的Adam优化器的梯度不匹配,导致效果不佳。
基于梯度模长的缩放策略
为了解决上述挑战,团队提出了scaling factor概念,来描述Adam这样的自适应优化器对原始梯度的修正效应,并揭示了它在大模型的低秩训练和全秩训练之间的相似性。
其中,𝜙 就是scaling factor,代表经过优化器修正过的梯度与原始梯度的模长比例。
如下图,如果根据scaling factor的平均值对参数矩阵进行排序,可以发现低秩和全秩之间的排序非常相似。
△图3:scaling factor在大模型低秩和全秩训练间的相似性
基于这个观察,团队就尝试在矩阵层面用低秩梯度R𝑡的scaling factor,作为全秩梯度G𝑡的scaling factor的替代,从而近似地修正(G𝑡—P𝑡R𝑡),弥补其缺少的优化器状态:
这样团队就在低秩约束下成功实现了全秩训练。
进一步来说,刚才是从矩阵层面来考虑scaling factor。
顺理成章地,团队可以从更细粒度的角度——列的层面,来考虑scaling factor,实现更加精细地修正。
其中R𝑡,:,𝑖 是低秩梯度R𝑡的第i列,是scaling factor的第i项。
梯度模长限制器
在训练过程中,梯度常常会突然增大,导致损失函数出现尖峰,从而影响训练的表现。
经过分析,可能原因是Galore在切换投影矩阵时存在不稳定性,以及维持(G𝑡—P𝑡R𝑡)这种原始梯度的方向的方式,无法像Adam这样的自适应算法,有效应对大模型训练中存在的陡峭损失景观。
△图4:3种Fira变体的训练损失与梯度模长
然而,常见的梯度裁剪方法(如图中的Fira-gradient-clipping)由于采用绝对裁剪,难以适应不同参数矩阵间梯度的较大差异,从而可能导致次优的训练结果。
为此,团队提出了一种新的梯度模长限制器,它通过限制梯度模长的相对增长比例,来更好地适应不同梯度的变化:
其中𝛾是比例增长的上限,S𝑡=𝜙𝑡(R𝑡)(G𝑡—P𝑡R𝑡)是原始梯度(G𝑡—P𝑡R𝑡)修正后的结果。
通过提出的控制梯度相对增长比例的方法,能够将梯度的骤然增大转化为平缓的上升,从而有效稳定训练过程。
如图2和图3所示,团队的限制器成功避免了损失函数的尖峰情况,并显著提升了训练表现。
实验结果
如下表所示,在预训练任务中,Fira在保持内存高效的前提下,验证集困惑度(↓)显著超过各类基线方法,甚至超越全秩方法。
具体来说,在预训练LLaMA 1B模型时,Fira节约了61.1%优化器状态所占内存,并且取得了比全秩训练更加好的结果。
△使用C4数据集预训练不同大小的LLaMA模型验证集困惑度(↓)对比
在预训练LLaMA 7B模型时,Fira在使用了比Galore小8倍的秩rank的情况下,训练表现远超Galore。
这展现了Fira在大规模大模型上的有效性,以及相较Galore更高的内存减少能力。
△使用C4数据集预训练LLaMA 7B的验证集困惑度(↓)对比
在八个常识推理数据集微调LLaMA 7B的任务中,相较其他基线方法,Fira在一半的数据集下表现最好,平均准确率最高的同时实现了内存高效。
△在八个常识推理数据集微调LLaMA 7B准确率对比
另外,消融实验也显示了:
- Fira-w.o.-scaling说明了Fira使用基于梯度模长的缩放策略的有效性;
- Fira-matrix说明了从更细粒度的列级别,而不是矩阵级别,考虑scaling factor的有效性;
- Fira-w.o.-limiter说明了Fira中梯度模长限制器的有效性;
- Fira-gradient-clipping说明了梯度裁剪可能无法完全解决损失尖峰问题,导致结果次优。
△消融实验
与GaLore相比,Fira的表现几乎不受秩rank值减少的影响。
在低秩的情况下(rank=16, rank=4),Fira仍然能与全秩训练相当,相较Galore更加内存高效。
△不同rank下的预训练验证集困惑度(↓)
最后,团队在不同模型大小,以及低秩和全秩条件下,训练10,000步,并对得到的矩阵和列级别上Scaling factor做平均。
接着,使用了斯皮尔曼(Spearman)和肯德尔(Kendall)相关系数分析了Scaling factor在矩阵和列级别上大小顺序的相关性。
其中,Coefficient中1代表完全正相关,-1代表完全负相关,而P-value越小越好(通常小于0.05为显著)。
在所有规模的LLaMA模型中,Scaling factor在矩阵和列的级别上都表现出很强的正相关关系,并且所有的P-value小于0.05,非常显著,为Fira中基于梯度模长的缩放策略提供了坚实的实验基础。
△矩阵和列级别上的Scaling factor低秩与全秩相似性分析
更多细节欢迎查阅原论文。
论文链接:https://arxiv.org/abs/2410.01623
代码仓库:https://github.com/xichen-fy/Fira