仅微调0.02%参数,性能接近全量微调!上交大推出高效微调统一新范式

人工智能 新闻
尽管近年来高效微调领域发展迅速,涌现了多种方法,但不同PEFT方法背后的数学基础几乎没有得到深入研究。

Scaling Laws当道,但随着大模型应用的发展,基础模型不断扩大的参数也成了令开发者们头疼的问题。

为了减轻训练负担,Adapter、Prompt-Tuning以及LoRA等高效微调(Parameter Efficient Fine-Tuning, PEFT)算法越来越受到大家伙的青睐。

那么,问题来了——

尽管近年来高效微调领域发展迅速,涌现了多种方法,但不同PEFT方法背后的数学基础几乎没有得到深入研究。

此外,不同PEFT方法之间的性能差异及其原因尚未系统地探讨。这种理论深度的缺乏限制了研究者对这些方法潜在优势和局限性的理解,阻碍了它们在实际应用中的优化和创新。

为了解决这一问题,来自上海交通大学的研究者们在对各种PEFT方法进行全面数学分析后,提出了一种新的框架——子空间微调,旨在将所有已知的PEFT方法统一在一个理论下,

图片

具体来说,子空间微调方法主要集中于调整原始参数的子空间,涉及子空间的重构和扩展。研究者深入探讨了不同方法如何操作子空间,并从分解理论的角度阐明了每种方法的数学原理。此外,研究者分析了为什么这些方法会导致性能差异,提供了理解不同PEFT策略内在动态的全面理论基础。

他们基于此提出了两种新的PEFT方法,新方法在仅微调0.02%参数的情况下,性能接近于全面微调

研究者还介绍了一个有效的框架,在不引入额外训练参数的情况下,提升了LoRA等方法的性能。通过在三种不同模型上测试超过十种方法,广泛的实验验证了其理论的稳健性,同时展示了提出的方法和框架的有效性。

图片

来看论文细节。

子空间微调理论

考虑任何给定主干网络层的冻结权重矩阵图片,其中n≤m,并用权重矩阵图片的性能图片来量化模型的性能,值越高表示性能越好。

假设存在最优权重矩阵图片 ,且图片对所有图片成立。PEFT的目标公式化为:

图片

其中图片衡量两个矩阵之间的差异。函数图片被视为增量调优,表示对矩阵图片的每个元素的修改,但这种表征过于笼统。

从分解理论的角度看,调整矩阵涉及修改其对应的子空间,因此,所有PEFT方法可视为子空间微调。

如此,优化的目标是找到图片图片基所生成的子空间内的最大投影,然后将图片与其对齐。

有两种方法实现这一目标:通过调整图片来逼近图片,或操作图片的子空间以接近或包含图片

研究者将函数图片分配给两个主要角色:直接重构对应图片的子空间,以更好地对齐图片,或引入一个新子空间并与原始子空间结合。这些过程数学表示为:

图片

其中,图片概括了图片的子空间重构过程,图片描述了子空间的联合。研究者将这些操作分别称为“子空间重构”和“子空间扩展”,并将现有方法分类为三类:

  1. 基于子空间重构的方法,将复杂空间分解为易理解的子空间,并调整这些派生子空间的基
  2. 基于子空间扩展的方法,引入一个新子空间,在新子空间和原始权重矩阵图片对应的子空间基所生成的空间内找到最优权重图片的最大投影;
  3. 基于子空间组合的方法,同时采用上述子空间调整。

图片

子空间重构

基于先前概述的框架,子空间重构方法首先将图片的空间分割为可解释的子空间,然后细化这些子空间以提高模型效率。许多PEFT策略集中于直接重构与原始权重矩阵相关的子空间,著名例子包括SAM-PARSER、Diff Pruning、(IA)3、BitFit、Prefix-tuning和Prompt-tuning等。

研究者从奇异值分解(SVD)开始探索,原始权重矩阵图片被分解为正交子空间,涵盖了原始矩阵空间的全部。分解表示为图片,这种分解将图片分成左奇异向量图片图片列空间的正交基)、奇异值图片(调整维度和缩放)和右奇异向量图片图片行空间的正交基)。通过调整分解获得的子空间,可以重构原始空间,分为三种模式:

  1. 奇异值调整:调整图片中的奇异值,修改每个主成分的权重,而不影响子空间方向。
  2. 简单奇异向量调整:通过缩放生成的子空间来调整图片 图片中的奇异向量,保留方向特性,同时调整幅度。
  3. 复杂奇异向量调整:对奇异向量进行更复杂的变换,重新定向或重塑子空间,全面调整矩阵结构。

图片


基于这一理论,研究者提出了两种新的微调方法:SSL(Scaling the Subspace of the Left singular vectors)和SSB(Scaling the Subspace of Both left and right singular vectors)

从下图中可以看出,SSL最少只需要微调0.02%的参数,SSB最少只需要微调0.06%的参数,就能实现全量微调99%的性能

图片

关于每种模式的具体操作、每种方法的具体内容、其背后的数学原理,以及研究者如何基于这一理论提出两种新方法的详细信息,请参阅原论文。

子空间扩展

基于扩展的方法引入新子空间,结合该新子空间和原始权重矩阵图片的基生成扩展空间。

这些方法旨在找到最优权重图片在新空间内的最接近投影,通过引入额外的权重矩阵来扩大原始子空间的基以覆盖更大维度区域。通常,这些方法的转换函数定义为图片,其中s代表缩放因子,图片对应于新子空间,也称为附加项。

考虑权重矩阵图片,假设n≤m。理想情况下,有图片,即图片图片占据相同的行和列空间,使它们定位在同一超平面内。

如果图片的秩为n,其列空间的维度等于n,生成图片子空间。若图片的秩小于n,它只能在图片内生成一个子空间。假设图片图片的列空间基可以生成整个图片空间,在最优情况下,图片的列基向量应补充图片的列基,意味着图片的列空间代表这些空间的直和。

一些研究表明,最优权重图片会放大原始权重矩阵中某些特定任务的方向,这些方向对于预训练并不关键。此外,最优权重还会调整图片的主要方向。这些见解表明图片可能与图片 的子空间共享大量共同基。因此,图片可能只需考虑图片中缺少但图片中存在的一小部分基,使图片成为低秩矩阵。

实证研究表明,预训练模型的全参数微调通常可重新参数化为在低维子空间内优化,表明最优权重在这个受限的低秩子空间内变化。图片的低秩特性突出了基于扩展方法的参数效率基础。

另一个关键方面是缩放因子s。基于扩展的方法目标是确定图片图片图片形成的超平面内的最大投影,确保图片尽可能与图片方向对齐。给定固定的图片图片,只有一个s值能使 \图片 的方向与图片方向对齐,因此s值对性能的影响可能非常显著。

在参数高效微调中,有两大系列基于扩展的方法。第一系列是LoRA衍生,包括LoRA、AdaLoRA、TriLoRA、FLoRA、VeRA等。第二系列是适配器衍生,包括Adapter(H),Adapter(P),Parallel Adapter等。

在此基础之上,研究者提出了MPC框架,以进一步提升现有算法的性能。

从下图中可以看出,在不引入额外参数的情况下,MPC框架显著增强了各种PEFT方法的性能。

另外,MPC可以帮助PEFT方法实现更稳定的训练。与不使用MPC的方法相比,结合MPC的方法通常表现出更小的标准偏差。

图片

关于这些方法的具体分析,LoRA和Adapter系列算法性能差异的原因,以及MPC框架的详细设计思路,请参阅原论文。

子空间组合

基于组合的方法同时执行子空间重构和扩展,结合了这两种方法的原理。

此外,对于某些方法,它们既可以分类为基于重构的方法,也可以分类为基于扩展的方法,研究者也将它们分类为基于组合的方法。研究者分析介绍几种代表性的基于组合的方法,如DoRA,Spectral Adapter和SVDiff等。

关于这些方法的具体细节请参阅原论文。

论文:https://arxiv.org/pdf/2407.05417
代码:https://github.com/Chongjie-Si/Subspace-Tuning

责任编辑:张燕妮 来源: 量子位
相关推荐

2024-07-03 12:12:33

训练模型

2024-09-18 11:50:00

框架训练AI

2023-10-07 10:41:54

语言模型微调BitFit

2024-01-18 15:38:17

语言模型大型语言模型

2013-11-21 11:03:29

Nginx性能优化

2024-08-16 11:49:56

2024-04-15 12:50:00

大型语言模型ReFT

2024-04-19 12:50:58

人工智能OpenAI

2024-11-11 13:33:28

2024-09-26 10:42:20

2023-06-07 08:22:59

LLM微调技术

2024-06-06 08:25:30

2023-03-06 13:59:38

模型参数

2023-12-06 12:42:25

2023-06-09 08:00:00

QLoRa语言模型微调

2024-09-09 07:46:16

2011-02-24 10:09:52

Windows 8

2024-10-24 20:56:36

2024-01-26 11:59:07

OracleAI服务云托管
点赞
收藏

51CTO技术栈公众号