改变LoRA的初始化方式,北大新方法PiSSA显著提升微调效果
随着大模型的参数量日益增长,微调整个模型的开销逐渐变得难以接受。为此,北京大学的研究团队提出了一种名为PiSSA的参数高效微调方法,在主流数据集上都超过了目前广泛使用的LoRA的微调效果。论文:PiSSA:PrincipalSingularValuesandSingularVectorsAdaptationofLargeLanguageModels论文链接:https:arxiv.orgpdf2404.02948.pdf代码链接:https:github.comGraphPKUPiSSA如图1所示,PiSSA(图1c)在模型架构上和LoRA[1]完全一致(图1b...