大模型微调哪家好?小孩子才做选择,成年人当然是全都要
一、概述title:UNIPELT:AUnifiedFrameworkforParameterEfficientLanguageModelTuning论文地址:https:arxiv.orgabs2110.07577代码:https:github.commorningmoniUniPELT1.1Motivation大模型不同的微调方法(PELT)例如LoRA,prefixtuning,Adapter方法效果不同,在不同的任务上效果也有差异,到底选哪个方法好呢?parameterefficientlanguagemodeltuning(PELT)方法能在参数量比finetuning小很多的情况下,perform追上finetunin...