LLM高效微调详解-从Adpter、PrefixTuning到LoRA
一、背景目前NLP主流范式是在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。ContextLearningv.s.SFT指令微调是预训练语言模型微调的主流范式,其目的是尽量让下游任务的形式尽量接近预训练任务。从而减少下游任务和预训练任务之间的Gap,实现预训练语言模型适应下游任务,而非下游任务去适应模型指令微调的效果要优于基于ZeroFewshot的提示词工程的上下文学习。但随...