58行代码把Llama 3扩展到100万上下文,任何微调版都适用

人工智能 新闻
现在只需58行代码,任何Llama 3 70b的微调版本都能自动扩展到1048k(一百万)上下文。

堂堂开源之王Llama 3,原版上下文窗口居然只有……8k,让到嘴边的一句“真香”又咽回去了。

在32k起步,100k寻常的今天,这是故意要给开源社区留做贡献的空间吗?

开源社区当然不会放过这个机会:

现在只需58行代码,任何Llama 3 70b的微调版本都能自动扩展到1048k(一百万)上下文。

图片

背后是一个LoRA,从扩展好上下文的Llama 3 70B Instruct微调版本中提取出来,文件只有800mb

接下来使用Mergekit,就可以与其他同架构模型一起运行或直接合并到模型中。

图片

所使用的1048k上下文微调版本,刚刚在流行的大海捞针测试中达到全绿(100%准确率)的成绩。

图片

不得不说,开源的进步速度是指数级的。

图片

1048k上下文LoRA怎么炼成的

首先1048k上下文版Llama 3微调模型来自Gradient AI,一个企业AI解决方案初创公司。

图片

而对应的LoRA来自开发者Eric Hartford,通过比较微调模型与原版的差异,提取出参数的变化。

他先制作了524k上下文版,随后又更新了1048k版本。

图片

首先,Gradient团队先在原版Llama 3 70B Instruct的基础上继续训练,得到Llama-3-70B-Instruct-Gradient-1048k。

具体方法如下:

  • 调整位置编码:用NTK-aware插值初始化RoPE theta的最佳调度,进行优化,防止扩展长度后丢失高频信息
  • 渐进式训练:使用UC伯克利Pieter Abbeel团队提出的Blockwise RingAttention方法扩展模型的上下文长度

值得注意的是,团队通过自定义网络拓扑在Ring Attention之上分层并行化,更好地利用大型GPU集群来应对设备之间传递许多KV blocks带来的网络瓶颈。

最终使模型的训练速度提高了33倍。

图片

长文本检索性能评估中,只在最难的版本中,当“针”藏在文本中间部分时容易出错。

图片

图片

有了扩展好上下文的微调模型之后,使用开源工具Mergekit比较微调模型和基础模型,提取参数的差异成为LoRA。

同样使用Mergekit,就可以把提取好的LoRA合并到其他同架构模型中了。

合并代码也由Eric Hartford开源在GitHub上,只有58行。

图片

目前尚不清楚这种LoRA合并是否适用于在中文上微调的Llama 3。

不过可以看到,中文开发者社区已经关注到了这一进展。

图片

524k版本LoRA:https://huggingface.co/cognitivecomputations/Llama-3-70B-Gradient-524k-adapter

1048k版本LoRA:https://huggingface.co/cognitivecomputations/Llama-3-70B-Gradient-1048k-adapter

合并代码:https://gist.github.com/ehartford/731e3f7079db234fa1b79a01e09859ac

责任编辑:张燕妮 来源: 量子位
相关推荐

2023-06-30 09:49:23

模型Meta

2023-07-11 10:02:23

2023-08-29 18:23:46

代码AI

2024-01-08 12:47:02

代码模型Mistral

2024-04-29 13:09:10

LLM架构性能

2023-06-28 18:10:27

羊驼家族大模型集体进化

2023-06-15 15:45:42

自然语言语言模型

2023-10-21 12:53:27

数据研究

2023-10-04 09:20:04

模型训练

2024-03-14 08:11:45

模型RoPELlama

2017-05-11 14:00:02

Flask请求上下文应用上下文

2012-12-31 10:01:34

SELinuxSELinux安全

2022-09-14 13:13:51

JavaScript上下文

2022-09-15 08:01:14

继承基础设施基础服务

2023-08-10 14:04:15

代码模型

2015-10-09 09:43:28

CSS CSS3

2024-11-11 08:00:00

2017-12-17 17:01:23

限界上下文系统模型

2024-09-30 14:10:00

2022-10-28 16:24:33

Context上下文鸿蒙
点赞
收藏

51CTO技术栈公众号