只需少量计算和内存资源即可运行的小型 Llama 大模型

人工智能 开源
TinyLlama 是一个令人兴奋的开源项目,它正在积极解决一些关键问题,并在开源社区中得到了广泛的关注。

背景介绍

在当今这个数据爆炸的时代,语言模型的训练变得越来越复杂和困难。我们需要巨大的计算资源和时间来训练一个高效的语言模型。然而,这对许多人来说并不现实。与此同时,我们也遇到了如何在有限的内存和计算资源中使用大型语言模型的挑战,特别是在边缘设备上。

今天要给大家推荐一个 GitHub 开源项目 jzhang38/TinyLlama,该项目在 GitHub 有超过 4.3k Star,用一句话介绍该项目就是:“The TinyLlama project is an open endeavor to pretrain a 1.1B Llama model on 3 trillion tokens.”。

项目介绍

TinyLlama 旨在预训练一个在 3 万亿的 token 上的 1.1B Llama 模型。在一些恰当的优化下,我们可以在短短 90 天内使用 16 个 A100-40G GPUs 来达到这个目标。该项目采用了与 Llama 2 完全相同的架构和 tokenizer,这意味着 TinyLlama 可以在许多基于 Llama 的开源项目中插入并使用。此外,TinyLlama 非常紧凑,只有 1.1B 的参数。这种紧凑性使其能够满足许多需要限制计算和内存占用的应用。

如何使用

直接下载模型就可以使用,或者通过 huggingface 使用 demo。

如果你想自己训练的话,参考如下训练详情。

项目推介

TinyLlama 是一个令人兴奋的开源项目,它正在积极解决一些关键问题,并在开源社区中得到了广泛的关注。

以下是该项目 Star 趋势图(代表项目的活跃程度):

更多项目详情请查看如下链接。

开源项目地址:https://github.com/jzhang38/TinyLlama

开源项目作者:jzhang38

以下是参与项目建设的所有成员:

责任编辑:张燕妮 来源: 今日头条
相关推荐

2012-06-14 10:21:31

线程线程池Java

2015-07-22 18:07:59

阿里云批量计算

2017-11-27 08:38:10

UPS选择容量

2018-08-15 09:13:27

布线系统线缆用量

2010-12-23 09:46:03

UNIXSSH

2009-08-21 10:50:42

电线电缆材料用量

2024-11-11 09:00:00

2024-01-16 10:45:31

C++语言代码

2017-01-06 11:18:58

星瑞格

2018-02-28 16:20:57

中科睿芯

2024-03-04 00:00:00

GemmaAI模型

2019-06-06 10:19:33

谷歌开源计算库

2018-01-24 09:27:30

文本分类工具fastText

2020-02-28 15:27:31

代码开发工具

2016-12-06 15:40:08

海量计算星瑞格

2024-05-15 08:42:19

Phi-3LLM机器学习

2023-12-11 15:40:32

PyTorch代码大模型

2023-01-15 13:28:45

点赞
收藏

51CTO技术栈公众号