腾讯发布超大预训练系统派大星,性能优于微软DeepSpeed

新闻
近日,腾讯微信AI团队联合Tencent NLP Oteam于GitHub上发布开源项目派大星“PatrickStar”。

 [[433047]]

近日,腾讯微信AI团队联合Tencent NLP Oteam于GitHub上发布开源项目派大星“PatrickStar”。该开源项目将聚焦解决GPT、BERT等超大模型训练时产生的“GPU内存墙”问题,使用更为创新的异构内存管理方法,让相同配置的机器能够训练更大的模型,以更节能环保的方式让预训练模型普惠每位NLP社区用户。经测试结果显示,派大星性能表现优于微软DeepSpeed,在不到5000元价位的个人游戏电脑上,即可训练一个7亿参数的GPT模型。

以GPT、BERT为代表的预训练模型(PTM)是自然语言处理(NLP)领域的核心技术,但由于GPU硬件的存储空间有限,PTM的可训练规模难以突破,专业人员称之为"GPU内存墙",同时, PTM预训练的过程具备高耗能、高成本、高碳等弊端——往往训练一次万亿级别的预训练模型要烧掉154万人民币,消耗的电能制释相当于数十辆小汽车从出厂到报废的碳排放总和。

为攻克该痛点,腾讯微信AI团队联合TencentNLP Oteam从头搭建了派大星。它通过细粒度的方式管理模型数据,更有效使用了异构内存空间,进一步突破PTM模型规模的极限。同时,派大星的设计比同类方法占用更低内存使用,减少了CPU和GPU之间数据搬移开销,从而显著提升了计算资源的利用率。并且,派大星可以和多种并行训练方式正交使用。比如,派大星使用微软提出的零冗余优化器来实现单机多卡的数据并行。

实验结果表明,派大星将模型规模上限在目前最佳方案DeepSpeed的基础上提升了 1.5 倍,并且展现了明显高于DeepSpeed的计算效率。这将极大降低了PTM训练过程中的碳排放,以技术优化的方式助力低碳环保事业。

目前,派大星已参与到微信搜一搜、微信对话开放平台、小微智能音响等产品研发工作中,助力降低GPU卡使用数量,提升机器的利用率,减少数据中心的碳排放规模。接下来,微信AI团队也将持续深化开源技术的研发及应用,以创新促进行业发展及生态建设。

责任编辑:张燕妮 来源: 新智元
相关推荐

2020-07-29 12:16:12

预训练自训练神经网络

2023-04-12 16:16:53

微软开源

2021-01-12 15:11:01

AI 数据人工智能

2023-06-26 07:10:51

2020-08-10 15:25:00

人工智能机器学习技术

2022-01-06 09:57:02

数据计算机神经网络

2023-04-14 14:42:07

腾讯人工智能

2020-07-08 15:36:18

百度大脑

2020-09-11 10:48:49

微软机器学习开源AI

2021-09-09 09:29:03

AI 数据模型

2020-06-11 17:17:55

百度大脑

2021-06-28 12:01:01

预训练模型

2020-03-13 15:33:54

Google 开源技术

2020-11-12 09:55:10

百度

2023-09-06 09:59:12

雷达技术

2013-07-16 11:29:02

Windows 8.1DPI

2010-06-10 10:01:46

2023-08-30 14:14:00

AI模型

2022-03-14 09:41:07

算法开源修复
点赞
收藏

51CTO技术栈公众号