英伟达H100杀疯了:11分钟训完GPT-3,霸榜8项测试,集群性能逼近线性增长

商务办公
Pi的定位是帮助人类更好和计算机交互,它能通过聊天内容来逐渐了解用户,然后提供更加个性化的回答,类似于个人智能管家的感觉。

11分钟内训练一遍GPT-3,8秒训完BERT。

这就是英伟达给AI圈的一点“小小震撼”。

在最新MLPerf训练基准测试中,英伟达H100集群,横扫八项测试,全部创下新纪录,并且在大语言模型任务中表现尤为突出!

图片图片

在大语言模型任务中,H100集群的加速性能逼近线性增长。

即随着集群处理器数量增加,加速效果也几乎同比增加。

这意味着在集群内GPU之间的通信效率非常高。

图片图片

除此之外,H100还完成了推荐算法、CV、医学图像识别以及语音识别等任务,是唯一一个参加8项测试的集群。

而在算力就是生产力的时代下,这波成绩意味着什么,懂得都懂。

图片图片

据悉,本次测试系统由英伟达和Inflection AI联合开发,在云厂商CoreWeave上托管。

单节点性能增长明显

这次MLPerf Training v3.0中增加了两项新任务:

  • 大语言模型(基于GPT-3)
  • 推荐算法

这意味着测试任务包含了更大的数据集和更先进的模型。

图片图片

如上刷新各项记录的,是由3584块H100组成的超大集群。

它的具体成绩如下:

图片图片

这是本轮测试中,英伟达拿出的最大集群。

实际上他们还提交了一个包含768块H100的集群进行测试,并分别在云上和本地部署。

结果显示二者性能几乎完全相同。

更进一步还论证了随着集群中显卡数量的增加,其性能提升可以接近线性增长。

图片

(NVIDIA Pre-Eos为本地部署,NVIDIA+CoreWeave为云上部署)

除此之外,这轮测试中英伟达还刷新了单节点加速记录。

和6个月前MLPef Training v2.1的数据比较,单个DGX H100系统(8块H100组成)在各项任务中平均提速17%。

和A100 Tensor Core GPU相比,最高能提速3.1倍(BERT任务)。

图片

这些加速效果的实现,主要得益于两个方面。

一方面是H100本身就足够强悍。

H100基于最新Hopper架构,采用台积电4nm工艺,集成800亿个晶体管,较A100增加了260亿个。

内核数量达到前所未有的16896个,是A100的2.5倍。

由于面向AI计算,H100中专门搭载了Transformer Engine,让大模型训练速度可直接×6。

另一方面则是依赖集群内的加速网络。

这里使用的是英伟达Quantum-2 InfiniBand网络,是该网络架构的第七代。

官网介绍,加速网络能够提供软件定义网络、网络内计算、性能隔离、优越加速引擎、RDMA和最快达400Gb/s的安全加速。

据悉,共有90个系统参与最新一轮测试,其中82个使用了英伟达的GPU,英特尔方面有7个系统参与。

英特尔的加速系统使用了64-96 Intel Xeon Platinum 8380处理器和256-389 Intel Habana Gaudi2加速器。

其高配系统完成LLM的训练时间为311分钟。

图片

基于这次报告的测试结果,有分析师表示他感受到的最大震撼不是H100本身的性能,而是在云上训练AI实现的卓越效果。

那么这次和英伟达合作的云厂商CoreWeave是谁?联合开发系统Inflection AI又来者何人?

计算集群还会进一步扩大

首先来看CoreWeave。

图片

它成立于2017年,是一家大型云厂商,号称提供业内最快、最灵活的大规模GPU计算资源,提供渲染、机器学习等云上方案,速度比大型公共云快35倍,成本低80%。

而这家云厂商很受科技巨头青睐,英伟达在此之前没少cue过它。

5月,CoreWeave拿下2亿美元融资,主要来自对冲基金Magnetar Capital,B轮总融资额达到4.21亿美元。

6月,有消息称微软与CoreWeave签署AI算力协议,用于计算基础设施,未来数年内的投资金额可能数十亿美元。

英伟达也向CoreWeave投资了1亿美元,4月时它的估值为20亿美元。

另一家AI初创公司Inflection AI由DeepMind创始成员穆斯塔法·苏莱曼(Mustafa Suleyman)等人创立。

图片

这家公司成立于22年3月,已拿下2.25亿美元融资,估值超12亿美元。

公司已经开发出了一个大语言模型Pi,正是在H100集群上训练出来的。

据了解,Pi的定位是帮助人类更好和计算机交互,它能通过聊天内容来逐渐了解用户,然后提供更加个性化的回答,类似于个人智能管家的感觉。

Inflection AI的最新Blog里表示,基于目前的合作,他们计划在未来几个月内进一步扩大底层计算基础设施的规模。

参考链接:
[1]https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/?cnotallow=685ee2dc8db6455efed731baa85e2741
[2]https://developer.nvidia.com/blog/breaking-mlperf-training-records-with-nvidia-h100-gpus/
[3]https://www.forbes.com/sites/stevemcdowell/2023/06/27/nvidia-h100-dominates-new-mlperf-v30-benchmark-results/?sh=62b226c35e99


责任编辑:武晓燕 来源: 量子位
相关推荐

2023-06-30 09:53:08

英伟达AI

2023-06-29 17:40:10

模型测试

2023-11-10 15:35:52

AI模型

2023-11-21 09:14:33

微软Azure AI

2023-09-14 13:23:00

AI芯片

2023-07-13 23:16:19

英伟达GPU

2023-08-06 13:01:34

AI开发

2024-03-14 14:49:34

Meta人工智能

2023-05-11 08:48:58

谷歌超级计算机

2023-03-28 09:38:10

2023-09-10 12:37:38

模型英伟达

2024-09-05 14:10:00

AI计算

2020-06-16 08:47:53

磁盘

2023-11-14 08:59:25

英伟达AI

2024-03-13 11:49:04

人工智能Meta数据中心

2021-03-03 15:34:57

人工智能机器学习技术

2024-04-10 09:10:27

Gaudi 3芯片英特尔

2023-12-05 12:50:14

GPT-4DeepMind

2023-08-24 14:26:00

数据中心利润AI

2022-06-01 16:47:53

AI模型开源
点赞
收藏

51CTO技术栈公众号