DeepSeek 开源 V3/R1 架构设计思路,原来 545% 的利润率,它也只是被逼无奈?

开发 架构 人工智能
如果所有tokens全部按照R1的定价计算,理论上DeepSeek一天的总收入为$562,027,成本利润率545%。

开源周的最后一天,DeepSeek分享了DeepSeek-V3/R1的架构设计思路,让大家能够更系统更全面的了解其推理系统的设计过程,以及更深刻的理解之前开源的6个项目。

DeepSeek-V3/R1推理系统的核心目标是什么?

通过软件架构的优化,达到:

  • 更高的吞吐量;
  • 更低的延时;

为什么DeepSeek要走这一条路?

曾经AI技术发展,GPU就是瓶颈。

GPU是瓶颈的时候,有两条路可走:

  • 其一,水平扩展scale out:囤卡,堆GPU;
  • 其二,垂直扩展scale up:GPU升级换代;

但这两条路,都被死死的卡在漂亮国的手里。

卡,限制你,不让你囤。

先进的卡,不卖给你,谁叫你你落后5年。

为了突破瓶颈,DeepSeek被逼无奈的走出了第三条路:通过软件优化架构优化。

为了达成目标,DeepSeek的核心方案是啥?

大规模的跨节点专家并行EP,Expert Parallelism。

通过提升专家并行EP的数量(batch size),提升GPU矩阵乘法的效率,提高吞吐;与此同时,多专家分散在不同的GPU,每个GPU只需要计算更少的专家,访问更少的数据,从而降低延迟。

大规模的跨节点专家并行EP,会对软件架构带来什么新的挑战?

  • EP跨节点传输,要解决传输与计算并行的问题;
  • EP多节点联动,要解决数据分发汇总,负载均衡等问题;

大规模的跨节点专家并行EP的部署与策略是怎么样的?

由于V3/R1的专家数量众多,并且每层256个专家中仅激活其中8个,DeepSeek采用多机多卡间的专家并行策略来达到以下目的:

  • Prefill预填充阶段:路由专家EP-32、MLA和共享专家DP-32,一个部署单元是4节点,32个冗余路由专家,每张卡9个路由专家和1个共享专家;
  • Decode解码阶段:路由专家EP-144、MLA和共享专家DP-144,一个部署单元是18节点,32个冗余路由专家,每张卡2个路由专家和1个共享专家;

这两个阶段的负载均衡策略各不相同。

如何解决计算与传输并行的问题?

多机多卡的专家并行会引入比较大的通信开销,所以DeepSeek使用双向通道,提高整体吞吐。

  • 预填充阶段:计算和通信交错进行,一个通道计算的时候,另一个通道通信。

  • 解码阶段类似:计算与通讯交错进行,通过流水线来实现计算和通信的重叠。

如何最大程度的负载均衡?

由于采用了很大规模的数据并行与专家并行,如果某个GPU的计算或通信负载过重,单个长尾将成为整个系统的瓶颈。与此同时其他GPU因为等待而空转,造成整体资源利用率下降。因此必须尽可能地为每个GPU平均分配计算负载、通信负载。

预填充阶段(prefilling stage):

  • 专家组分配到节点,保证节点负载均衡;
  • 节点内复制专家;
  • 专家分配到GPUs,保证GPUs负载均衡;

解码阶段(decoding stage):

  • 全局复制专家,不管专家在哪个组;
  • 专家分配到GPUs,保证GPUs负载均衡;

总而言之,保证负载均衡,充分发挥GPUs的潜力,提升训练效率,缩短训练时间。

其整体架构如下:

V3/R1的所有GPU均使用H800 GPU:

  • 矩阵计算,分发:采用FP8格式;
  • 核心注意力计算,合并:采用BF16格式;

同时兼顾效率与质量。

另外,由于白天的服务负荷高,晚上的服务负荷低,因此DeepSeek实现了一套机制:

  • 在白天负荷高的时候,所有节点部署推理服务;
  • 晚上负荷低的时候,减少推理节点,以用来做研究和训练;

综上所述,如果所有tokens全部按照R1的定价计算,理论上DeepSeek一天的总收入为$562,027,成本利润率545%。

到这里,DeepSeek开源周的所有7个项目就写完了,最后再来个汇总:

1. 《FlashMLA:GPU告诉解码器

2. 《DeepEP:MOE与EP通讯库

3. 《DeepGEMM:FP8通用矩阵乘法库

4. 《DualPipe:双向管道并行算法

5. 《EPLB:EP动态负载均衡算法

6. 《3FS:高性能分布式文件系统

7. 《V3/R1架构设计思路(本文)》

补充阅读材料:https://github.com/deepseek-ai/

官方git,可参考。

责任编辑:赵宁宁 来源: 架构师之路
相关推荐

2025-03-03 08:17:00

DeepSeek模型数据

2025-03-03 09:00:00

DeepSeekAI人工智能

2025-03-03 08:21:00

2025-02-26 11:16:18

2025-03-03 08:46:27

2024-12-30 20:32:36

2025-02-26 10:11:01

2025-02-26 11:13:51

2025-02-20 15:32:28

2025-01-27 12:30:07

2015-04-14 11:50:10

Info仓库管理

2025-02-03 06:00:00

2012-08-16 10:07:05

思科

2025-02-07 13:10:06

2025-02-06 17:00:40

2024-12-30 09:25:00

数据训练摩擦

2015-06-11 09:57:06

2025-02-25 08:20:50

AI程序员DeepSeek
点赞
收藏

51CTO技术栈公众号