大模型到底需要消耗多少GPU显存?公式和工具全都有

发布于 2024-8-21 09:40
浏览
0收藏

如何计算大模型到底需要多少显存,是常常被问起的问题。

现从实用角度再介绍一个简单公式和一个工具方便大家工作中使用。

1)估算公式(该公式来自于Sam Stoelinga简化[1])

大模型到底需要消耗多少GPU显存?公式和工具全都有-AI.x社区

符号

描述

M

用千兆字节 (GB) 表示的 GPU 内存

P

模型中的参数数量。例如,一个 7B 模型有 7 亿参数。

4B

4 字节,即每个参数使用的字节数

32

4 字节中有 32 位

Q

加载模型时应使用的位数,例如 16 位、8 位或 4 位。

1.2

表示在 GPU 内存中加载额外内容的 20% 开销。

注意:该公式只是为了简化计算的估计,并未包含kvcache所需显存以及context大小的影响。

下面以运行16位精度的 Llama 70B 模型所需的 GPU 内存为例套用公式:

该模型有 700 亿参数。

M = (70 ∗ 4) / (32 / 16) ∗ 1.2 ≈ 168GB

由此可见,模型所需的 GPU 内存相当大。单个 80GB 的 A100 GPU 不足以满足需求,需要多个A100 GPU才能跑的起来。

如何进一步减少 Llama 2 70B 所需的 GPU 内存?

量化(Quantization)是一种减少内存占用的方法。通过将模型参数的精度从浮点数降低到低位表示(如 8 位整数),量化显著降低了内存和计算需求,使模型在资源有限的设备上更高效地部署。然而,这需要仔细管理以保持模型的性能,因为降低精度可能会影响输出的准确性。

通常认为 8 位量化能实现与 16 位精度相似的性能。而 4 位量化可能会显著影响模型的性能。

让我们再举一个 4 位量化的 Llama 2 70B 的例子:

M = (70 ∗ 4) / (32 / 4) ∗ 1.2 ≈ 42GB

这意味着你可以使用 2 个 24GB 的 L4 GPU 来运行这个模型。

2)评估工具:

大模型到底需要消耗多少GPU显存?公式和工具全都有-AI.x社区

在此基础上,介绍一个能够自动计算显存能载入运行多大参数量模型的程序[2],它的输入如下:

  • 可用的 RAM(以 GB 为单位)
  • 估计操作系统 RAM 使用量(以 GB 为单位)
  • 上下文窗口大小(Token 数量)
  • 量化级别(Quantization level,每个参数的比特数)

计算过程:

  1. 将可用的 RAM 和操作系统的开销从 GB 转换为字节数。
  2. 通过将 Token 数量乘以 0.5 MB 并转换为字节数来计算上下文窗口所需的内存。
  3. 通过从总可用 RAM 中减去操作系统开销和上下文窗口内存,计算出可用的 RAM(以字节为单位)。
  4. 将量化级别从比特转换为每个参数的字节数。
  5. 通过将可用 RAM 除以每个参数的字节数来计算最大参数数量。
  6. 将结果从参数转换为以十亿为单位的参数数量进行显示。

确定上述输入后就能直接看到能够支持的最大参数量,如果计算出的最大参数量为负值,这表示上下文窗口大小对于可用的 RAM 来说太大了。在这种情况下,程序会显示一个错误信息,建议用户减少上下文窗口大小或增加可用的 RAM。

参考: 

[1]https://www.substratus.ai/blog/calculating-gpu-memory-for-llm

[2]​​https://github.com/RayFernando1337/LLM-Calc​


收藏
回复
举报
回复
相关推荐