微信扫码
与创始人交个朋友
我要投稿
许多硬件厂商的芯片开始支持 FP8 的计算,如英伟达最新的两种架构 Ada (4090) 和 Hopper (H100)。它们的 Tensor Core 计算单元都开始支持 FP8 的计算,如图所示:
在 H100 的第四代 Tensor Core 中,支持任意的 FP8 格式矩阵的乘法 (E4M3xE4M3, E5M2xE5M2, E4M3xE5M2, E5M2xE4M3)
然后会进行累加到 FP32 和 FP16 的数据格式之中
同时也支持浮点格式之间的互相转换,如下图
FP8 Tensor Cores 比 16-bit Tensor Cores 快
减少 memory movement
如果模型已经在 FP8 中进行,部署更加方便
FP8 拥有更宽的动态范围
FP8 到 FP16/FP32/BF16 之间的转换电路,可以设计得更简单直接,而不需要像INT8/UINT8到FP的转化需要乘法和加法的开销。
先简单回顾一下浮点数的表示方式:
浮点数根据 Exponent 的值会分为规格化,非规格化和特殊值 (无穷和NAN)。
规格化的值计算公式如下:
在 Tensor Cores 中,根据指数位和小数位的不同,支持 E5M2 和 E4M3
下面分别来看看它们的浮点数表示方法:
E5M2 遵循上面的 IEEE 754 的浮点数格式,其中 bias = 15
规格化的值 (指数位不全为 0 /不全为 1)eg: 0 | 01101 | 01 ,如下图
易得最大值和最小值
如果指数位和小数位都为 0,则表示 0同时,易得非规格化的最大值最小值
特殊值 (指数位全为 1)
特殊值根据小数位的不同分为 无穷 (Infinites) 和 NaN (Not a number),表示如下:
E4M3 不完全遵循 IEEE 754 的数据格式,主要不同在于当指数位全为1时,一样可以用来表示规格化的值(当小数位不为1),而且不能用来表示 Infinites。其中, bias = 7
计算方式还是一样的,综合一下,可参考下图:
根据表示的方式,可以把浮点数看成 2 的幂之间的 个样本的精度,比如在 E5M2 中,2 和 4 之间会有 4 个样本,4 和 8 之间也会有 4 个样本;在 E4M3 中,2 和 4 之间有 16 个样本。通过这一特性,可以容易得出浮点量化的误差会随着数值变化的增大而增大。
先试想一下,模型的权重如果都是 [-2, 2],它们原本的数据格式都是 FP32,如果你想把它转换成 FP8,其实只需要一个 round 函数。
eg: 易得 FP8 E5M2 在 [1,2] 之间的数为 [1, 1.25, 1.5, 1.75],fp32 的值为 1.4445,那么 fp8 = round(1.4445) = 1.5
不过,FP8 E4M3 的表示范围为 [-448, 448],明显远远小于正常的 FP32 表示的范围。在一些应用上肯定还是无法表示的,办法就是引入一个缩放因子 scale,使得原 Tensor 的值可以在 FP8 的表示范围下表示,如图:
所以对于一个 FP32 的数,要想转换成 FP8, 只需要两步:
Unscaled FP32 = FP32 / scale
FP8 = Convert(Unscaled FP32)
第一步,就是尽可能地把 FP32 的数据放到 FP8 的表示范围内。
eg: 假设有 fp32 数组 [1000.0, 23.0, 123.123],最简单的操作类似于 “minmax”,所有数除以 1000.0/448, 得到 Unscaled FP32 数组 [448, 10.304, 55.104]。
第二步,其实就是上面所说的 Rounding 了,FP8 表示不了精确的 10.304 和 55.104。具体方法可见FP8 量化-原理、实现与误差分析
这里提供两种较为容易理解的方法:
第一种 (from Nvidia):
假设是 Per-Tensor 的量化,就是找到整个 Tensor 中的最大值,而为了减少找全局最大值带来的 memory consumption, 这里提出了一个基于一个 window, 即找到一个局部的最大值,然后再在这个局部最大值添加一个 margin 在作为 scaling factor
第二种 (from PPQ):
根据 志佬的文章,他发现 FP8 对 scale 的选择并不太敏感,所以在 ppq 中,预设了一些 scale 的候选 [.0078125, .03125, .125, 1.0, 4.0, 16.0, 64.0], 然后通过计算 MSE 损失来选择对应的 scale。
在实际的硬件上,FP8 矩阵运算的大体计算过程如下:
在 H100 中,矩阵乘法的速度提升如下图:
对于 GPT 模型训练速度的提升
对于大部分图像分类的模型 FP8 的精度如下:
可以看到,经过FP8训练后,精度几乎很少下降,而且如下图所示,训练的过程与 FP16 十分相似。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-03-30
2024-05-09
2024-07-07
2024-07-01
2024-06-24
2024-06-08
2024-07-23
2024-06-05
2024-06-21
2024-07-11
2024-10-29
2024-10-22
2024-10-18
2024-10-16
2024-10-15
2024-10-10
2024-10-06
2024-10-01