7

手把手推导Ring All-reduce的数学性质

 2 years ago
source link: https://blog.csdn.net/OneFlow_Official/article/details/124418567
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

手把手推导Ring All-reduce的数学性质

564dce17d66dedbc7dcd4669da0199bf.png

撰文|袁进辉

分布式深度学习里的通信严重依赖于规则的集群通信(见《对抗软件系统复杂性③:恰当分层,不多不少》对通信的讨论),诸如 all-reduce, reduce-scatter, all-gather 等,因此,实现高度优化的集群通信,以及根据任务特点和通信拓扑选择合适的集群通信算法至关重要。

本文以数据并行经常使用的 all-reduce 为例来展示集群通信操作的数学性质。

1

all-reduce 在干什么?

8f276c92ca3a7210125978d4ad35e72a.png

图 1:all-reduce

如图 1 所示,一共 4 个设备,每个设备上有一个矩阵(为简单起见,我们特意让每一行就一个元素),all-reduce 操作的目的是,让每个设备上的矩阵里的每一个位置的数值都是所有设备上对应位置的数值之和。

图 2:使用 reduce-scatter 和 all-gather 实现 all-reduce

如图 2 所示, all-reduce 可以通过 reduce-scatter 和 all-gather 这两个更基本的集群通信操作来实现。基于 ring 状通信可以高效的实现 reduce-scatter 和 all-gather,下面我们分别用示意图展示其过程。

 2

reduce-scatter 的实现和性质

3bdaf05f19c7519842cbfd680d3f277b.png

图 3:通过环状通信实现 reduce-scatter

从图 2 可以看出,reduce-scatter 的结果是每个设备保存一部分 reduce 之后的结果。为了方便讨论,我们先定义一些符号。

假设有p 个设备(上面的例子中 p=4);假设整个矩阵大小是V, 那么 reduce-scatter 后,每个设备上有 39c6495e85b03cac693d2f8df4b7ebe5.png 大小的数据块;假设卡和卡之间通信带宽是0084c545499d64a5fd3fdd2ed951a5ba.png,而且是双工通信(duplex),即每个设备出口和入口带宽可以同时达到13e5cb7f2a112ed808458a930c9a4ffb.png,所有设备的入口带宽总和是 p x9b299228e7df5609966391a8898642a2.png,所有设备的出口带宽总和也是 p x69057eab1eec4b185f422484507a7ef7.png

高效实现一个集群通信的关键是如何充分利用设备和设备之间的带宽,基于环状(ring)通信实现的集群通信算法就是这一思想的体现。我们以 reduce-scatter 为例来看看环状通信算法是怎么工作的。

一共有 p 个设备,每个设备上数据都划分为 p 份,环状 reduce-scatter 一共需要 p-1 步才能完成。

在第 1 步中,每个设备都负责某一块 0983930f89372eebda8930fadaccdc41.png 的数据并向左边的设备发送这块数据,譬如在图 3 中,第 1 个设备负责第 2 片数据并向第 0 个设备发送(也就是第 4 个设备),第 2 个设备负责第 3 片数据并向第 1 个设备发送,第 3 个设备负责第 4 片数据并向第 2 个设备发送,第 4 个设备负责第 1 片数据并向第 3 个设备发送,每个设备收到右边设备的数据后,就把收到的数据累加到本地对应位置的数据上去(通过逐渐变深的颜色表示数据累加的次数更多)。注意,在这样的安排下,每个设备的入口带宽和出口带宽都被用上了,而且不会发生争抢带宽的事情(挑战一下自己,能不能想出比环状通信更厉害的集群通信实现?)。

在第 2 步中,第 1 个设备把累加后的第 3 片数据向第 0 个设备发送(也就是第 4 个设备),第 2 个设备把累加后的第 4 片数据向第 1 个设备发送,第 3 个设备把累加后的第 1 片数据向第 2 个设备发送,第 4 个设备把累加后的第 2 片数据向第 3 个设备发送,每个设备收到右边设备发过来的数据后,就把收到的数据累加到本地对应位置的数据上去(累加后颜色更深)。

在第 3 步中,第 1 个设备把累加后的第 4 片数据向第 0 个设备发送(也就是第 4 个设备),第 2 个设备把累加后的第 1 片数据向第 1 个设备发送,第 3 个设备把累加后的第 2 片数据向第2 个设备发送,第 4 个设备把累加后的第 3 片数据向第 3 个设备发送,每个设备收到右边设备发送过来的数据后,就把收到的数据累加到对应位置的数据上去(累加后颜色更深)。

经过 p-1 步之后,每个设备上都有了一片所有设备上对应位置数据 reduce 之后的数据。整个过程中,每个设备向外发送了 2b2cd235d5518fba29f9d86b0c406bd3.png 大小的数据,也收到了 69cdf06560b9b2eeaa52b6fcf84c5520.png 大小的数据,因为每个设备的出口或入口带宽是542013eaaf648c7e549b36facfc331b7.png,所以整个过程需要的时间是b14ad5f720a936c5013bc26f3e139da4.png,如果 p 足够大,完成时间近似为8c4d42d10e8e920f8ebff6bfcfa93ec5.png,神奇的是,这个时间和设备数 p 无关。当然,在所有设备间传递的数据量是 (p-1)V,和设备数p成正比。

让我们强调一下:基于环状通信的集群通信算法执行时间几乎和设备数无关,但总通信量和设备数成正比。

3

all-gather 的实现和性质

reduce-scatter 执行结束之后,再通过 all-gather 过程就可以实现 all-reduce,其中 all-gather 也可以通过环状通信算法来实现。

fee3b71c9b822a1aba7a2c56907de711.png

图 4 :通过环状通信实现 all-gather

图 4 给出了环状 all-gather 的实现过程,我们就不详细描述了,值得注意的是,它的通信时间和通信量的分析与 reduce-scatter 一模一样:整个过程需要的时间是 87a0f98bdb0b50eabdedf837afff3996.png,如果p足够大,完成时间近似为809b8e2d2458b03badab8147f889196e.png,这个时间和设备数 p无关,当然,在所有设备间传递的数据量是 (p-1)V,和设备数 p 成正比。

不过,请注意在 reduce-scatter 里,V 都是完整矩阵的数据量,即 reduce-scatter 输入矩阵的数据量和 all-gather 输出矩阵的数据量。

4

通信量和冗余显存之间的关系

上文只分析了通信量,而没有分析对设备显存的占用量。以图 3 为例,每个设备上的输入矩阵大小是 V,但经过 reduce-scatter 之后每个设备上只需要 d36d5e2a43db195a404f120f6f50d086.png大小的显存,也就是 114df9985ea3a96bc63ded8634a1429e.png 的空间是冗余的,因为一共有 p个设备,所以整个集群中有 (p-1)V的显存是可以节省下来的。注意,每个设备冗余的显存恰好和每个设备的通信量一致,所有设备冗余的显存和所有设备的总通信量一致。

以图 4 为例,每个设备上的输入矩阵大小是978769591e2fc005cde924567e7256f2.png,但经过 all-gather 之后每个设备上需要的显存是 V,而且每个设备上的矩阵的大小和数值都完全一样,也就是经过 all-gather 之后,在设备之间产生了冗余,不同的设备存储了一些完全一样的数据。同样,每个设备冗余的显存恰好和每个设备的通信量一致,所有设备冗余的显存和所有设备的总通信量一致。

当然,冗余量和通信量之间的等价关系不是偶然的,正是因为这些通信才造成了设备之间数据的冗余。

因此,当保持 不变时,增大设备数 p(我们不妨称 为集群通信的并行宽度)时,所有设备之间的通信量是正比增长的,而且在所有设备上造成的冗余显存是正比例增长的。当然,完成一个特定的集群通信所需要的时间基本和并行宽度 无关。

因此,增加并行宽度 p 是一个双刃剑,一方面它让每个设备处理的数据量更小,即d376170ee6312f60424bd448de017319.png,从而让计算的时间更短,但另一方面,它会需要更多的通信带宽(p-1)V,以及更多的显存空间(p-1)V。

5

环状算法的最优性

我们在前面提了一个问题:你能不能想出比环状算法更好的集群算法实现?答案是,理论上不可能有更好的算法了。

我们已经分析过了要完成 reduce-scatter 和 all-gather 每个设备至少要向外发送(以及同时接收)的数据量是 7662accc2c38e99c78734da15993bae1.png,无论使用什么算法,这个数据量是不可能更少了。

在这个数据量下,最少需要多少时间呢?出口带宽是78e521dcacfe213a813f3d83ba4da493.png,因此一张卡向外发送数据至少需要的时间是09544cde42e204c3eb55ff451c3c572a.png,这也正是环状算法需要的时间。

当然,我们这里的通信时间只考虑传输带宽,而没有考虑每次传输都包含的延迟(latency)。当数据量V比较大时,延迟项可以忽略,上文的分析就是成立的。

当 V 特别小,或者设备数 p 特别大时,带宽207217eb3f0d4e793b1ed36b7342e574.png就变得不重要了,反而是延迟比较关键,这时更好地实现就不是环状算法了,而应该使用树状通信。这也是为什么英伟达 NCCL 里既实现了ring all-reduce,也实现了 double-tree all-reduce 算法(https://developer.nvidia.com/blog/massively-scale-deep-learning-training-nccl-2-4/)。

其他人都在看

欢迎下载体验OneFlow v0.7.0最新版本:GitHub - Oneflow-Inc/oneflow: OneFlow is a performance-centered and open-source deep learning framework.icon-default.png?t=M3K6https://github.com/Oneflow-Inc/oneflow


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK