NCCL源码详解1:NCCL官网使用/调用案例 Example : One Device per Process or Thread包含视频教程

Nvidia NCCL使用/调用步骤源码解读(单设备单进程为例):

步骤总结:

通过MPI获取本机rank(可理解为进程)数量localrank,用于rank绑定GPU;

rank0获取NCCL通信组ID,并通过MPI_Bcast广播给其它rank;

借助MPI获取的这些信息NCCL完成初始化,并进行集合通信。

核心步骤:

1、初试化和启动MPI通信。

2、计算主机名的哈希值,并MPI_allgather通信使得每个rank(进程)都获取其它rank的哈希值。

3、根据获取的哈希值,比较得到该rank所在的主机参与通信的rank总数localrank(哈希值相同的rank在同一主机上)。(哈希值就是主机名,其实可以用主机名来获取主机上参与通信的总rank数,只是主机命名五花八门,哈希值更容易比较)

4、rank0上获取NCCL的唯一ID,并MPI_Bcast广播给其它rank。(这个唯一的ID是用来标识通信组,因此所有通信组中的rank有相同的ID)

5、基于localrank绑定GPU,并分配发送接收缓冲区,创建CUDA流。

6、初始化NCCL通信器。

7、nccl allreduce通信。同步CUDA流,确保通信完成。

8、释放缓冲区。

9、销毁通信器。

10、终止MPI环境

视频教程

哈哈哈,后续视频教程都在B站更新

1.1 NCCL官网案例源码详解One Device per Process or Thread_哔哩哔哩_bilibili

对应源码

int main(int argc, char* argv[])  

{  

  // 定义一个整数变量size,代表缓冲区大小为32MB  
  int size = 32*1024*1024;  

  // 定义MPI相关的变量,包括当前进程的排名(myRank)、总进程数(nRanks)和本地排名(localRank)  
  int myRank, nRanks, localRank = 0;  

  

   1、初试化和启动MPI通信
  MPICHECK(MPI_Init(&argc, &argv));  

  // 获取当前进程的排名  
  MPICHECK(MPI_Comm_rank(MPI_COMM_WORLD, &myRank));  
  // 获取总进程数  

  MPICHECK(MPI_Comm_size(MPI_COMM_WORLD, &nRanks));  

  
  / 2、计算主机名的哈希值,并MPI_allgather通信使得每个rank(进程)都获取其它rank的哈希值。
  // 基于主机名哈希计算localRank,用于选择GPU  
  uint64_t hostHashs[nRanks];  
  char hostname[1024];  
  getHostName(hostname, 1024); // 获取主机名  
  hostHashs[myRank] = getHostHash(hostname); // 计算主机名的哈希值  

  // 使用MPI_Allgather收集所有进程的哈希值  
  MPICHECK(MPI_Allgather(MPI_IN_PLACE, 0, MPI_DATATYPE_NULL, hostHashs, sizeof(uint64_t), MPI_BYTE, MPI_COMM_WORLD));  

  
  ///3、根据获取的哈希值,计算得到(哈希值相同的rank在同一主机上)该rank所在的主机参与通信的rank总数。(哈希值就是主机名,其实可以用主机名来获取主机上参与通信的总rank数,只是主机命名五花八门,哈希值更容易比较)//
  // 计算localRank,即具有相同主机哈希值的进程数(不包括当前进程)  
  for (int p=0; p<nRanks; p++) {  

     if (p == myRank) break; // 如果是当前进程,则跳出循环  

     if (hostHashs[p] == hostHashs[myRank]) localRank++; // 如果哈希值相同,则localRank加1  

  }  

  

  // NCCL相关的变量,包括唯一ID(id)和通信器(comm)  

  ncclUniqueId id;  

  ncclComm_t comm;  

  // 定义CUDA相关的变量,包括发送和接收缓冲区(sendbuff, recvbuff)以及CUDA流(s)  

  float *sendbuff, *recvbuff;  

  cudaStream_t s;  

  
  ///4、rank0上获取NCCL的唯一ID,并MPI_Bcast广播给其它rank。(这个唯一的ID是用来标识通信组,因此所有通信组中的rank有相同的ID)
  // 在rank 0上获取NCCL的唯一ID,并使用MPI_Bcast广播给所有其他进程  
  if (myRank == 0) ncclGetUniqueId(&id);  
  MPICHECK(MPI_Bcast((void *)&id, sizeof(id), MPI_BYTE, 0, MPI_COMM_WORLD));  

  
  5、基于localrank绑定GPU,并分配发送接收缓冲区,创建CUDA流。
  // 基于localRank选择GPU,并分配设备缓冲区  
  // CUDACHECK是一个宏,用于检查CUDA函数的返回值  

  CUDACHECK(cudaSetDevice(localRank)); // 设置CUDA设备  

  CUDACHECK(cudaMalloc(&sendbuff, size * sizeof(float))); // 分配发送缓冲区  

  CUDACHECK(cudaMalloc(&recvbuff, size * sizeof(float))); // 分配接收缓冲区  

  CUDACHECK(cudaStreamCreate(&s)); // 创建一个CUDA流  

  

  /6. 初始化NCCL通信器///  

  NCCLCHECK(ncclCommInitRank(&comm, nRanks, id, myRank));  

  

  //7、使用NCCL进行AllReduce操作 //

  // 此操作将sendbuff中的值在所有进程中求和,并将结果放在recvbuff中  

  NCCLCHECK(ncclAllReduce((const void*)sendbuff, (void*)recvbuff, size / sizeof(float), ncclFloat, ncclSum, comm, s));  

  // 注意:size / sizeof(float) 是因为ncclAllReduce需要元素数量,而不是字节数  

  

  // 同步CUDA流以确保NCCL操作完成  

  CUDACHECK(cudaStreamSynchronize(s));  

  

  //8、释放设备缓冲区///  

  CUDACHECK(cudaFree(sendbuff));  

  CUDACHECK(cudaFree(recvbuff));  

  

  // 9、销毁NCCL通信器/  

  ncclCommDestroy(comm);  

  

  ///10、 终止MPI环境 / 

  MPICHECK(MPI_Finalize());


  printf("[MPI Rank %d] Success \n", myRank);
  return 0;
}

 源码来源Nvidia NCCL官方文档 Example 2: One Device per Process or Thread:Examples — NCCL 2.21.5 documentation (nvidia.com)

下期预告:

NCCL源码解读2:ncclGetUniqueId(&id)函数源码解读,通信初始化如何获取唯一ID UniqueID

NCCL源码详解2:通信初始化ncclGetUniqueId()中ncclInit()、bootstrapGetUniqueId()包含视频教程-CSDN博客

  • 6
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值