用MPI_Send和MPI_Recv实现简单集群通信函数

本片博客总结自我《并行计算》MPI实验

在这里我用阻塞式消息传递函数MPI_Send、MPI_Recv和非阻塞式消息发送函数MPI_Isend实现了三个简单的集群通信函数:

  • MPI_Bcast广播函数
  • MPI_Gather收集函数
  • MPI_Scatter散播函数

1.MPI_Bcast广播函数

(1)原型简介

void MPI_Bcast(void* address, int count, MPI_Datatype datatype, int root, MPI_Comm comm);

MPI_Bcast实现将root节点的address地址处长度为count的datatype类型的数据发送给其他节点。其他节点接收这块数据的内存空间也是一块以address为起始地址,长度为count * MPI_Type_size(datatype)的内存区域。

(2)实现
实现逻辑为:

若节点为root则接收来自所有其他除root以外的节点的消息,否则向root节点发送一条消息。

广播比较简单,直接看代码:

void My_Bcast(void* sendAddress, int count, MPI_Datatype datatype, int root, MPI_Comm comm) {
    int rank, size, i;
    MPI_Status status;
    int tag = 100;

    MPI_Comm_rank(MPI_COMM_WORLD, &rank);
    MPI_Comm_size(MPI_COMM_WORLD, &size);

    if (rank == root) {
        for (i = 0; i < size; i++) {
            if (i != root) {
                MPI_Send(sendAddress, count, datatype, i, tag, comm);
            }
        }
    } else {
        MPI_Recv(sendAddress, count, datatype, root, tag, comm, &status);
    }
}

2.MPI_Gather收集函数

(1)原型简介

void MPI_Gather(void* sendAddress, int sendCount, MPI_Datatype sendDatatype, void* recvAddress, int recvCount, MPI_Datatype recvDatatype, int root, MPI_Comm comm);

MPI_Gather实现将所有节点的sendAddress为起始地址、长度为sendCount的sendDatatype类型数据,发送到root节点以recvAddress为起始地址、长度为MPI_Comm_size * recvCount * MPI_Type_size(recvDatatype)的内存区域。并且。是按照进程序号rank依次排列所有节点发送的数据,即序号为i的节点发送给root节点的数据接收内存的起始地址是recvAddress + i * recvCount * MPI_Type_size(recvDatatype)。

因为这次是初学并行计算第一次用MPI编程,这里有个疑问:为什么不强制要求recvDatatype == sendDatatype && recvCount == sendCount?如果不统一不会造成内存泄漏?我测试recvCount != sendCount虽然没有Segment Fault,但结果全乱了

(2)实现

我下面的实现没有考虑datatype和count不一致的问题,均默认相同!

实现逻辑为:

当前节点向root节点发送一条消息,如果当前节点是root节点则枚举接收来自所有节点的消息。

注意:这时root节点需要向它自己发送一条消息,如果用标准通信模式(MPI管理消息缓存的通信模式,MPI_Send和MPI_Recv均属于这种模式,详见陈国良老师《并行计算》P418页通信模式介绍或Google),由于MPI_Send和MPI_Recv是阻塞式通信且它们共用同一缓冲区,那么同一节点即调用MPI_Send又调用MPI_Recv将会由于缓冲区资源冲突造成死锁!

解决方法是用非阻塞的发送函数MPI_Isend

代码如下:

void My_Gather(void* sendAddress, int sendCount, MPI_Datatype sendDatatype, void* recvAddress, int recvCount, MPI_Datatype recvDatatype, int root, MPI_Comm comm) {

    int rank, size, i;
    int tag = 101;
    MPI_Status status;
    MPI_Request request;

    MPI_Comm_rank(MPI_COMM_WORLD, &rank);
    MPI_Comm_size(MPI_COMM_WORLD, &size);

    MPI_Isend(sendAddress, sendCount, sendDatatype, root, tag, comm, &request);
    if (rank == root) {
        int tsize;
        MPI_Type_size(recvDatatype, &tsize);
        for (i = 0; i < size; i++) {
            MPI_Recv(recvAddress + i * recvCount * tsize, recvCount, recvDatatype, i, tag, comm, &status);
        }
    }
}

代码中需要注意的是root节点每次MPI_Recv起始地址的计算公式,需要调用MPI_Type_size(recvDatatype, &tsize)获取datatype类型的字节长度。


3.MPI_Scatter散播函数

(1)原型简介

void MPI_Scatter(void* sendAddress, int sendCount, MPI_Datatype sendDatatype, void* recvAddress, int recvCount, MPI_Datatype recvDatatype, int root, MPI_Comm comm);

MPI_Scatter和MPI_Gather互为逆向函数,MPI_Gather搜集所有节点的数据依次拼接存放在root节点中一块类似于数组的连续区域当中,而MPI_Scatter相当于把root节点中一块类似于数组的连续区域分割成size块依次分发给所有节点。其参数列表和MPI_Gather相同,不再解释。

(2)实现

我下面的实现没有考虑datatype和count不一致的问题,均默认相同!

实现逻辑为:

判断该节点是否是root节点,若是则向所有节点发送一条消息(非阻塞MPI_Isend)。然后该节点接收一条来自于root的消息。

和之前的一样,涉及到同一节点之间的消息传递,需要用非阻塞通信。我尝试过先非阻塞Recv再阻塞Send,运行结果不对,后来思考确实有问题:root节点非阻塞Recv若先于其他几诶但阻塞Send执行,这个Recv什么消息也接收不到就结束了(非阻塞Recv查看一次缓冲区不管有没有消息均结束,有则返回消息没有则返回空消息,详见其定义)。

代码如下,仍需注意root节点发送数据的起始地址:

void My_Scatter(void* sendAddress, int sendCount, MPI_Datatype sendDatatype, void* recvAddress, int recvCount, MPI_Datatype recvDatatype, int root, MPI_Comm comm) {

    int rank, size, i;
    int tag = 102;
    MPI_Request request;
    MPI_Status status;

    MPI_Comm_rank(MPI_COMM_WORLD, &rank);
    MPI_Comm_size(MPI_COMM_WORLD, &size);


    if (rank == root) {
        int tsize;
        MPI_Type_size(sendDatatype, &tsize);
        for (i = 0; i < size; i++) {
            MPI_Isend(sendAddress + i * sendCount * tsize, sendCount, sendDatatype, i, tag, comm, &request);
        }
    }

    MPI_Recv(recvAddress, recvCount, recvDatatype, root, tag, comm, &status);
}
C语言 MPI(Message Passing Interface)是一种用于并行计算的标准化通信协议。MPI_Isend函数用于非阻塞发送消息。下面给出一个C语言MPI_Isend的代码示例: #include <stdio.h> #include <mpi.h> int main(int argc, char** argv) { int rank, size, msg; MPI_Request req; MPI_Status status; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD, &rank); MPI_Comm_size(MPI_COMM_WORLD, &size); if (rank == 0) { msg = 10; MPI_Isend(&msg, 1, MPI_INT, 1, 0, MPI_COMM_WORLD, &req); MPI_Wait(&req, &status); printf("Process %d sent message %d\n", rank, msg); } else if (rank == 1) { MPI_Irecv(&msg, 1, MPI_INT, 0, 0, MPI_COMM_WORLD, &req); MPI_Wait(&req, &status); printf("Process %d received message %d\n", rank, msg); } MPI_Finalize(); return 0; } 以上代码展示了两个进程之间的非阻塞通信。在此示例中,进程0发送一个整型变量10给进程1,进程1接收该消息并打印出来。我们可以看到,在MPI_Isend函数调用后,没有等待该函数执行完毕,而是直接打印出了“Process 0 sent message 10”这句话。这说明该函数是非阻塞的,可以让程序继续执行其他任务。 MPI_Isend函数的参数依次为:消息的地址、消息的数量、消息的类型、目标进程的排名、消息的标签、通信子(MPI_COMM_WORLD表示全局通信子)、请求对象。MPI_Irecv函数的参数与MPI_Isend函数类似,但是少了请求对象这个参数。在MPI_Isend函数调用后,需要调用MPI_Wait函数等待消息发送完毕。在MPI_Irecv函数调用后,需要调用MPI_Wait函数等待接收到消息。如果只想等待MPI_IsendMPI_Irecv中的其中一个函数完成,可以使用MPI_Waitany或MPI_Waitsome函数。 以上就是C语言MPI_Isend的代码示例。MPI提供了非阻塞通信和阻塞通信两种方式,开发者可以选择适合自己应用的通信方式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值