MPI

MPI

collective Communication Routines

标题与point to point 主要区别: 引发group一面
不是所有的process
而是我们call的那个comm的group里面的所有的 MPI_task
同时执行
大家一起call work

API

1.MPI_Barrier(comm)

当指定commz中的每一个program执行到该处,准备就绪时,才同时进行后续操作,说明collective comm 其实是一种同步执行方式,并且对所有program阻塞至同步
在这里插入图片描述

2.MPI_Bcast(&buffer,count,datatype,root,comm)

将指定root(task id)中的指定内容(buffer)复制到其他每一个task
在这里插入图片描述

3.MPI_Scatter(&sendbuf,sendcnt,sendtype, &recvbuf,recvcnt,recvtype,root,comm)

sendcnt与recvcnt的值通常是相同的(分配出去的大小),sender一次分一个recver大小的内容给resver,直至分完为止(多出来的也不再进行分配),后续task得不到消息,为空
在这里插入图片描述

4.MPI_Gather(&sendbuf,sendcnt,sendtype,&recvbuf,recvcnt,recvtype,root,comm)

与MPI_Scatter恰好相反,将个task的内容收集到一个task中,所以此时需要recv有足够的空间,常用于平行计算结束后,将资料收集起来 ,由一个task将其写入file.
在这里插入图片描述

5.MPI_Reduce(&sendbuf,&recvbuf,count,datatype,op,dest,comm)

与Gather很像,将其他task的内容聚集起来,但是同时进行了相应操作,op的取值对应不同的操作,(dest:代表resv的taskid)
在这里插入图片描述

6.MPI_Allgather(&sendbuf,sendcount,sendtype,&recvbuf,recvcount,rectype,comm)

类似于gather,只不过是该comm下所有task均进行gather

7.MPI_Allreduce(&sendbuf,&recvbuf,count,datatype,op,comm)

同上
在这里插入图片描述
还存在很多API,虽然collective Comm 是同步,并且以上操作针对每一个task而言相同,但是通过不同的API和参数,可以实现分配任务的具体化和数量化,可以不同

Group and Communicator Management Routines

1.创建新的group

在这里插入图片描述
实际代码:
在这里插入图片描述
问题:
1.(rank < numtasks/2) ,将原task进行分组时,必须使每一个task都能call到MPI_Group_incl(),但是,我们使用intrank1[4] = {0,1,2,3}, rank2[4] = {5,6,7,8}两个数组来区分task进行实际匹配,所以task=4这个不会分到这两个组中。
2.执行结束后,0123实现同步化,5678实现同步化
但是两个新组均使用new_group和new_comm命名
在后续操作中如何区分这两者新组,如何分别管理呢?
不用担心,虽然变量名相同,但是内存地址等均不相同,可以区分

MPI_IO

在这里插入图片描述
在这里插入图片描述
colllective:并行读取,效能高,但是这里就多了一种中间读取的过程,当文件很大,且只有少数task需要读取时,使用independent I/O,更方便,更有效
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值