MPI
collective Communication Routines
标题与point to point 主要区别: 引发group一面
不是所有的process
而是我们call的那个comm的group里面的所有的 MPI_task
同时执行
大家一起call work
API
1.MPI_Barrier(comm)
当指定commz中的每一个program执行到该处,准备就绪时,才同时进行后续操作,说明collective comm 其实是一种同步执行方式,并且对所有program阻塞至同步
2.MPI_Bcast(&buffer,count,datatype,root,comm)
将指定root(task id)中的指定内容(buffer)复制到其他每一个task
3.MPI_Scatter(&sendbuf,sendcnt,sendtype, &recvbuf,recvcnt,recvtype,root,comm)
sendcnt与recvcnt的值通常是相同的(分配出去的大小),sender一次分一个recver大小的内容给resver,直至分完为止(多出来的也不再进行分配),后续task得不到消息,为空
4.MPI_Gather(&sendbuf,sendcnt,sendtype,&recvbuf,recvcnt,recvtype,root,comm)
与MPI_Scatter恰好相反,将个task的内容收集到一个task中,所以此时需要recv有足够的空间,常用于平行计算结束后,将资料收集起来 ,由一个task将其写入file.
5.MPI_Reduce(&sendbuf,&recvbuf,count,datatype,op,dest,comm)
与Gather很像,将其他task的内容聚集起来,但是同时进行了相应操作,op的取值对应不同的操作,(dest:代表resv的taskid)
6.MPI_Allgather(&sendbuf,sendcount,sendtype,&recvbuf,recvcount,rectype,comm)
类似于gather,只不过是该comm下所有task均进行gather
7.MPI_Allreduce(&sendbuf,&recvbuf,count,datatype,op,comm)
同上
还存在很多API,虽然collective Comm 是同步,并且以上操作针对每一个task而言相同,但是通过不同的API和参数,可以实现分配任务的具体化和数量化,可以不同
Group and Communicator Management Routines
1.创建新的group
实际代码:
问题:
1.(rank < numtasks/2) ,将原task进行分组时,必须使每一个task都能call到MPI_Group_incl(),但是,我们使用intrank1[4] = {0,1,2,3}, rank2[4] = {5,6,7,8}两个数组来区分task进行实际匹配,所以task=4这个不会分到这两个组中。
2.执行结束后,0123实现同步化,5678实现同步化
但是两个新组均使用new_group和new_comm命名
在后续操作中如何区分这两者新组,如何分别管理呢?
不用担心,虽然变量名相同,但是内存地址等均不相同,可以区分
MPI_IO
colllective:并行读取,效能高,但是这里就多了一种中间读取的过程,当文件很大,且只有少数task需要读取时,使用independent I/O,更方便,更有效