MPI的6个基本函数
- MPI_Init
任何MPI程序都应该首先调用该函数。 此函数不必深究,只需在MPI程序开始时调用即可(必须保证程序中第一个调用的MPI函数是这个函数)。
MPI_Init(&argc, &argv) //C++ & C
int main(int argc,char argv[])
{
MPI_Init(&argc,&argv);
}
- MPI_Finalize
任何MPI程序结束时,都需要调用该函数。
MPI_Finalize() //C++
- MPI_COMM_RANK
int MPI_Comm_Rank(MPI_Comm comm, int *rank)
该函数是获得当前进程的进程标识,如进程0在执行该函数时,可以获得返回值0。可以看出该函数接口有两个参数,前者为进程所在的通信域,后者为返回的进程号。通信域可以理解为给进程分组,比如有0-5这六个进程。可以通过定义通信域,来将比如[0,1,5]这三个进程分为一组,这样就可以针对该组进行“组”操作,比如规约之类的操作。MPI_COMM_WORLD是MPI已经预定义好的通信域,是一个包含所有进程的通信域,目前只需要用该通信域即可。
在调用该函数时,需要先定义一个整型变量如myid,不需要赋值。将该变量传入函数中,会将该进程号存入myid变量中并返回。
比如,让进程0输出Hello,让进程1输出Hi就可以写成如下方式。
#include "mpi.h"
int main(int *argc,char* argv[])
{
int myid;
MPI_Init(&argc,&argv);
MPI_Comm_Rank(MPI_COMM_WORLD,&myid);
if(myid==0)
{
printf("Hello!");
}
if(myid==1)
{
printf("Hi!");
}
MPI_Finalize();
}
- MPI_COMM_SIZE
该函数是获取该通信域内的总进程数,如果通信域为MP_COMM_WORLD,即获取总进程数,使用方法和MPI_COMM_RANK相近。
int MPI_Comm_Size(MPI_Comm, int *size)
- MPI_SEND
该函数为发送函数,用于进程间发送消息,如进程0计算得到的结果A,需要传给进程1,就需要调用该函数。
int MPI_Send(type* buf, int count, MPI_Datatype, int dest, int tag, MPI_Comm comm)
该函数参数过多,不过这些参数都很有必要存在。
这些参数均为传入参数,其中buf为你需要传递的数据的起始地址,比如你要传递一个数组A,长度是5,则buf为数组A的首地址。
count即为长度,从首地址之后count个变量。
datatype为变量类型,注意该位置的变量类型是MPI预定义的变量类型,比如需要传递的是C++的int型,则在此处需要传入的参数是MPI_INT,其余同理。
dest为接收的进程号,即被传递信息进程的进程号。
tag为信息标志,同为整型变量,发送和接收需要tag一致,这将可以区分同一目的地的不同消息。比如进程0给进程1分别发送了数据A和数据B,tag可分别定义成0和1,这样在进程1接收时同样设置tag0和1去接收,避免接收混乱。
- MPI_RECV
该函数为MPI的接收函数,需要和MPI_SEND成对出现。
int MPI_Recv(type* buf, int count, MPI_Datatype, int source, int tag, MPI_Comm comm, MPI_Status *status)
参数和MPI_SEND大体相同,不同的是source这一参数,这一参数标明从哪个进程接收消息。最后多一个用于返回状态信息的参数status。
在C和C++中,status的变量类型为MPI_Status,分别有三个域,可以通过status.MPI_SOURCE,status.MPI_TAG和status.MPI_ERROR的方式调用这三个信息。这三个信息分别返回的值是所收到数据发送源的进程号,该消息的tag值和接收操作的错误代码。
SEND和RECV需要成对出现,若两进程需要相互发送消息时,对调用的顺序也有要求,不然可能会出现死锁或内存溢出等比较严重的问题。
Example 1:
MPI_Init(&argc,&argv);
MPI_Comm_rank(MPI_COMM_WORLD,&myid); //得到的变量myid即为当前的进程号
//假设要求和的数组为A={[1,1,1,1],[2,2,2,2]}
if(myid==0)
{
memset(A,1,sizeof(int)); //将数组A全赋值为1
}
else if (myid==1)
{
memset(A,2,sizeof(int)); //将数组A全赋值为2
}
//以上部分是将数组的两行分别存储到进程0和进程1上
for(int i=0;i<4;i++)
{
s=s+A[i];
}
if(myid==1)
{
MPI_Send(s,1,MPI_INT,0,99,MPI_COMM_WORLD);
//将求和结果s发送到进程0
}
if(myid==0)
{
MPI_Recv(s1,1,MPI_INT,1,99,MPI_COMM_WORLD,&status);
//用s1这个变量来存储从进程1发送来的求和结果
s=s+s1;
}
printf("%d",&s);
MPI_Finalize();
摘自:
https://zhuanlan.zhihu.com/p/357551507utm_source=wechat_session&utm_medium=social&utm_oi=988415255990575104&utm_campaign=shareopn
Example 2:
下面介绍一个简单的同时包含发送和接收调用的例子:
其中一个进程进程0向另一个进程进程1发送一条消息该消息是一个字符串Hello,
process 1进程1在接收到该消息后将这一消息打印到屏幕上。
#include "mpi.h"
main( argc, argv )
int argc;
char **argv;
{
char message[20];
int myrank;
MPI_Init( &argc, &argv );
/* MPI程序的初始化*/
MPI_Comm_rank( MPI_COMM_WORLD, &myrank );
/* 得到当前进程的标识*/
if (myrank == 0)
/* 若是 0 进程*/
{
/* 先将字符串拷贝到发送缓冲区message中,然后调用MPI_Send语句,将它发出用strlen(message)指定消息的长度。
用MPI_CHAR指定消息的数据类型1,指明发往进程1使用的消息标识是99,MPI_COMM_WORLD是包含本进程进程0和接收消息的进程。
进程1的通信域发送方和接收方必须在同一个通信域中由通信域来统一协调和控制消息的发送和接收*/
trcpy(message,"Hello, process 1");
MPI_Send(message, strlen(message), MPI_CHAR, 1, 99,MPI_COMM_WORLD);
}
else if(myrank==1)
/* 若是进程 1 */
{
/*进程1直接执行接收消息的操作,这里它使用message作为接收缓冲区,由此可见对于同一个变量在发送进程和接收进程中
的作用是不同的。它指定接收消息的最大长度为20,消息的数据类型为MPI_CHAR字符型,接收的消息来自进程0,
而接收消息携带的标识必须为99,使用的通信域也是MPI_COMM_WORLD,接收完成后的各种状态信息存放在status中。
接收完成后它直接将接收到的字符串打印在屏幕上*/
MPI_Recv(message, 20, MPI_CHAR, 0, 99, MPI_COMM_WORLD, &status);
printf("received :%s:", message);
}
MPI_Finalize();
/* MPI程序结束*/
}
匹配规则