MPI程序的基本框架:
MPI_Init(&argc,&argv);
MPI_Comm_rank(comm,&rank);
... do something
MPI_Finalize();
有六个MPI基本函数:
int MPI_init(char *argc, char ***argv)
int MPI_Finalize(void)
int MPI_Comm_rank(MPI_Comm comm, int *rank) -- IN comm, OUT rank
提供当前进程在通信域中的进程标识号。
int MPI_Comm_size(MPI_Comm comm, int *size) -- IN comm, OUT size
提供通信域中的进程数量。
int MPI_Send(void* buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) - IN all
消息发送。
int MPI_Recv(void *buf, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Status * status)
IN count, datatype, source, tag, comm. OUT buf, status
消息接收。其中返回状态status需要先行分配空间,至少包括MPI_SOURCE, MPI_TAG, MPI_ERROR三个域。对它执行MPI_Get_count调用可以得到接收消息的长度。
关于消息接收下节再仔细讨论。
最后附上一个MPI的简单程序,来展示MPI的编写:
#include "mpi.h"
#include <stdio.h>
#include <math.h>
void main(argc,argv)
int argc;
char *argv[];
{
int myid,numprocs;
int namelen;
char processor_name[MPI_MAX_PROCESSOR_NAME];
MPI_Init(&argc,&argv);
MPI_Comm_rank(MPI_COMM_WORLD,&myid);
MPI_Comm_size(MPI_COMM_WORLD,&numprocs);
MPI_Get_processor_name(processor_name,&namelen);
fprintf(stderr, "Hello World! Process %d of %d on %s/n",
myid,numprocs,processor_name);
MPI_Finalize();
}