Linux下并行计算库OpenMPI的配置和使用

2 篇文章 0 订阅
1 篇文章 0 订阅

介绍

我们先来看下MPI和OpenMPI的关系 :

MPI:英文全称是Message Passing Interface,这个就很明了了,信息传递接口,是独立于语言的通信协议(标准),是一个库。

OpenMPI:英文全称是open Message Passing Interface。openMPI是MPI的一种实现,一种库项目。

MPI是一种进程级的并行方式,它支持分布式存储。不过需要程序员显式分配数据,编程模型较为复杂。

关于OpenMPI在Linux下的安装和配置,全网有丰富的教程,这里就不赘述了,这里先来看一个最简单的hello world程序:

//hello.c
#include <stdio.h>
#include "mpi.h"

int main(int argc, char* argv[])
{
    int rank, size, len;
    char version[MPI_MAX_LIBRARY_VERSION_STRING];

    MPI_Init(&argc, &argv);
    MPI_Comm_rank(MPI_COMM_WORLD, &rank);
    MPI_Comm_size(MPI_COMM_WORLD, &size);
    MPI_Get_library_version(version, &len);
    printf("Hello, world, I am %d of %d, (%s, %d)\n",
           rank, size, version, len);
    MPI_Finalize();

    return 0;
}

编译hello world的C程序,mpicc hello.c -o test
或者编译hello world的C++程序,mpicxx hello.c -o test
这样生成名叫test的可执行程序,然后使用mpirun执行:mpirun -np 2 ./test
这里用np来指定使用几个进程

以上程序打印输出如下:

Hello, world, I am 0 of 1, (Open MPI v3.0.0, package: Open MPI root@kerie-PC Distribution, ident: 3.0.0, repo rev: v3.0.0, Sep 12, 2017, 108)

我们再来看一个矩阵乘的OpenMP并行实现:

//matrix_multiply.cpp

#include<mpi.h>  
#include<stdio.h>  
#include <iostream>  
#include<math.h>  
#pragma comment(lib,"mpi.lib")  
#define n 1000  
using namespace std;  
int main(int argv, char *argc[])  
{  
    int rank, p, a;  
    MPI_Init(&argv, &argc);  
    MPI_Comm_rank(MPI_COMM_WORLD, &rank);  
    MPI_Comm_size(MPI_COMM_WORLD, &p);  
    MPI_Status status;  
    if (p!=1)  
    a = n / (p - 1);  
    if (rank == 0)  
    {  
        int* A = new int[n*n];  
        int* B = new int[n*n];  
        int* C = new int[n*n];  
    //  int * recptr = NULL;  
        for (int i = 0; i < n; i++)  
        for (int j = 0; j < n; j++)// 时间是 O nn  
        {  
            A[i*n + j] = i + j; //A[i][j]  
            B[i*n + j] = 1; //B[i][j]  
        }  
        if (p == 1)  
        {  
            double tb, te;  
            tb = MPI_Wtime();  
            for (int i = 0; i < n; i++)  
            for (int j = 0; j < n; j++)  
            {  
                C[i*n + j] = 0; //C[i][j]  
                for (int k = 0; k < n; k++)  
                {  
                    C[i*n + j] = A[i*n + k] * B[k*n + j];  
                }  


            }  
            te = MPI_Wtime();  
            cout << "time is " << te - tb;// << "s" << endl;  
        }  


        if (p != 1)  
        {  
            double tb, te;  

            tb = MPI_Wtime();  
            for (int i = 0; i < p-1; i++){//给每个寄存器发送  数组 A,B,C  
                MPI_Send(&A[0+0], n*n, MPI_INT, i+1, 1, MPI_COMM_WORLD);//每个发送 a行,a*n大小的数据   
                MPI_Send(&B[0+0], n*n, MPI_INT, i+1,2, MPI_COMM_WORLD);  

            }  
            for (int i =0; i < p-1; i++)  
                    MPI_Recv(&C[i*a+0], a*n, MPI_INT, i+1,3, MPI_COMM_WORLD, &status);//每个接受 a行,a*n大小的数据   

            te = MPI_Wtime();  
            cout << "time is " << te - tb;// << "s" << endl;  
        }  

        delete[] A;  
        delete[] B;  
        delete[] C;  
    }  

    if (p != 1)  
    if (rank != 0){  
        int* A = new int[n*n];  
        int* B = new int[n*n];  
        int* C = new int[n*n];  

        MPI_Recv(&A[0+0], n*n, MPI_INT, 0, 1, MPI_COMM_WORLD, &status);//从A[0][0]和B[0][0]开始接受  
        MPI_Recv(&B[0+0], n*n, MPI_INT,0, 2, MPI_COMM_WORLD, &status);  

        for (int i =a*(rank-1); i < (a*(rank)); i++)//按照行间隔分,每个cpu计算自己的a行  
        for (int j = 0; j < n; j++)  
        {  
            C[i*n + j] = 0; //C[i][j]  
            for (int k = 0; k < n; k++)  
            {  
                C[i*n + j] = A[i*n + k] * B[k*n + j];  
            }  
        }  
        {//向rank=0发送自己的那a行C,大小是a*n  
            //int * sendptr = &(C[a*(rank - 1)+0]);  
            MPI_Send(&C[a*(rank - 1) + 0], a*n, MPI_INT, 0,3, MPI_COMM_WORLD);//起始地址是C[rank-1][0],大小是a*n  
        }  
    }  
    MPI_Finalize();  
    return 0;  
} 

源码解析

MPI_Send函数用于发送一个消息到目标进程。 通信域中的dest进程发送数据,数据存放在buf中,类型是datatype,个数是count,这个消息的标志是tag,用以和本进程向同一目的进程发送的其它消息区别开来。
MPI_Recv函数用于从指定进程接收一个消息。 它的含义是进程从comm域中source进程接收标签号为tag的数据,并保存到buf中。接收缓冲区buf的大小不能小于发送过来的消息的长度。否则会由于数组越界导致程序出错。
MPI_Isend/MPI_Irecv是异步发送和接收的语句,显然比MPI_Send/MPI_Recv这样的阻塞语句更可能提高性能。另外,还可以避免循环死锁。

  • 1
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值