MPI
__Sunny__
学习记录生活
展开
-
MPI学习一 MPI基础及六个接口构成的MPI子集
什么是MPIMPI(Message Passing Interface)是消息传递函数库的标准规范,支持C和Fortran,由众多并行计算机厂商、软件开发组织及并行应用单位共同维护的标准。MPI是一种标准或规范,不是特指某一个对它的具体实现。MPI是一种消息传递编程模型,并成为此模型的代表和事实上的标准,服务于进程通信MPI是一种库描述,不是一种语言由Fotran+MPI或C+MP原创 2017-02-27 19:10:57 · 4647 阅读 · 0 评论 -
MPI-2 并行IO的使用方法
转自 http://www.cnblogs.com/LCcnblogs/p/6050075.html 写的MPI程序需要用到并行IO来操作文件,但是搜遍了度娘都没有找到多少关于并行IO函数的使用方法。最后在知网搜到了一些有用的论文,看了一下,感觉豁然开朗。 MPI-1对文件的操作是使用绑定语言的函数调用来进行的,通常采用的是串行IO的读写方式,一般情况下是用一个主进转载 2017-03-10 11:40:33 · 1958 阅读 · 0 评论 -
OpenMP、MPI 和 MapReduce 对比
OpenMP和MPI是并行编程的两个手段,对比如下:OpenMP:线程级(并行粒度);共享存储;隐式(数据分配方式);可扩展性差;MPI:进程级;分布式存储;显式;可扩展性好。OpenMP采用共享存储,意味着它只适应于SMP,DSM机器,不适合于集群。MPI虽适合于各种机器,但它的编程模型复杂:需要分析及划分应用程序问题,并将问题映射到分布式进程集合转载 2017-03-09 10:51:17 · 3818 阅读 · 0 评论 -
矩阵乘法的MPI并行计算
1、问题描述矩阵乘法问题描述如下: 给定矩阵A和B,其中A是m*p大小矩阵,B是p*n大小的矩阵。求C = A*B。求解这个问题最简单的算法是遍历A的行和B的列,求得C的相应元素,时间复杂度O(mnp),空间复杂度O(1)。转载 2017-03-02 14:25:22 · 5084 阅读 · 2 评论 -
MPI学习三 不同通信模式MPI并行程序的设计
MPI四种通信模式及其函数:标准通信模式:MPI_SEND缓存通信模式:MPI_BSEND同步通信模式:MPI_SSEND就绪通信模式:MPI_RSEND四种通信模式的区别都在消息发送端,而消息接收端的操作都是MPI_RECV。1. 标准通信模式标准通信模式下,是否对发送的数据进行缓存是由MPI自身决定的,而不是由并行程序员来控制。 如果MPI不缓存将要原创 2017-02-27 19:29:33 · 2965 阅读 · 0 评论 -
MPI学习五 组通信MPI程序设计
集合通信是包含在通信因子中的所有进程都参加操作 集合通信一般实现三个功能通信:组内数据的传输同步:组内所有进程在特定的地点在执行进度上取得一致计算:对给定的数据完成一定的操作集合操作的三种类型:通信:广播(broadcast)、分散(scatter)、收集(gather)、全互换(alltoall)等同步(barrier):集合中所有进程都到达后,每个进程再接着运行规约原创 2017-02-27 20:00:54 · 1746 阅读 · 0 评论 -
MPI学习六 具有不连续数据发送的MPI程序设计
处理不连续的数据基本方法 一是允许用户自定义新的数据类型 又称派生数据类型 二是数据的打包与解包派生数据类型 数据类型描述方法--类型图 类型图的二元组为如下形式 ,则类型图为 类型图={,,...,} 基类型可以是预定义类型或派生类型 偏移可正可负,没有递增或递减的顺序要求。 数据类型的跨度被定义为该数据类型的类型图中从第一个基原创 2017-02-27 20:09:51 · 3341 阅读 · 0 评论 -
MPI学习四 非阻塞通信MPI程序设计
待整理原创 2017-02-27 19:36:22 · 703 阅读 · 0 评论 -
基于Lustre文件系统的MPI-IO编程接口改进
摘 要: 针对传统MPI集群并行I/O效率不高的问题,通过分析Lustre并行文件系统的特点和MPI-IO集中式I/O操作的算法,提出了一种基于MPI-IO编程接口的改进方案,用以改善集群I/O瓶颈,提高I/O并行效率,并通过实验验证了该方案的可行性。关键词:并行文件系统; 编程接口; 集中式I/O; Lustre; MPI-IO 为解决这一问题,通常的方法是在Lustre的上转载 2017-03-10 11:51:19 · 2166 阅读 · 0 评论