![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
MPI
文章平均质量分 80
班图菜鸟起飞中
这个作者很懒,什么都没留下…
展开
-
并行计算(一)——初步认识
一些没用的前奏 并行计算模型 本定命名空间和私有的内存空间,主要采用 C/C++/Fortran 和 MPI 。全局命名空间和共享的内存空间,主要采用 C/C++/Fortran 和 OpenMP 。 Flynn 分类法 这个方法主要是根据并行计算机的模式进行分类的,包括: SISD (Single Instruction Single Data): 单一指令原创 2013-02-12 19:53:16 · 1357 阅读 · 0 评论 -
并行计算(二)——通讯
通讯: 点对点 MPI的通讯是指程序在不同的处理器之间进行数据交换的一种行为,通讯方式按照目标的不同主要分为两类:点对点通讯和集群通讯。 点对点通讯需要一个处理器进行发送,另外一个处理器进行接收。 Message 要了解MPI的通讯,首先需要了解一下MPI中Message的结构。Message主要包含数据(3个参数),封包(3个参数)以及其他的一些与通讯有关的参数 其中,数据主要包括:原创 2013-02-15 02:51:22 · 3028 阅读 · 0 评论 -
并行计算(三)——衍生数据类型
在MPI中,除了有与C语言类似的MPI_INT, MPI_DOUBLE等内建类型外,还提供了用户自定义的衍生类型(Derived Datatype)。 MPI_Type_vector 最简单也是最常用的衍生数据类型就是这个向量类型,声明方法为: MPI_Type_vector(count, blocklen, stride, oldtype, newtype); 参数count表示数原创 2013-02-16 02:10:26 · 5487 阅读 · 1 评论