并行程序设计导论
olivia12344321
这个作者很懒,什么都没留下…
展开
-
并行考试复习
并行考试复习考 试复习自用,不一定正确Parallel Hardware and Parallel SoftwareParallel architecturevon Neumann bottleneck(冯诺依曼瓶颈) The separation of memory and CPU(主存和cpu分离) Solution: ParallelismProcesses, multitasking, and threads: in a view of resources Proc原创 2020-07-18 20:51:38 · 556 阅读 · 0 评论 -
并行程序设计导论——2.6性能分析
Gustafson-Barsis’s Law(古斯塔夫森定律)Gustafson定律也是说明处理器个数、串行比例和加速比之前的关系,只不过它的侧重角度有所不同。我们定义a为系统串行执行时间,b为系统并行执行时间,n为处理器个数,F为串行比例,那么系统执行时间(串行时间+并行时间)可以表示为a+ba+ba+b,系统总执行时间(串行时间)可以表示为a+nba+nba+nb,所以有如下公式推演:其中,串行比例 F=aa+bF=\frac{a}{a+b}F=a+ba,将其代入上面的公司,可得到:最终的公式为原创 2020-07-14 20:07:40 · 1032 阅读 · 0 评论 -
MPI之点对点通信——阻塞式MPI_Send 和MPI_Recv
MPI的两种点对点通信方式——阻塞式MPI的点对点通信包括阻塞式和非阻塞式:阻塞式通信调用 MPI_Send/MPI_RecvMPI_Send不会返回,调用MPI_Send发送数据的进程会被阻塞,直到缓存为空MPI_Recv不会返回,调用 MPI_Recv接收数据的进程会被阻塞,直到缓存被填充消息发送函数:MPI_Send函数原型: int MPI_Send(void *buf, //buf为消息的地址 int count,//count是内容的数量 MPI_Datatyp原创 2020-07-04 19:26:36 · 5062 阅读 · 0 评论 -
MPI计算全局总和(树形与蝶形)
MPI计算全局总和(树形与蝶形)1. 内容 编写一个MPI程序,分别采用树形和蝶形通信结构计算全局总和。首先计算通信域comm_sz的进程数是2的幂的特殊情况,若能够正确运行,改变该程序使其适用于comm_sz中任意进程数目的值。2. 代码如下:2.1 树形结构计算全局总和 在树形结构中,先将多个数分成若干部分求和,再通过树形结构将局部和相加,最后求得的和在线程0中#define _CRT_SECURE_NO_WARNINGS#include <stdio.h>#inclu转载 2020-07-02 16:02:30 · 1009 阅读 · 0 评论 -
MPI基本函数
MPI基本函数MPI 编程规范所有的常量,变量和函数以MPI_开始编写MPI的C接口是一个函数(值传递)除下划线外,所有常量均以大写字母定义功能和数据类型的定义, MPI_后跟的第一个字母为大写,其余为小写,形式为MPI_Xxxx_XXxMPI程序从MPI_Init开始MPI程序以MPI_Finalize结尾(分别初始化和终止MPI)除MPI Wtime和MPI Wtick之外的所有函数调用都返回一个错误信息代码由于 C 语言的函数调用机制是值传递,原创 2020-06-25 23:49:06 · 2623 阅读 · 0 评论 -
并行程序设计导论 第一章(下)
How do we write parallel programs?重要概念数据并行(data-parallelism)Partiton various tasks carried out solving the problem the problem among the cores每个核都做一样的任务任务并行(task-parallism)形象化解释:Cores needs to coordinate(协同) their workcommunication(通信)one or mor原创 2020-06-06 23:36:45 · 581 阅读 · 0 评论 -
并行程序设计导论_第一章上
什么是并行计算Solve a single problem by using multiple processorts working together。serial computation(为什么我们与需要原创 2020-06-02 22:51:54 · 619 阅读 · 0 评论