parallel computing
文章平均质量分 74
白菜白菜白
这个作者很懒,什么都没留下…
展开
-
并行计算的一些背景知识
经典冯诺依曼结构为 :原创 2014-05-11 17:05:16 · 1495 阅读 · 0 评论 -
阿姆达尔定律和Gustafson law
Strong scaling is a measure of how, for a fixed overall problem size, the time to solution decreases as more processors are added to a system. An application that exhibits linear strong scaling has a原创 2014-05-18 14:50:58 · 2923 阅读 · 0 评论 -
MPI中的归约
在上面一片文章中,有一个利用ti'xing原创 2014-05-14 15:09:07 · 2495 阅读 · 1 评论 -
MPI 初探
MPI(消息传递借口), 定义了C,C++和Fortran的原创 2014-05-12 13:31:55 · 841 阅读 · 0 评论 -
MPI 实现梯形积分法
梯形面积和 = h * ( f(x0)/2 + f(x1) + ....... + f(xn)/2) h = (b-a)/n;// 正常版伪代码h= (b-a)/n;approx = (f(a)+f(b))/2.0;for (int i=0;i<n;i++){ x_i = a + i*h; approx += f(x_i);}approx =原创 2014-05-13 16:52:35 · 6297 阅读 · 3 评论 -
CUDA笔记2-循环展开
#CUDA循环展开---##串行循环展开 [loop unrolling](http://en.wikipedia.org/wiki/Loop_unwinding)是一种牺牲程序的尺寸来加快执行速度的优化方法。拿数组来说,数组的数据在内存中是连续存储的,每次取数据的时候可以一次抓取相邻的多个数据,从而减少从内存中读取数据的时间,优化程序。 例子 : 假设n可原创 2014-06-22 12:15:52 · 1716 阅读 · 2 评论 -
Cuda笔记1 --- 内积
/* CUDA 内积简单例程 */const int THREAD_DIM = 256;void __global__ dot(const float* d_a, const float* d_b, float* d_c , const int n) {int tid = threadIdx.x + blockIdx.x * blockDim原创 2014-06-12 20:05:23 · 657 阅读 · 0 评论 -
并行Pi的计算
主要考虑两种PI的计算方法 ,原创 2014-06-20 21:45:11 · 1912 阅读 · 0 评论