首试GPU并行运算

今天首次尝试了GPU的并行计算,总得感觉上CPU与GPU之间的数据传输速度太慢,所以永远不要低估了GPU与CPU之间的数据传输速率,当需要用到GPU强大的并行计算能力时,一定要衡量好数据传输之间所花费的时间与GPU并行计算之间所省下的时间,看看得是否偿失,频繁的数据传输只会适得其反。

下面就放一个10个矢量之间的计算,GPU并行计算与CPU的串行计算所花的时间对比。


注意:那个时间单位错了,是s,不是ms




测试源代码:

#include <iostream>
#include <time.h>
#include <iomanip>
#include "cuda_runtime.h"

using namespace std;

clock_t start, stop;
double duration;


__global__ void add(int *a, int *b, int *c)
{
	int tid = 0;
	while (tid<10)
	{
		c[tid] = a[tid] + b[tid];
		tid += 1;
	}
}

int main()
{
	start = clock();
	for (int j = 0; j < 100000; j++)
	{
		int a[10], b[10], c[10];
		int *dev_a, *dev_b, *dev_c;

		cudaMalloc((void**)&dev_a, 10 * sizeof(int));
		cudaMalloc((void**)&dev_b, 10 * sizeof(int));
		cudaMalloc((void**)&dev_c, 10 * sizeof(int));

		for (int i = 0; i < 10; i++)
		{
			a[i] = -i;
			b[i] = i*i;
		}

		cudaMemcpy(dev_a, a, 10 * sizeof(int), cudaMemcpyHostToDevice);
		cudaMemcpy(dev_b, b, 10 * sizeof(int), cudaMemcpyHostToDevice);
		cudaMemcpy(dev_c, c, 10 * sizeof(int), cudaMemcpyHostToDevice);
		add << <10, 1 >> >(dev_a, dev_b, dev_c);
		cudaMemcpy(c, dev_c, 10 * sizeof(int), cudaMemcpyDeviceToHost);

		cudaFree(dev_a);
		cudaFree(dev_b);
		cudaFree(dev_c);
	}
	stop = clock(); 
	duration = (double)(stop - start) / CLK_TCK;

	system("pause");
	return 0;
}


  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值