C++和cuda C的结合发挥各自的优点

本次实验主要是实现vector复制到cuda中,一般教材上都是使用指针,很是繁琐,而且STL优秀的算法不太容易使用。为了实现C++ STL的优秀算法和cuda的并行计算能力,二设计的本次实验。

一下代码仅供提供思路。 

#include <cuda_runtime.h>
#include <iostream>
#include <vector>
#include <algorithm>
#define DATATYPE float
__global__ void vector_add_gpu_1(DATATYPE *a,DATATYPE *b,DATATYPE *c,int n)
{
    for(int i = 0; i < n; ++i)
    {
        c[i] = a[i] + b[i];
    }
}

int main()
{
    int n;
    std::cout << "请输入数字" << std::endl;
    std::cin >> n;
    DATATYPE *d_a,*d_b,*d_c,*h_c;
    h_c = (float*)malloc(n*sizeof(float));
    std::vector<DATATYPE> h_a;
    std::vector<DATATYPE> h_b;

    std::cout << "正在赋值" << std::endl;
    for(int i = 0;i < n;++i)
    {
        h_a.push_back(i);
        h_b.push_back(i);

        std::cout << "h_a[" << i << "] = " << h_a[i] << "\t";
        std::cout << "h_b[" << i << "] = " << h_b[i] << "\t";
    }

    std::cout << std::endl;
    std::cout << "GPU运算中" << std::endl;
    cudaMalloc((void**)&d_a,sizeof(DATATYPE) * n);
    cudaMalloc((void**)&d_b,sizeof(DATATYPE) * n);
    cudaMalloc((void**)&d_c,sizeof(DATATYPE) * n);

    cudaMemcpy(d_a,&h_a[0],sizeof(DATATYPE) * n,cudaMemcpyHostToDevice);
    cudaMemcpy(d_b,&h_b[0],sizeof(DATATYPE) * n,cudaMemcpyHostToDevice);

    vector_add_gpu_1<<<1,1>>>(d_a,d_b,d_c,n);

    cudaMemcpy(h_c,d_c,sizeof(DATATYPE) * n,cudaMemcpyDeviceToHost);

    cudaFree(d_a);
    cudaFree(d_b);
    cudaFree(d_c);
    std::cout << "运算完成,输出。" << std::endl;
    for(int i = 0;i < n;++i)
    {
         std::cout << "h_c[" << i << "] = " << h_c[i] << std::endl;
    }
    return 0;
}

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

波雅_汉库克

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值