CUDA杂谈

这一年都在编写CUDA的程序,用了很多优化的手段,发现大部分其实还是官方的指南里面的手段

https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/
https://developer.download.nvidia.cn/compute/cuda/1.1-Beta/x86_website/projects/reduction/doc/reduction.pdf

至于代码,多看CUDA自带的example就好了,挺好的代码

学会使用trust库

后面才发现有这个库的,具体效率没看过,但是发现很多我手写的代码trust里面都有,下次可以用用。

内存方面

CUDA里面,用nsight一看,有大部分时间都花在cudaMalloc,cudaMemcpy这一类的函数里面,所以如何减少这些函数调用是很重要的

减少cudaMalloc,cudaMemcpy的调用

cudaMalloc是很耗时的一个操作,我在优化雷达数据计算的时候,一份数据用CPU算要80ms,但是用GPU算只要10,如果用GTX1080ti的话也才6ms左右,但是单单cudaMalloc就用了10几ms.特别在多线程下,这个问题特别严重
所以不要轻易回收申请的GPU内存,能复用就复用,能实现一个简单的内存池最好

多线程同时操作内存

void func()
{
    char *p = nullptr;
    cudaMalloc((void**)&p, 1024 * 1024 * 10);
    cudaFree(p);

}

int main()
{
    std::thread t(func);
    std::thread t2(func);
    std::thread t3(func);
    t.join();
    t2.join();
    t3.join();
}

上面的代码同时开启3个线程,申请了三块显存, 可以看到,每个malloc的申请都在100ms之间.我估计应该是产生竞争了

后来写代码发现,是每个线程在第一次执行CUDA的代码的时候,会比较慢。修改了代码,在代码前面加入create stream,发现createstream比较慢,而cudaMalloc快了点,但是依然有4-10ms的消耗,所以我估计还是有一定的竞争
而每个线程第一次调用CUDA函数会很慢是因为CUDA的每个线程需要初始化一些东西吧,找了版本也没找到相关的说明,有人说是context,但是从nsight里面看到,大部分的context都是一样的

160857-20190620220248277-1213913786.png


将代码修改成串行申请内存,可以看到内存申请只有第一个比较耗时,第二个第三个都是很快的

void func()
{
    char *p = nullptr;
    cudaMalloc((void**)&p, 1024 * 1024 * 10);
    cudaFree(p);
}

int main()
{
    func();
    func();
    func();
}

160857-20190620215955126-6623517.png

拷贝内存

static const int malloc_size = 1024 * 1024 * 10;
void func()
{
    cudaStream_t stream;
    cudaStreamCreate(&stream);

    char *gpu_mem = nullptr;
    char *host_mem = (char*)malloc(malloc_size);
    cudaMalloc((void**)&gpu_mem, malloc_size);
    cudaMemcpy(gpu_mem, host_mem, malloc_size, cudaMemcpyHostToDevice);
    cudaMemcpy(host_mem, gpu_mem, malloc_size, cudaMemcpyDeviceToHost);
    cudaFree(gpu_mem);
    free(host_mem);
}

开多线程拷贝
160857-20190620220013117-1524132148.png

单线程拷贝内存
160857-20190620220019389-385387100.png

可以看到单线程的内存拷贝比较稳定,而多线程在2-10ms之间,不知道是不是因为多线程操作内存引起的部分等待

网上说 可以使用stream进行异步传输,于是修改代码,使用async的memcpy

    cudaStream_t stream;
    cudaStreamCreate(&stream);

    char *gpu_mem = nullptr;
    char *host_mem = (char*)malloc(malloc_size);
    cudaMalloc((void**)&gpu_mem, malloc_size);
    cudaMemcpyAsync(gpu_mem, host_mem, malloc_size, cudaMemcpyHostToDevice,stream);
    cudaMemcpyAsync(host_mem, gpu_mem, malloc_size, cudaMemcpyDeviceToHost,stream);
    cudaFree(gpu_mem);
    free(host_mem);

最终结果,表示没啥鸟用,速度慢还是慢,从几张图的开始时间和结束时间来看,单纯从传输来看,也没有看出什么异步的优势,更多的应该是传输期间可以做其他事情吧
160857-20190620220027312-1495541344.png

pinned 内存

申请pinned内存耗时
160857-20190620220131100-221310083.png

拷贝pinned内存与拷贝非pinned内存对比
160857-20190620220058562-2055820744.png

从上面图中可以看出,拷贝pinn内存基本是拷贝非pinn内存速度的7-9倍左右,效率提升还是很可观的

zero copy, shared memory

zero copy对我来讲几乎没什么用的东西,太过频繁在CPU和GPU写和读内存反而导致速度下降得很严重,最终被放弃了

shared memory对我来讲用处并不大,而且要修改太多的代码。我们代码里面主要时间还是花在GPU和CPU的交互,即使修改成使用shared memory最终估计也就优化几ms,没必要那么折腾

IO优化

IO优化主要是在三方面,知乎上的答案讲得很清楚了

gpu的io问题一直是比较严重的瓶颈,我自己总结有三种解决方案。
1.优化算法,选择更有效的存储方式,减少显存的使用。只拷贝必要数据,优化数据结构等等。
2.使用cuda内存优化技巧。比如显存整块申请和拷贝,使用pinned memory,shared memory,constant memory,使用流来掩盖内存延迟等等。
3.硬件解决方案,放弃pci-e,使用ibm的power架构和p100,直接用nv-link进行内存传输。这个方案是一劳永逸的,但是要准备好money,一整套下来很贵的。第三个方案一般整不起,前两个方案是算法和语言技巧方面,与算法本身有很大的关系。个人经验上来讲方案1提升的潜力比较大。
作者:杨伟光
链接:https://www.zhihu.com/question/52472621/answer/130949946
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

https://www.cnblogs.com/1024incn/p/5891051.html

最重要的

  • 学会使用nvprof工具,优化这个才是关键
  • 了解自己的程序是否适合做并行化,不了解自己的程序是否适合并行化的话,多读几本多线程相关的书籍,或者CPU内存操作优化的书籍,其实两者的优化思路都差不多.
  • 注意一点,如果不熟悉CUDA的话,特别是那种执行本来只需要几百毫秒的算法,一部小心写出来的代码可能比CPU版本还慢,我们的雷达处理器就是一个很好的例子。最早要优化运算,CPU版本是200ms,我同事写出来的CUDA代码居然要300ms,后来经过我的优化,最后是60ms,主要是内存操作的优化
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值