CUDA小白 - NPP(10) 图像处理 Memory Management

cuda小白
原始API链接 NPP

GPU架构近些年也有不少的变化,具体的可以参考别的博主的介绍,都比较详细。还有一些cuda中的专有名词的含义,可以参考《详解CUDA的Context、Stream、Warp、SM、SP、Kernel、Block、Grid》

常见的NppStatus,可以看这里
本文主要涉及的是一些内存相关的操作,主要分为free和malloc的操作。free的接口比较基础一笔带过,malloc的有一定的说法。

void nppiFree(void * pData);

// 申请了三通道的uint8_t类型的,指定宽高的内存buffer
Npp8u* nppiMalloc_8u_C3(int nWidthPixels,
					    int nHeightPixels,
					    int *pStepBytes);	

需要注意的是,如果使用默认的nppiMalloc_[TYPE]_C[CHANNEL]的结果,申请的空间会大于等于直接计算得到的空间值。因为会涉及到内部的字节对齐操作,因此实际的width * channel的如果不能被对齐字节数整除,就会默认padding部分直接,直到对齐。之所以这么操作有两个方面:

  1. 图像的宽度唯一,并且规整。(个人理解)
  2. 对齐后的操作会节省时间。

由于存在padding,因此如果初始的图像空间是使用nppiMalloc申请的,而非直接使用cudaMalloc的话,在使用过程中需要额外注意step的值,不然出来的结果会不正确。

PS:
其实在写前面的例子的时候,我就已经直到了对齐后的会带来性能的提升,之所以不用,有一个最直接的原因是:第一次接触NPP的时候,主要是用于模型的一些前处理操作。因为存在padding,因此在送给模型的时候的时候需要额外进行一次拷贝(以前就是一行一行的cudaMemcpy操作的,但是懵懂无知,应该可以直接使用nppiCopy进行拷贝,哈哈哈哈),感觉有这个时间,padding带来的性能提升没啥太大的区别。(没有实际测试过,有大佬觉的有问题,欢迎指出

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值