TensorRT系列传送门(不定期更新): 深度框架|TensorRT
文章目录
遇到的情况是,服务器上有两张卡,默认是跑到卡0上了,现在想在卡1上运行TRT的接口。
找了一圈,没有发现TRT提供指定GpuId的设置的参数。
可以用CUDA提供的设备管理函数来指定GPU索引号
需要调用CUDA函数中的cudaSetDevice(gpuId)选择指定GPU索引和cudaSetValidDevices()来设置可见显卡列表
CUDA运行时提供了丰富的函数,涉及设备管理、存储管理、数据传输、线程管理、流管理、事件管理、纹理管理、执行控制等。这里只介绍以下设备管理函数
1、cudaGetDeviceCount()函数
返回计算能力大于等于1.0的GPU数量,赋值给count
如下:
int nGpuNumber = 0;
cudaGetDeviceCount(&nGpuNumber)
2、cudaSetDevice()函数
根据Gpu索引号设置需要调用的GPU设备,cuda编程时如果不调用此函数指定运行设备,则默认选择索引为0的GPU,如果TRT想使用索引为1的显卡,按如下设置参数即可。
int nGpuId = 1;
cudaSetDevice(nGpuId);
3、cudaGetDeviceProperties()函数
extern __host__ __cudart_builtin__ cudaError_t CUDARTAPI cudaGetDeviceProperties(struct cudaDeviceProp *prop, int device);
获取GPU索引号为device的参数信息到结构体数据prop中,关于cudaDeviceProp结构体见
CUDA学习(三):查询GPU设备
4、cudaChooseDevice()函数
extern __host__ cudaError_t CUDARTAPI cudaChooseDevice(int *device, const struct cudaDeviceProp *prop);
根据Prop的参数信息,选择设备参数最匹配的GPU,返回索引号到device
5、cudaSetValidDevices()函数
extern __host__ cudaError_t CUDARTAPI cudaSetValidDevices(int *device_arr, int len);
设置GPU设备列表,len为设备数量,device_arr为具体的GPU列表。
比如服务器上有4张显卡,只想看见其中的两张,这时候就可以通过这个函数设置。
可以理解成设置可见显卡