tensorRT---认识cuda RuntimeAPI(memory、Pinned Memory)

本文详细介绍了CUDA运行时API中关于内存管理的内容,特别是重点讨论了Pinned Memory的使用,包括如何进行GPU内存分配、数据传输到GPU的过程,以及显卡访问Pinned Memory的原理。通过学习,读者可以理解CUDA内存管理的基本原则。
摘要由CSDN通过智能技术生成

1. 对于 runtimeAPI ,与 driver 最大区别是 懒加载
2. 即,第一个 runtime API 调用时,会进行 cuInit 初始化 ,避免驱动 api 的初始化窘境
3. 即,第一个需要 context API 调用时,会进行 context 关联并创建 context 和设置当前 context 调用 cuDevicePrimaryCtxRetain 实现
4. 绝大部分 api 需要 context ,例如查询当前显卡名称、参数、内存分配、释放等

         

1. CUDA Runtime 是封装了 CUDA Driver 的高级别更友好的 API
2. 使用 cuDevicePrimaryCtxRetain 为每个设备设置 context ,不再手工管理 context ,并且不提供直接管理 context API (可 Driver API 管理,通常不需要)
3.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值