AI模型近年来广泛应用于图像、视频处理,在超分、降噪、插帧等应用中展现了良好效果。由于图像AI模型的计算量大,即便部署在GPU上,有时仍达不到理想的运行速度。为此,NVIDIA推出了TensorRT,成倍提高了AI模型的推理效率。
4月22日 19:30,我们邀请到了 NVIDIA DevTech团队技术负责人 季光 为大家详细介绍GPU编程的基本知识,探讨把模型运行到TensorRT的简易方法,帮助GPU编程的初学者加速自己的AI模型。
【主要内容】
GPU编程模型:程序是如何跑在GPU上的
TensorRT入门:即便没写过CUDA,也能用好GPU
利用Parser自动构建网络:TensorRT编程的捷径
TensorRT Plugin简介:TensorRT的万金油
TensorRT的深水区:如何实现极致性能
【参与方式】
扫描下图二维码或点击文末阅读原文,预约报名、观看直播。
【嘉宾简介】
季光 NVIDIA DevTech团队技术负责人
博士,毕业于中科院计算所,现为英伟达DevTech团队的技术负责人。擅长GPU加速的视频处理以及性能优化。曾任云游戏基础设施开发项目负责人,担任了Video Codec SDK v8.1应用层主要开发者以及DeepStream SDK v1.0主要开发者,在GPU视频编解码以及CUDA编程与优化方面积累了丰富的经验。
▽ 点击阅读原文,即可预约报名,收看精彩分享