近期一直在研究TensorRT的加速原理,对于层融合起先一直不理解,现在总算是知道加速的原理了,所以就把自己理解到的结合网上找到的一些资料进行整理汇总,最后我贴出自己整写的一个关于TensorRT加速原理的PPT,有需要的同学可以自己下载下来看看
TensorRT简介
TensorRT是NVIDIA 推出的基于CUDA和cudnn的进行高性能推理(Inference)加速引擎。
●曾用名:GPU Inference Engine(GIE)
●Tensor:表示数据流动以张量的形式
●RT:Runtime
训练阶段优化方法
外部数据:数据增强
其中具体方式有:平移、 翻转、噪声、对比度、缩放、尺度变换
内部网络:
1. 一阶优化:
a. 梯度下降:随机梯度下降、批量梯度下降、小批量梯度下降
b. 权重初始化
c. 批规范化
d. Dropout
e. 动量法:AdaGrad RMSProp AdaDeita Adam
2. 分治法:
a. 坐标下降法
b. SMO
c. 分阶段优化
3. 二阶优化: