通过 TensorRT 实现网络模型的推理加速

当前最火的莫过于深度学习,各大公司为抢占深度学习战略的制高点,纷纷出台了各种深度学习框架,比如谷歌的 TensorFlow,BVLC 的 Caffe,Fchollet 公司推出的 Keras,微软推出的 CNTK,DMLC 公司推出的 MXNet,Facebook 推出的 Torch7 等等。

目前深度学习的网络是越来越深,越来越复杂。训练时的时间长短对用户来说是不关心的,用户只关心运行时的速度快慢,特别对于实时要求的用户来说更加重要,如何有效的提高网络运行时的速度呢?答案是TensorRT。这也是本 Chat 的出发点。

本场 Chat 主要介绍 TensorRT 对如何对训练好的网络结构和模型参数进行推理加速。另外,本文章也会涉及如何有效使这个平台的模型应用到另一个平台。

本场 Chat 您将学到如下内容:

  1. TensorRT 的安装。
  2. TensorRT 的使用。
  3. TensorRT 的基础知识讲解。
  4. TensorRT 加速 Caffe 模型讲解。
  5. TensorRT 原理讲解。
  6. TensorRT 加速 Onnx 模型源码讲解。
  7. 其他深度学习框架对应模型转换为 Onnx 模型,以 MXNet 为例。

阅读全文:https://gitbook.cn/gitchat/activity/5b7028df88e30a62db115eb6

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值