深度学习模型加速平台介绍

英伟达TensorRT

TensorRT是英伟达针对自家的平台用于推理的加速包。在部署的时候用于提升速度。
TensorRT提升速度主要使用两个方面的改进:
1、将数值计算时使用INT8或者FP16而不是FP32,计算可以大大减小计算量,从而达到加速的目的
2、对网络进行重构,把一些可以合并的运算放到一起一起,提升并行度

容易混淆的cuda cudnn

cuda是英伟达开发的一套应用软件接口(API)。其主要应用于英伟达GPU显卡的调用。常用的有cpp和python的API。用户可以通过cuda的API调用GPU进行计算。cuda针对的是并行计算的加速。

cuDNN是英伟达打造的针对深度神经网络的加速库,可以将模型训练的计算优化后,再通过cuda调用进行运算。

openvino 英特尔

OpenVINO是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。 支持在Windows与Linux系统,Python/C++语言。

onnxruntime 微软

ONNXRuntime是微软推出的一款推理框架,用户可以非常便利的用其运行一个onnx模型。ONNXRuntime支持多种运行后端包括CPU,GPU,TensorRT,DML等。可以说ONNXRuntime是对ONNX模型最原生的支持。

ncnn 腾讯

ncnn是一个针对移动平台优化的高性能神经网络推理框架,基于该平台,开发者能够轻松将深度学习算法移植到手机端,输出高效的执行。

TNN 腾讯

TNN是腾讯开源的新一代跨平台深度学习推理框架,首个同时支持移动端、桌面端、服务端的全平台开源版本

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值