模型压缩
文章平均质量分 71
Good@dz
烟火向星辰,所愿皆成真
展开
-
通过onnx.helper构建计算图
通过onnx.helper来生成onnx模型原创 2022-10-30 20:59:11 · 2523 阅读 · 0 评论 -
2.tensorrt的安装
本文是介绍tensorrt7的安装1.下载tensorrt下载链接:https://developer.nvidia.com/tensorrt由于tensorrt的官网是外国网站,打开速度会比较慢(可以使用科学上网)原创 2021-12-19 21:38:35 · 2671 阅读 · 0 评论 -
pytoch模型转成onnx模型
什么是ONNXonnx定义了一种可扩展的计算图模型\一系列内置的运算(op)和标准数据类型.每一个计算流图都定义为由节点组成的列表,并构建有向无环图.其中,每一个节点都有一个或者多个输入与输出,每一个节点都称为一个一个OP.这相当于一种通用的计算图,不同深度学习框架构建的计算图都能转换成它.Caffe2, PyTorch, Microsoft Cognitive Toolkit, Apache MXNet 和其他工具都在对ONNX进行支持。在不同的框架之间实现互操作性,并简化从研究到产品化的过程,将提高原创 2021-12-08 21:01:22 · 3222 阅读 · 1 评论 -
1.了解tensorrt加速
https://discuss.pytorch.org/t/onnx-export-failed-couldnt-export-operator-aten-adaptive-avg-pool1d/30204原创 2021-12-03 09:37:29 · 2314 阅读 · 2 评论 -
李宏毅《机器学习》模型压缩-知识蒸馏
概述需要做模型压缩的原因在于我们有将模型部署在资源受限的设备上的需求,比如很多移动设备,在这些设备上有受限的存储空间和受限的计算能力。本文主要介绍五种模型压缩的方法:①网络剪枝(Network Pruning)②知识蒸馏(Knowledge Distillation)③参数量化(Parameter Quantization)④结构设计(Architecture Design)⑤动态计算(Dynamic Computation)知识蒸馏1.知识蒸馏是什么?知识蒸馏指的是模型压缩的思想,通过一原创 2021-05-29 11:02:07 · 1077 阅读 · 1 评论 -
李宏毅《机器学习》模型压缩-网络剪枝
概述需要做模型压缩的原因在于我们有将模型部署在资源受限的设备上的需求,比如很多移动设备,在这些设备上有受限的存储空间和受限的计算能力。本文主要介绍五种模型压缩的方法:①网络剪枝(Network Pruning)②知识蒸馏(Knowledge Distillation)③参数量化(Parameter Quantization)④结构设计(Architecture Design)⑤动态计算(Dynamic Computation)网络剪枝(Network Pruning)1.网络剪枝的步骤神经原创 2021-05-29 10:29:38 · 1104 阅读 · 0 评论