onnx
陶表犁
这个作者很懒,什么都没留下…
展开
-
安装NVIDIA 驱动及nvidia-docker环境
本教程是在NVIDIA显卡的机器上配置深度学习环境,原理是利用NVIDIA-docker。配置nvidia-docker需要安装NVIDIA驱动和docker 可参考官网1. 安装NVIDIA驱动1.1 添加nvidiarepositorysudo add-apt-repository ppa:graphics-drivers/ppa sudo apt update备注:如果添加报错查看解决方法1.2 选择驱动版本并安装ubuntu-drivers devices显示可用的驱动版本,例原创 2020-10-23 13:54:38 · 5463 阅读 · 0 评论 -
tensorRT server Inference
TensorRT云端部署参考github,从介绍来看截止最新版本r20.03(release1.1.2.0)已经更名为triton-Inference-server,之前的版本都称为TenserRT Inference server,具体原因官网有介绍。在本教程中因为服务器事先pull了r20.02,即tensorRT Inference server,因此以该版本作为参考,在使用之前首先对其有个全局的认识。参考官网官网的使用指导结构如下:1. Installing the Server1.1 In原创 2020-10-23 13:52:18 · 1544 阅读 · 0 评论 -
onnx_calibrate calibration代码原理分析
Onnx_calibrate calibration代码原理分析Calibration的思想是通过一堆验证数据集输入到网络中,统计每一层layer的输出值,通过对比量化前后数据统计分布之间的KL散度找到最佳的映射值T.具体参考NVIDIAGTC2017的ppt。def onnx_runtime(model_path,image_files): ''' Helper function run input image,and output each node tensor to calibr原创 2020-10-23 13:50:10 · 938 阅读 · 2 评论 -
cnn中关于FLOPS的理解及计算
相关概念FLOPS:注意全大写,是floating point operations per second的缩写,指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。FLOPs:注意s小写,是floating point operations的缩写(s表复数),指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。MACs:乘加运算(Multiplication and Accumulation),相当于2次浮点运算,硬件支持乘加指令可加快计算速度。OP的计算1. conv 计算原创 2020-10-23 13:48:22 · 2562 阅读 · 0 评论 -
onnx model zoo准确率复现
Modelfromversion官方准确率top5官方准确率top1自测准确率top5自测准确率top1diftop5diff top1自测使用的预处理方式alexnetonnx model zooir3/opset880.20%57.10%78.15%54.50%2.05%2.60%bgr,mean:103.939 ,116.779,123.68caffenetonnx model zooir3/opset880.40%57.40%79...原创 2020-10-20 09:58:30 · 436 阅读 · 0 评论