![](https://img-blog.csdnimg.cn/20191222163206412.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习移动端部署
腾讯开源的深度学习部署框架 ncnn
Google 提供的TensorFlow lite
NVIDIA 提供的 TensorRT
烂桃先生之前的账号
所谓无底深渊,下去,也是前程万里、
展开
-
Ubuntu18.04下NNIE模型转换环境搭建
Ubuntu18.04下NNIE模型转换环境搭建海思只给提供了一个模型转换工具nnie_mapper,是把caffe模型转为nnie硬件支持的.wk的压缩模型文件。模型的原始值是float32表示的,而用8bit量化得到的是用int8来量化存储的,所以一般来说.wk模型的大小只有原始模型的四分之一,但是我转的模型却没有变小,而是变大了一点。因为海思并没有提供nnie_mapper的源码,所以...原创 2019-11-07 15:19:16 · 1396 阅读 · 0 评论 -
ncnn数据归一化和结果解析
《ncnn数据归一化和结果解析》 近两年都在使用ncnn进行工程化部署,这里记录一下ncnn进行数据归一化的运算,以及得到的结果ncnn::Mat如何解析。Key Words:ncnn、数据归一化、结果解析 Beijing, 2020 Agile Pioneer inference 数据标准化// for color imageconst float mean_v...原创 2020-04-16 13:36:43 · 2127 阅读 · 0 评论 -
vulkan 利用GPU加速ENet
ncnn vulkan 利用GPU加速ENet使用caffe训练ENet模型代码地址:https://github.com/TimoSaemann/ENet我本机的gpu型号是NVIDIA的Quadro P600文章目录ncnn vulkan 利用GPU加速ENet合并卷积和BN层使用vulkan加速Build for Linux x86使用vulkanvulkan加速...原创 2020-01-02 18:42:47 · 2533 阅读 · 0 评论 -
编译ncnn笔记
文章目录编译ncnn笔记1. 下载源码2. 编译ncnn的依赖文件3. 编译caffe2ncnn3.1 编译caffe2ncnn遇到的问题4. 编译onnx2ncnn编译ncnn笔记1. 下载源码git clone --recursive https://github.com/Tencent/ncnn.git2. 编译ncnn的依赖文件mkdir buildcd buildcmak...原创 2019-12-16 18:10:53 · 785 阅读 · 0 评论 -
tflite C++ API 部署分类模型
TensorFlowLite C++ API 分类模型1、编写CMakeLists.txt# 添加set(TFLITE_LIBS /home/surui/Downloads/software/tensorflow-master/tensorflow/lite/tools/make/gen/linux_x86_64/lib/libtensorflow-lite.a)include_direc...原创 2019-12-03 10:18:27 · 4279 阅读 · 4 评论 -
Squeeze not supported yet!
解决onnx转ncnn时Squeeze not supported yet!出现这个问题是ncnn不支持squeeze操作导致的,第一步做法:参考https://github.com/daquexian/onnx-simplifier尝试解决,安装后,命令:python -m onnxsim ./your_model.onnx ./your_model_sim.onnx如果上面的做法解决不...原创 2019-09-06 14:30:47 · 1453 阅读 · 0 评论