Mnn 模型转化指南

1: 下载官方MNN

git clone https://github.com/alibaba/MNN.git

2: 安装protobuf:

https://github.com/protocolbuffers/protobuf.git

brew install protobuf

3:编译MNNConvert

cd MNN
mkdir buildcd build
cmake .. -DMNN_BUILD_CONVERTER=true
make

(编译完成后,在build目录下有个MNNConvert 文件,用于把不同模型转成MNN格式,包括可以将float32转为float16)
在这里插入图片描述

4:模型转换

参数说明:

Usage:
  MNNConvert [OPTION...]

  -h, --help                    Convert Other Model Format To MNN Model

  -v, --version                 显示当前转换器版本
  
  -f, --framework arg           需要进行转换的模型类型, ex: [TF,CAFFE,ONNX,TFLITE,MNN,TORCH, JSON]
  
      --modelFile arg           需要进行转换的模型文件名, ex: *.pb,*caffemodel
      
      --prototxt arg            caffe模型结构描述文件, ex: *.prototxt
      
      --MNNModel arg            转换之后保存的MNN模型文件名, ex: *.mnn
      
      --fp16                    将conv/matmul/LSTM的float32参数保存为float16,
      													模型将减小一半,精度基本无损
      
      --benchmarkModel          不保存模型中conv/matmul/BN等层的参数,仅用于benchmark测试
      
      --bizCode arg             MNN模型Flag, ex: MNN
      
      --debug                   使用debug模型显示更多转换信息
      
      --forTraining             保存训练相关算子,如BN/Dropout,default: false
      
      --weightQuantBits arg     arg=2~8,此功能仅对conv/matmul/LSTM的float32权值进行量化,
      													仅优化模型大小,加载模型后会解码为float32,量化位宽可选2~8,
                                运行速度和float32模型一致。8bit时精度基本无损,模型大小减小4倍
                                default: 0,即不进行权值量化
      
      --compressionParamsFile arg
                                使用MNN模型压缩工具箱生成的模型压缩信息文件
                                
      --saveStaticModel         固定输入形状,保存静态模型, default: false
      
      --inputConfigFile arg     保存静态模型所需要的配置文件, ex: ~/config.txt。文件格式为:
                                input_names = input0,input1
                                input_dims = 1x3x224x224,1x3x64x64
      --JsonFile arg            当-f MNN并指定JsonFile时,可以将MNN模型转换为Json文件
      --info                    当-f MNN时,打印模型基本信息(输入名、输入形状、输出名、模型版本等)
      --testdir arg             测试转换 MNN 之后,MNN推理结果是否与原始模型一致。
                                arg 为测试数据的文件夹,生成方式参考 "正确性校验" 一节
      --thredhold arg           当启用 --testdir 后,设置正确性校验的误差允可范围
                                若不设置,默认是 0.01
      --saveExternalData        将权重,常量等数据存储在额外文件中,默认为`false`

比如:tflite->mnn

./MNNConvert -f TFLITE --modelFile hand_class_f32_normal_v1.tflite --MNNModel hand_class_f32_normal_v1.mnn --bizCode biz

在这里插入图片描述
如果想保存float16的MNN,使用一下命令:

./MNNConvert -f TFLITE --modelFile hand_class_f32_normal_v1.tflite --MNNModel hand_class_f16_normal_v1.mnn --fp16 --bizCode biz
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个广泛使用的深度学习框架,而MNN是一个支持移动端的深度学习推理引擎。根据引用,MNN可以支持将PyTorch模型转化MNN格式,以实现在移动设备上进行人脸检测、目标检测等任务。 转换PyTorch模型MNN格式的过程可以分为几个步骤。首先,需要将PyTorch模型转换为ONNX模型。可以使用工具如onnx2ncnn.exe(引用)或MNNConvert.exe(引用)将ONNX模型转换为MNN模型。转换完成后,可以在移动设备上使用MNN引擎加载和运行这些模型。 总结来说,要将PyTorch模型转化MNN格式,可以按照以下步骤操作: 1. 将PyTorch模型转换为ONNX模型。 2. 使用onnx2ncnn.exe或MNNConvert.exe工具将ONNX模型转换为MNN模型。 3. 在移动设备上使用MNN引擎加载和运行转换后的MNN模型。 这样就可以实现在移动设备上使用PyTorch模型进行推理任务了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [MNN-APPLICATIONS-master.zip](https://download.csdn.net/download/AQSWDE123456789/12495277)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [39、Pytorch口罩模型,转成ncnn和mnn进行口罩检测](https://blog.csdn.net/sxj731533730/article/details/123273488)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值