pytorch 语义分割模型先转ONNX再转NCNN

0 前言

最近项目需要用到物体分割思路进行开展,因为自己一直使用的是tensorflow1.x版本进行模型训练,故而分割模型训练之初便选用了tensorflow框架进行模型训练,整个训练过程是很顺利的,但项目落地过程中需要用到opencv或者ncnn前向推理框架进行实现,好家伙对于tf.pb模型那叫个调试的酸爽,对于最新版本的opencv(4.4.1)废了很大劲在模型加载过程中总算不报错了,但前向推理的结果却和tf环境下的前向推理结果不一致,那就继续改吧,改的是昏天黑地,死去活来,最终从纠结到放弃,因为opencv对于分割模型的支持实在有限,无奈只得放弃。反思有没有其他路径来解决这个问题呢,最后选择了这条路线进行实现pytorch->onnx->ncnn,看到此博客的你如果也在遭受分割模型转换的蹂躏,请静下心来按照我提供的这条路线一步一步走下去,你会走成功的。

1 pytorch

对于用tensorflow1.x已经习惯了的炼丹师,换成用pytorch不晓得有多爽,是真的很爽的那种,以至于目前抛弃了tf拥抱pytorch,首先呢就是将自己的分割网络改写成pytorch格式,至于怎么改自己百度学习去,这里需要提醒的是对于pytorch下的nn.MaxUnpool2d函数需要修改,可能你会纠结为啥要改呢?因为目前opencv和ncnn都不支持这个函数,所以不改不行,那改成啥呢?改成用nn.UpsamplingNearest2d,结果就是丢弃了最大值位置的索引,在模型精度上会有些影响,这里还要特别提醒对于pytorch网络结构中尽量别搞特殊的层,因为特殊层的风险就是opencv和ncnn不支持,比如在前期我用到了自定义的torch.zeros()这个函数为了拼接成需要的数据维度,然后ncnn就不支持它,无奈只能返回修改网络结构。

2 ONNX

pytorch训练的模型保存下来是以*.pth,要把它转换成ONNX,

import torch.onnx
torch.onnx.export(net, dummy_input, outputmodel,export_params=True,
                    input_names=input_names,output_names=output_names)

会生成*.onnx模型,然后用编译好的ncnn下的ncnn-master/build/tools/onnx下的onnx2ncnn.exe生成*.bin和*.param文件,结果报如下错误,

兄嘚,不要慌,因为*.onnx模型需要先进行onnx-simplifier一下,如果没有安装这个工具包就pip install 一哈子,simplifier命令行如下:

python -m onnxsim ./*.onnx ./*_sim.onnx

然后就会生成一个*_sim.onnx模型,拿这个模型去用编译好的ncnn工具生成*.bin和*.param文件就没问题了,模型生成完就用C语言写一个测试程序,然后选择一张图片看看它分别在pytorch环境下的结果与ncnn下的结果是否一致,如果一致就搞定了,如果不一致怎么办呢?也很好解决只不过得废些精力,需要根据*.param中提供的blob逐层输出前向结果,然后与pytorch下的逐层输出结果进行一一比对,定位到问题发生的点,然后再进行修改就阔以了,对于pytorch下如何逐层输出结果呢?给段代码仅供参考哈

x = self.transposed_conv(x, output_size=(360,480))
v = x.cpu().detach().numpy()
v1 = v.flatten()
fp = open('transposed_conv.txt', 'w')
fp.write(str(v.shape)+'\n')
for d in v1:
   fp.write(str(d)+'\n')
fp.close() 

可能有的娃子还在纠结如何逐层输出ncnn的结果,也给个参考代码哈

ncnn::Net plnet;
std::string param_files =  "../models/torch.param";
std::string bin_files = "../models/torch.bin";
plnet.load_param(param_files.data());
plnet.load_model(bin_files.data());

printf("load model success!!!\n");
cv::Mat srcImage = cv::imread("./*.jpg");	
ncnn::Mat ncnn_img = ncnn::Mat::from_pixels(srcImage.data, ncnn::Mat::PIXEL_BGR,         
                                                 srcImage.cols, srcImage.rows);
ncnn_img.substract_mean_normalize(mean_vals, norm_vals);
ncnn::Extractor ex = pupilnet.create_extractor();
//ex.set_num_threads(4);
//ex.set_light_mode(true);
ex.input("x", ncnn_img);
ncnn::Mat out;
ex.extract("y", out);

其中x就是模型的输入blob,y是模型的输出blob,如果不同层进行输出只修改y就可以了,这里要特别注意blob要写*.param中对应的键值,比如:Concat           Concat_2                 2 1 301 302 303 0=0 其中2表示有两个输入,1表示有一个输出,其中301 302表示输入的键值,303表示输出的键值,如果要输出Concat这个层的结果,就将y修改成303就阔以了

好了,博客就介绍到这了,祝愿你早日打通pytorch->onnx->ncnn分割模型转换,加油吧!炼丹师

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要将PyTorch的.pth模型换为ONNX格式,可以使用以下步骤: 1. 安装ONNX包:在终端中运行`pip install onnx`来安装ONNX包。 2. 加载PyTorch模型:使用PyTorch加载模型并将其换为ONNX格式。例如,可以使用以下代码加载PyTorch模型: ``` import torch import torchvision # 加载PyTorch模型 model = torchvision.models.resnet18(pretrained=True) # 将模型换为eval模式 model.eval() # 创建一个虚拟输入张量 input_tensor = torch.randn(1, 3, 224, 224) # 导出模型ONNX格式 torch.onnx.export(model, input_tensor, "resnet18.onnx") ``` 在这个例子中,我们加载了一个预训练的ResNet18模型,并将其换为ONNX格式。我们还创建了一个虚拟输入张量,它将用于导出模型。 3. 验证ONNX模型:可以使用ONNX Runtime或其他ONNX兼容的推理引擎来验证导出的ONNX模型。例如,可以使用以下代码验证导出的ResNet18模型: ``` import onnx import onnxruntime # 加载ONNX模型 onnx_model = onnx.load("resnet18.onnx") # 验证模型 onnx.checker.check_model(onnx_model) # 创建一个ONNX Runtime会话 ort_session = onnxruntime.InferenceSession("resnet18.onnx") # 运行模型 ort_inputs = {ort_session.get_inputs()[].name: input_tensor.numpy()} ort_outputs = ort_session.run(None, ort_inputs) # 打印输出 print(ort_outputs) ``` 在这个例子中,我们使用ONNX Runtime创建了一个会话,并使用虚拟输入张量运行了模型。我们还打印了模型的输出。 ### 回答2: PyTorch是流行的深度学习框架之一,而ONNX(Open Neural Network Exchange)是一个开源的跨平台深度学习框架,可以方便地让用户在多个平台上运行模型。在机器学习和深度学习应用中,模型换和共享非常重要,而pth模型ONNX模型可以更加高效地在多个平台上利用训练好的模型。本文将介绍如何使用PyTorch将pth模型换为ONNX模型。 首先,需要安装PyTorchONNX。在安装好这两个框架之后,使用以下代码将pth模型换为ONNX模型: ``` import torch import onnx # 加载pth模型 model = torch.load('model.pth') # 将pth模型换为onnx模型 input_names = ['input'] output_names = ['output'] dynamic_axes = {'input':{0:'batch_size'},'output':{0:'batch_size'}} x = torch.randn(1, 3, 224, 224) torch.onnx.export(model, x, "model.onnx", input_names=input_names, output_names=output_names, dynamic_axes=dynamic_axes) ``` 在此代码片段中,`input_names`和`output_names`分别表示网络的输入和输出节点名称。`dynamic_axes`参数确定哪些轴是变化的,这是非常重要的,因为不同的框架可能需要特定的推理数据格式。在这个例子中,`dynamic_axes`参数将输入和输出数据的第一维指定为“batch_size”,因为第一维是数据样本数量,可能因推断过程而变化。 在代码运行完毕后,可以得到一个ONNX模型,可以将其部署到ONNX支持的设备上进行推理,例如移动设备和边缘计算设备。 需要注意的是,将pth模型换为ONNX模型有一些限制和注意事项: 1. PyTorch支持的操作不一定是ONNX支持的。要将模型成功换为ONNX格式,使用的PyTorch操作必须是ONNX支持的。 2. ONNX不支持大部分运行时计算。因此,如果使用了一些需要计算图中的其他参数的操作(如动态图),则不能将模型成功换为ONNX格式。 3. 一些PyTorch操作(如Dropout)在训练和推断过程中有不同的行为。因此,需要在代码中明确指定模型的模式,以确保在换和推理过程中得到正确的结果。 综上所述,pth模型ONNX模型可以方便地在多个平台上部署和使用训练好的模型,需要仔细注意输入输出节点、动态轴和框架支持的操作等细节。 ### 回答3: PyTorch是一个非常流行和广泛使用的深度学习框架。在深度学习中,常常需要将训练得到的模型换为一种可移植的格式,如ONNX。这样可以让我们在不同的框架和设备上使用模型。 将PyTorch模型换为ONNX需要以下步骤。 第一步是安装必要的库和工具包。我们需要安装最新版本的PyTorchONNX。可以在PyTorch的官方网站和ONNX的GitHub页面上找到安装说明。 第二步是准备PyTorch模型。在PyTorch中,我们可以使用torch.save将模型保存为.pth文件。这个文件包含了模型的权重和架构。 第三步是使用torch.onnx.export将模型换为ONNX格式。这个函数需要指定PyTorch模型、输入张量和输出文件的路径。我们还可以使用其他参数来设置换的选项,如输入和输出名称、数据类型和设备类型等。 第四步是验证换的结果。我们可以使用ONNX Runtime或其他支持ONNX格式的框架加载模型,输入数据并进行推理。通过比较换前后的输出,我们可以确认换的正确性。 需要注意的是,PyTorch模型ONNX模型在一些细节上可能存在差异。例如,PyTorch中的一些操作可能没有对应的ONNX实现,或者ONNX中的一些操作可能需要特定的属性和参数。因此,在进行模型换时,需要了解两种格式的差异,并根据实际需求进行调整。 总之,PyTorch模型换为ONNX格式可以让我们更加方便地在不同的框架和设备上使用模型,是深度学习工作中不可或缺的一部分。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值