Netron可视化网络结构

Netron可视化网络结构


在尝试了其他的可视化网络结构方法之后,还是觉得用netron最直观,界面也最好看,并且对于各个深度学习框架也比较友好。

netron可视化在线地址:https://netron.app/
netron Windows安装包下载

方式一:代码部分(没有细节信息):

if __name__ == '__main__':
    net = ResidualAttentionModel_448input()
    #其中ResidualAttentionModel_448input()为自己搭建的网络结构
    net.cuda()

    print('net: {}'.format(net))

    path = "../checkpoints/"
    model = path+'best.pth'
    torch.save(net, model)
    model = torch.load(model)  # 加载
第一步:使用以上代码生成best.pt文件。
第二步:采用netron软件加载生成的best.pth文件。
结果如下图所示,可以发现 没有网络结构的细节信息

在这里插入图片描述


因此,采用方式二来保存网络结构的细节信息。


方式二:(保存细节信息)代码部分:

if __name__ == '__main__':
    net = ResidualAttentionModel_448input()
    #其中ResidualAttentionModel_448input()为自己搭建的网络结构
    net.cuda()

    print('net: {}'.format(net))

    path = "../checkpoints/"
    model = path+'best.onnx'
    # torch.save(net, model)
    # model = torch.load(model)  # 加载

    import torch
    import torch.onnx
    from torch.autograd import Variable
    import onnx
    from onnx import shape_inference

    x = Variable(torch.randn(1, 3, 448, 448)).cuda()
    torch_out = torch.onnx.export(net, x ,model,export_params=True,opset_version=11)

    onnx.save(onnx.shape_inference.infer_shapes(onnx.load(model)), model)

第一步:采用以上代码生成best.onnx文件
第二步:下载netron软件,打开保存好的模型(best.onnx),即可看到已经加载了网路结构的细节信息。
在这里插入图片描述

分别介绍各部分代码作用:

1、ResidualAttentionModel_448input()为自己搭建的网络结构

net = ResidualAttentionModel_448input()
net.cuda()

2、将pytorch生成的模型转换为onnx格式

import torch
import torch.onnx
from torch.autograd import Variable

x = Variable(torch.randn(1, 3, 448, 448)).cuda()
torch_out = torch.onnx.export(net, x ,model,export_params=True,opset_version=11)

3、保存模型结构的细节信息

import onnx
from onnx import shape_inference

onnx.save(onnx.shape_inference.infer_shapes(onnx.load(model)), model)

以下是踩坑过程记录:

踩坑一: RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same

解决方式:添加 net.cuda()
net = ResidualAttentionModel_448input()
net.cuda()

原因:是cpu和cdua 使用的不一致,这里model和可视化都使用的是cuda()

踩坑二: UserWarning: You are trying to export the model with onnx:Upsample for ONNX opset version 9. This operator might cause results to not match the expected results by PyTorch.
ONNX’s Upsample/Resize operator did not match Pytorch’s Interpolation until opset 11. Attributes to determine how to transform the input were added in onnx:Resize in opset 11 to support Pytorch’s behavior (like coordinate_transformation_mode and nearest_mode).
We recommend using opset 11 and above for models using this operator.
“” + str(_export_onnx_opset_version) + ". "
在这里插入图片描述

解决方式:添加 opset_version=11(pytorch版本必须为1.13以上)
torch_out = torch.onnx.export(net, x ,model,export_params=True,opset_version=11)
net.cuda()

  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝色Tu耳其

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值