Pytorch查看网络可学习参数的秘籍

  Pytorch作为当前风头正劲的深度学习框架,以强大的动态图机制笑傲江湖。Pytorch通过autograd构建了自动微分系统,并且基于autograd构建了nn神经网络模块,封装了卷积、池化、全连接等各种神经网络常见结构。
  torch.nn的核心数据结构是Module,它是一个抽象的概念,既可以表示神经网络中的某个层(layer),也可以表示一个包含很多层的神经网络。在实际运用中,我们通常继承nn.Module,撰写自己的网络层。它强大的封装甚至不需要我们定义可学习的参数(比如卷积核的权重和偏置参数)就可以使用
  那么问题来了,当我们想查看网络的可学习参数时,比如卷积层的权重、偏置等时,应该怎么做呢?
  答案是可以从每个封装好的具有可学习参数的网络模块的named_parameters()中查看,注意调用模块实例名.name_parameters()分别返回nameparameter

connected_layer = nn.Linear(in_features = 64*64*3, out_features = 1)
for name, parameter in connected_layer.named_parameters():
    print(name, parameter)

  输出结果:

weight Parameter containing
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值