pytorch 获取模型参数_pytorch中模型参数的访问、初始化和共享

本文介绍了如何在PyTorch中访问、初始化和共享模型参数。通过`parameters()`和`named_parameters()`方法可以访问模型参数,参数类型为``,具有`data`和`grad`属性。初始化参数可通过`nn.init`模块,如设置为正态分布或常数。共享模型参数可以通过多次调用同一层实现,反向传播时,共享参数的梯度按其复用次数计算。
摘要由CSDN通过智能技术生成

一、访问模型参数:

import torch
from torch import nn
from torch.nn import init
net = nn.Sequential(nn.Linear(4, 3), nn.ReLU(), nn.Linear(3, 1))  # pytorch已进行默认初始化

上一节说了,Sequential类继承自Module类,对于Sequential实例中含模型参数的层,我们可以通过Module类的parameters()或者named_parameters方法来访问所有参数。

比如对于上面的net:

for name, param in net.named_parameters():
    print(name, param.size(), type(param))

输出:

0.weight torch.Size([3, 4]) <class 'torch.nn.parameter.Parameter'>
0.bias torch.Size([3]) <class 'torch.nn.parameter.Parameter'>
2.weight torch.Size([1, 3]) <class 'torch.nn.parameter.Parameter'>
2.bias torch.Size([1]) <class 'torch.nn.parameter.Parameter'>

我们再用named_parameters函数试试:

for name, param in net.named_parameters():
    print(name, param.size(), type(param))

输出:

0.weight torch.Size([3, 4]) <class 'torch.nn.parameter.Parameter'>
0.bias torch.Size([3]) <class 'torch.nn.parameter.Parameter'>
2.weight torch.Size([1, 3]) <class 'torch.nn.parameter.Parameter'>
2.bias torch.Size([1]) <class 'torch.nn.parameter
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值