pytorch model.named_parameters() ,model.parameters() ,model.state_dict().items()
1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param。
for name, param in model.named_parameters():
print(name,param.requires_grad)
param.requires_grad=False
2、model.parameters(),迭代打印model.parameters()将会打印每一次迭代元素的param而不会打印名字,这是他和named_parameters的区别,两者都可以用来改变requires_grad的属性。
for param in model.parameters():
print(param.requires_grad)
param.requires_grad=False
3、model.state_dict().items() 每次迭代打印该选项的话,会打印所有的name和param,但是这里的所有的param都是requires_grad=False,没有办法改变requires_grad的属性,所以改变requires_grad的属性只能通过上面的两种方式。
for name, param in model.state_dict().items():
print(name,param.requires_grad=True)
4、改变了requires_grad之后要修改optimizer的属性。
optimizer = optim.SGD(
filter(lambda p: p.requires_grad, model.parameters()), #只更新requires_grad=True的参数
lr=cfg.TRAIN.LR,
momentum=cfg.TRAIN.MOMENTUM,
weight_decay=cfg.TRAIN.WD,
nesterov=cfg.TRAIN.NESTEROV
)
5、随机参数初始化
def init_weights(m):
if isinstance(m, nn.Conv2d):
torch.nn.init.xavier_uniform(m.weight.data)
model.apply(init_weights)