pytorch里面每个参数都有一个requires_grad属性,这个属性为True表示这个参数需要梯度下降优化。属性为False表示这个参数不需要优化。
for param in model.parameters():
param.requires_grad = False
不用写filter!!!tmd网上的写都是瞎jb乱写,只需要写这个requires_grad就行!
pytorch里面每个参数都有一个requires_grad属性,这个属性为True表示这个参数需要梯度下降优化。属性为False表示这个参数不需要优化。
for param in model.parameters():
param.requires_grad = False
不用写filter!!!tmd网上的写都是瞎jb乱写,只需要写这个requires_grad就行!