【pytorch】freeze

freeze bn:

把所有相关的bn设置为 momentum=1.0 。

freeze 正常参数:

先比较两个state_dict,来freeze交集:

def freeze_model(model, defined_dict, keep_step=None):

    for (name, param) in model.named_parameters():
        if name in defined_dict:
            param.requires_grad = False
        else:
            pass

    freezed_num, pass_num = 0, 0
    for (name, param) in model.named_parameters():
        if param.requires_grad == False:
            freezed_num += 1
        else:
            pass_num += 1

    return model, freezed_num, pass_num

之后再指定optimizer的时候要注意避开这部分参数,防止被freeze的参数重新被optimizer将requires_grad置为True:

# 注意这里的 filter 是python3的写法,所以直接用就行,没必要加 list() 。
optimizer = optim.Adam(filter(lambda p: p.requires_grad, model.parameters()), lr=0.001, \
    betas=(0.9, 0.999), eps=1e-08, weight_decay=1e-5)

check freeze

def check_state_dict_same(pre_dict, cur_dict):
    diff_lst = list()
    for key in cur_dict.keys():
        if key in pre_dict:
            if not torch.equal(cur_dict[key], pre_dict[key]):
                diff_lst.append(key)
    return diff_lst

diff_lst = check_state_dict_same(pre_dict=pre_state_dict, cur_dict=model.state_dict())
if diff_lst:
    print('\n\n Change by follow pars: \n')
    print(diff_lst)
    print('\n\n')
    exit(0)
else:
    print('\n\n Model is successfully freezed . \n')

bn在model.train()的模式下还是会自动更新参数的,就算放到 with torch.no_grad(): 里面或者把每个bn的参数都 p.requires_grad = False 也没用。

由于bn模块经常被写成可复用的形式。因此固定住bn的时候,记得另外写一套供不需被固定的分支所调用的bn模块。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值