数据分析-深度学习Pytorch Day2

nn.Conv2d()的参数以及含义

torch.nn.Conv2d(
    in_channels, 
    out_channels, 
    kernel_size, 
    stride=1, 
    padding=0, 
    dilation=1, 
    groups=1, 
    bias=True, 
    padding_mode='zeros', 
    device=None, 
    dtype=None)

当biase为True时,输出特征图的每个元素满足一下公式:

一般来说,我们会设置bias=False。这是因为Conv2D后面往往会接一个BN层,在BN层中会计算bias,因此,在Conv2D中可以设置biase=False。

模型微调(fine_turn)

pytorch中通过 .required_grad来控制某一层是否进行梯度回传(参数更新)。如下所示:

model = torchvision.models.resnet18(pretrained=True)
for param in model.parameters():
    param.requires_grad = False

当param.requires_grad = True时,表示进行梯度回传(默认)。

当param.requires_grad = False时,表示该层不进行参数参数更新。

局部微调

当训练集数量少,或者数据域不相同时,可以使用局部微调。如固定住backbone的参数,只更新head的参数。

全局微调

当训练数据量大时,可以使用全局微调。这时我们可以控制一些层的学习率来获取更好的效果。即网络的不同层可以使用不同的学习率。

ignored_params = list(map(id, model.fc.parameters()))
base_params = filter(lambda p: id(p) not in ignored_params,
                     model.parameters())
 
optimizer = torch.optim.SGD([
            {'params': base_params},
            {'params': model.fc.parameters(), 'lr': 1e-3}
            ], lr=1e-2, momentum=0.9)

多GPU训练

DP

DDP

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值