- 博客(2)
- 收藏
- 关注
原创 4.16:优化器和学习率调整策略
checkpoint要存的东西如下:但为啥TransENet中还存了loss,查看所有.pt文件 optimizer中存的参数是啥选择优化器和设置学习率调整策略的直接实现那为什么要重写optimizer和scheduler呢,如下所示:def make_optimizer(args, my_model): trainable = filter(lambda x: x.requires_grad, my_model.parameters()) if args.optimi..
2022-04-16 22:43:39
665
原创 4.15:微调(finetune) FSRCNN反卷积层
为啥要重新定义卷基层def default_conv(in_channels, out_channels, kernel_size, bias=True): return nn.Conv2d( in_channels, out_channels, kernel_size, padding=(kernel_size//2), bias=bias)finetune FSRCNN1.先建立模型,同时导入之前上采样训练得到的参数2.冻结 FSRCNN的映射层,设置requires_grad=False..
2022-04-16 15:37:56
229
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人