- 博客(1)
- 资源 (1)
- 问答 (4)
- 收藏
- 关注
原创 优化器与学习率
优化器与学习率(optim和lr_scheduler)解释 pytorch中,优化器是torch.optim,学习率调整策略是torch.optim.lr_scheduler,一般说的学习率衰减策略指的就是lr_scheduler。 构建网络时一般先定义优化器,如SGD优化器,是对网络参数进行优化: optimizer_ExpLR = torch.optim.SGD(net.parameters(), lr=0.1) 然后定义学习率调整策略,如指数衰减策略(ExponentialLR),是给优化器一个学习
2022-02-10 21:45:56 2920
纹理分类数据集kth-tips2-a_b.zip
2021-10-12
如何让卷积神经网络中间的某几层参数固定,还不影响正常的训练过程?
2022-01-13
用matplotlib画个图这简单的四行代码都能出错?
2019-02-20
萌新求问,我神经网络书上的一段代码出错不知道为什么??
2018-11-08
C语言链表undefined reference to 问题
2018-10-02
TA创建的收藏夹 TA关注的收藏夹
TA关注的人