因为前几天根据迭代调整学习率,所以做个小笔记记录下。
torch.optim.Adam作为参数优化器,实例化时通常只需要赋两个值分别为params (模型参数)和lr(学习率)
实例化完成后,如果需要在训练过程中进行修改参数,直接修改optim.param_groups[0] 这个字典即可。
我目前根据轮次修改lr 就修改optim.param_groups[0][‘lr’]即可。
后面如果有新用到的,继续补充:)
torch.optim.Adam优化
最新推荐文章于 2024-05-03 20:35:05 发布