优化器---------Pytorch

1、梯度清零
    # 反向传播[loss.backward()]之前要梯度清零  
    optimizer.zero_grad()
2、权值更新
    optimizer.step()

3、动量(冲量):结合当前梯度与上一次更新信息,用于当前更新

4、优化器
## SGD:对参数敏感,但合适的参数会使效果更好
## Adam:每次迭代,学习率有一个确定的范围,使参数更新稳定   
# rmsprop优化器是自适应学习率梯度下降法adagrad的改进
    @随机梯度下降法
    # params:管理的参数组
    # lr:初始学习率
    # momentum:动量系数beta(如0.9)
    # weight_decay:L2正则化系数
    # nesterov:是否采样NAG
    optim.SGD(params,lr,momentum=0,dampening=0,weight_decay=0,nesterov=False)

    @其他九种优化器
    @建议用Adam
    # RMSprop结合Momentum
    torch.optim.Adam(model.parameters(), lr=lr)
    
    # RMSprop
    optim.RMSprop
    # Adam增加学习率上限
    optim.Adamax
    # 稀疏版Adam
    optim.SparseAdam

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值