【五分钟学会Pytorch系列】之ADAM优化器

ADAM优化器

常用优化器之一

1. 基本原理

可以看作是RMSProp算法的改进,加入了梯度滑动平均和偏差纠正。

1.1 梯度滑动平均

RMSProp的梯度平方积累通过平滑常数平滑得到,对梯度本身并不做平滑处理,ADAM对梯度也进行了平滑处理。

1.2 偏差纠正

简单理解就是为了避免让平滑后的华东均值过于靠近0,这里做了扰动处理。

2. 参数含义

参数很多,常用的参数一般有params和lr,优化器的参数设置往往比较固定,下面列举一个比较常用的使用方法。

torch.optim.Adam(
	params,#模型里需要被更新的参数
	lr = 0.001 # 学习率
	betas=0.10.999&#
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值