【Task04:如何加快梯度下降速率】

【Task04:如何加快梯度下降速率】
1.1调整学习速率learning rate
不能过大或过小,一般需要合适的学习速率
在这里插入图片描述

自动调整学习速率,设置一个学习速率的函数,例如
Adagrad自动调整方法,使得不同参数的学习速率都不同。
推导过程如下
在这里插入图片描述在这里插入图片描述
在这里插入图片描述

因此学习速率实际变成了
找最佳步长(也就是学习速率和梯度相乘的值):一次微分的绝对值/二次微分值(在这里插入图片描述
,二次微分用一次微分表示,可以减少计算量)
1.2 随机梯度下降(使得数据训练更快)
算某一个例子的loss值,不算所有例子的loss值
在这里插入图片描述

1.3 feature scaling
不同的特征他的scale一致,让每个特征值标准化,让每一个特征对于loss的贡献一致,可以充分考虑到每一个特征。
在这里插入图片描述

如何做feature scaling,标准化(z-score)
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值