Tensorflow 学习速率的设置|学习速率的指数下降

本文探讨了深度学习中学习速率的重要性,解释了为什么动态调整学习速率通常优于固定学习速率。通过举例说明,展示了学习速率过大可能导致模型无法收敛到最小损失值。并介绍了Tensorflow中指数下降的学习速率公式,该公式有助于模型更有效地找到最优解。
摘要由CSDN通过智能技术生成

随着学习的进行,深度学习的学习速率逐步下降  为什么比  固定的学习速率 得到的结果更加准确?


如上图所示,曲线代表损失值,小球一开始位于(1)处,假设学习速率设置为 △ v,那么根据梯度下降,损失值将在(1)  (2)之间来回移动,无法到达最小值(3)处。要想到达(3),只能降低学习速率。


下面介绍 学习速率指数下降 公式:


公式中,learning_rate: 当前的学习速率
start_rate:最初的学习速率
decay_rate:每轮学习的衰减率,0<decay_rate<1
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值