- 博客(2)
- 收藏
- 关注
原创 通过不断重置学习率来逃离局部极值点
本文提出了一种利用不断调大学习率的方法试图跳出SGD优化过程中的局部极小值或者鞍点的方法,并提出了两种具体的方法:随机漫步起跳法和历史最优起跳法,实验证明相对常规优化方法有一定性能提升。
2017-12-10 22:46:56 21730 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
从历史阅读未来
本文提出了一种利用不断调大学习率的方法试图跳出SGD优化过程中的局部极小值或者鞍点的方法,并提出了两种具体的方法:随机漫步起跳法和历史最优起跳法,实验证明相对常规优化方法有一定性能提升。
2017-12-10 22:46:56 21730 2
TA创建的收藏夹 TA关注的收藏夹
TA关注的人