- 博客(1)
- 收藏
- 关注
转载 深度学习优化算法演变
原标题:Adam那么棒,为什么还对SGD念念不忘 (一)一个框架看懂优化算法 “ 说到优化算法,入门级必从 SGD 学起,老司机则会告诉你更好的还有AdaGrad / AdaDelta,或者直接无脑用 Adam。可是看看学术界的最新 paper,却发现一众大神还在用着入门级的 SGD,最多加个 Momentum 或者 Nesterov,还经常会黑一下 Adam。这...
2020-02-25 10:14:39 1692 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人