- 博客(1)
- 资源 (4)
- 收藏
- 关注
转载 各种优化方法总结比较(sgd/momentum/Nesterov/adagrad/adadelta)
http://blog.csdn.net/luo123n/article/details/48239963 前言 这里讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x,使得f(x)的值最小。 本文以下内容假设读者已经了解机器学习基本知识,和梯度下降的原理。 SGD SGD指stochastic gradient descent,即随机梯度下降。是
2017-07-14 11:16:28 407
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人