- 博客(1)
- 资源 (3)
- 收藏
- 关注
转载 batch-GD,Mini-batch-GD, SGD, Online-GD
转自:http://www.bubuko.com/infodetail-898846.html机器学习中梯度下降(Gradient Descent, GD)算法只需要计算损失函数的一阶导数,计算代价小,非常适合训练数据非常大的应用。梯度下降法的物理意义很好理解,就是沿着当前点的梯度方向进行线搜索,找到下一个迭代点。但是,为什么有会派生出 batch、mini-batch、online这
2016-05-09 12:00:03 1160
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人