batch gradient algorithm and stochastic gradient algorithm
在学习standford的ML视频时遇到这两个概念:批梯度下降算法和随机梯度下降算法。梯度下降算法基本思想:新参数获得:旧参数沿着损失函数梯度方向上下降一定步长。
上述两个公式是梯度下降算法的数学表示,其中重要的是alpha,theta,J(theta)。alpha表示的是学习速率或步长,在编程中是需要进行调试的参数。theta是需求的参数数组。
翻译
2014-03-24 22:38:36 ·
830 阅读 ·
0 评论