这几天一直在看Angdrew Ng 的机器学习视频, 里面关于梯度下降(Gradient descent)算法的矢量化(vectorization)过程听得云里雾里的,好在经过后面的编程作业,总算是大致弄清楚了矢量化的过程。
Gradient descent:
θj:=θj−α1m∑i=1m(hθ(x(i))−y(i))x(i)j
θ0:=θ0−α1m∑i=1m(hθ(x(i))−y(i))x(i)0
θ1:=θ1−α1m∑i=1m(hθ(x(i))−y(i))x(
这几天一直在看Angdrew Ng 的机器学习视频, 里面关于梯度下降(Gradient descent)算法的矢量化(vectorization)过程听得云里雾里的,好在经过后面的编程作业,总算是大致弄清楚了矢量化的过程。
Gradient descent:
θj:=θj−α1m∑i=1m(hθ(x(i))−y(i))x(i)j
θ0:=θ0−α1m∑i=1m(hθ(x(i))−y(i))x(i)0
θ1:=θ1−α1m∑i=1m(hθ(x(i))−y(i))x(