梯度下降(Gradient descent) Matlab实现
是跟随吴恩达机器学习课程学习的,具体的推导过程不再给出
求Cost Function:
假设函数h(x)=θ0+θ1x\displaystyle h(x) = \theta_0 + \theta_1 xh(x)=θ0+θ1x,样本数为nnn,特征值数为111,cost function为
J(θ0,θ1)=12n∑i=1n(h(xi)−yi)2\displaystyle J(\theta_0, \theta_1) = \frac{1}{2n}\sum^n_{i = 1}(h(x_i) - y_i)^2J
原创
2020-06-10 12:48:21 ·
1238 阅读 ·
0 评论