这是机器学习的第一章第二节:Gradient descent(梯度下降法)
在学习本节过程中,将会涉及到高等数学中导数与偏导数的相关知识
通过这一节的学习将会了解到以下一个公式的含义:
公式1.2.1:\(\displaystyle \theta_j := \theta_j - \alpha\frac{\partial }{\partial \theta_j}J(\theta_0,\theta_1)\) \((for\:j = 1\:and\:j = 0)\)
通过第一节(Cost function)的学习,我们知道了函数1.1.1(Hypothesis)并且知道了可以通过函数1.1.2(Cost function)计算函数1.1.1适应training set的性能(函数1.1.2计算结果越接近\(0\)性能越好)。那么接下来这一节中我们就来学习如何计算函数1.1.1中的参数\(\theta_0\)和\(\theta_1\),这就引出了本节的标题,Gradient descent,也就是公式1.2.1的内容。
下面给出一个立体图,我们用它来理解梯度下降法(Gradient descent)的原理:(实际计算图像与它不同)
在这个三维坐标系统中,其\(x\)轴和\(y\)轴变成了\(\theta_0\)和\(\theta_1\),即Hypothesis中的两个参数(parameter);\(z\)轴则表示\(J(\theta_0,\theta_1)\),即Cost function的值。我们的目标是不断调整\(\theta_0\)和\(\theta_1\)的值,使得