单变量线性回归
-
liner regression function:
定义此假设函数
为: h ( x ) = Θ 0 + Θ 1 ⋅ x h(x)=\Theta_0+\Theta_1\cdot x h(x)=Θ0+Θ1⋅x简单的是用线性函数来拟合输入的数据集。其中 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0和Θ1是需要求解出的两个参数。 -
cost function:
定义此代价函数
为: J ( Θ 0 , Θ 1 ) = 1 2 m ∑ i = 1 m ( h ( x i ) − y i ) 2 J(\Theta_0,\Theta_1)=\frac{1}{2m}\sum_{i=1}^{m}{(h(x^i)-y^i)^2} J(Θ0,Θ1)=2m1∑i=1m(h(xi)−yi)2其中 x i 和 y i x^i 和y^i xi和yi是数据集的输入输出,而 h ( x i ) h(x^i) h(xi)表示线性回归得到的估算值,这个代价函数有点类似于概率论中的平方差。。。 -
gradient descent:
定义此梯度下降算法
为: Θ j : = Θ j − α ⋅ ∂ ∂ Θ j J ( Θ o , Θ 1 ) \Theta_j:=\Theta_j-\alpha\cdot\frac{\partial }{\partial \Theta_j}J(\Theta_o,\Theta_1) Θj:=Θj−α⋅∂Θj∂J(Θo,Θ1) (for j=0 and j=1)%%%
:=符号表示将式子右边赋值给左边。 α \alpha α表示学习速率(learning rate )。
梯度下降同时更新 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0和Θ1,最终找到偏微分项为零,得到 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0和Θ1。更新时遵循“同时赋值,同时更新”
将代价函数和假设函数带回到梯度下降算法中,就能得到具体的 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0和Θ1。