线性回归(Linear Regression)
1.假设函数( Hypothesis Function)
给定了一系列离散的点,求一条直线与这些点最吻合。将这条直线的函数叫假设函数,设为
改变theta的值时,式子将产生不同的直线,有的偏差严重,有的相对好一些。要看直线与点的吻合程度,需要一个函数来作为误差函数。
2.代价函数(Cost Function)
计算theta0和theta1取不同值时的误差大小。来找适当的theta0与theta1。
3.梯度下降(Gradient Decent)
收敛公式:
α为学习速率,为函数J(theta0,theta1)在(theta0,theta1)点的偏导数。当此偏导数等于零时,thetaj即为最佳值。
要使此偏导数等于零,就要取一个适当α,让上面的公式一直重复直至收敛。α过大时会导致函数可能不会收敛,而过小的时候,需要重复很多次才能收敛。
多变量线性回归
1.符号意思:
n: the numbers