linear regression线性回归
机器学习大致流程
H是已知 X到目的 Y的映射
假设
H
θ
(
x
i
)
=
θ
0
+
θ
1
x
i
H_\theta(x^i)= \theta_0 + \theta_1x^i
Hθ(xi)=θ0+θ1xi
选择
θ
0
\theta_0
θ0和
θ
1
\theta_1
θ1使得代价函数也即平方误差代价函数最小
代价函数
m
i
n
m
i
z
e
∑
i
=
1
m
(
h
θ
(
x
i
)
−
y
i
)
/
2
m
minmize\sum_{i=1}^{m}(h_\theta(x^i)- y^i)/2m
minmize∑i=1m(hθ(xi)−yi)/2m
gradient descent梯度下降算法
梯度下降是一个用来求函数最小值的算法。
其中
α
\alpha
α被称作learning rate(学习速率),之后视频中讲到
α
\alpha
α不可以过大,否则可能无法收敛或者发散,而梯度下降是通过不断重复计算直到
θ
j
\theta_j
θj收敛。
要注意的是
θ
0
\theta_0
θ0和
θ
1
\theta_1
θ1需要同时更新
梯度下降算法和线性回归对比:
通过计算可以得到结果:
由于使用到了所有变(求和),所以也成为批量梯度下降函数
Day 2!加油!