一,
二,引用例子
通过俄勒冈州波特兰市的城市住房价格的数据。
我们根据不同的房子大小size以及对应的不同售价组成的数据集来画图。
如下。
我们需要预测房子size是1250平方尺对应的房价是多少。
我们知道这是一个监督学习,因为有准确的输出答案。同时这个也是回归问题,也就是我们预测一个具体的数值的输出。
size in feets^2(x) | Price in 1000’s(y) |
---|---|
2104 | 460 |
1416 | 232 |
三,模型建立
其中h是假设函数。
(1)接下来中的设计学习算法任务中,我们需要做的是决定怎么表示这个假设函数h。参考文档
Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n−1)!∀n∈N 是通过 Euler integral
h
θ
(
x
)
=
θ
0
+
θ
1
∗
x
h_{\theta }(x)=\theta_{0}+\theta_1* x
hθ(x)=θ0+θ1∗x
明显,我们需要做的是预测y是一个关于x的线性函数。
以上所建立的模型是一元线性回归模型(单变量线性回归模型)。
θ
i
是
模
型
参
数
\theta_{i}是模型参数
θi是模型参数
(2)通过训练集确定模型参数
为了尽量将使得训练集中的x通过假设函数h预测出来的y非常接近实际的训练集数据,这个问题就是需要我们解决线性回归中的最小化问题。我们需要
(
h
θ
(
x
)
−
y
)
2
(h_{\theta }(x)-y)^2
(hθ(x)−y)2
无限趋近0。
所以,对于整个训练集,我们需要使得
m
i
n
m
i
z
e
θ
0
,
θ
1
1
2
m
∑
i
=
1
m
(
h
θ
(
x
(
i
)
)
−
y
(
i
)
)
2
\mathop{minmize}\limits_{\theta_0,\theta_1} \frac{1}{2m}\sum_{i=1}^m (h_{\theta }(x^{(i)})-y^{(i)})^2
θ0,θ1minmize2m1i=1∑m(hθ(x(i))−y(i))2
尽可能小。
此时,例子中的问题已经转化成寻找我训练集中预测值和真实值的差的平方的和的1/2m 最小的
θ
1
和
θ
2
\theta_1 和\theta_2
θ1和θ2
(3)代价函数 (cost function)(平方误差函数)(平方误差代价函数)
J
(
θ
1
,
θ
2
)
=
1
2
m
∑
i
=
1
m
(
h
θ
(
x
i
)
−
y
i
)
2
J(\theta_1,\theta_2)= \frac{1}{2m}\sum_{i=1}^m (h_{\theta }(x_i)-y_i)^2
J(θ1,θ2)=2m1i=1∑m(hθ(xi)−yi)2
我
们
需
要
做
的
是
关
于
θ
1
θ
2
对
函
数
J
(
θ
1
,
θ
2
)
=
1
2
m
∑
i
=
1
m
(
h
θ
(
x
(
i
)
)
−
y
(
i
)
)
2
求
最
小
值
我们需要做的是关于\theta_1 \theta_2 对函数J(\theta_1,\theta_2)= \frac{1}{2m}\sum_{i=1}^m (h_{\theta }(x^{(i)})-y^{(i)})^2求最小值
我们需要做的是关于θ1θ2对函数J(θ1,θ2)=2m1i=1∑m(hθ(x(i))−y(i))2求最小值
四,通过等高线来展示代价函数
我们知道,代价函数 J ( θ 1 , θ 2 ) = 1 2 m ∑ i = 1 m ( h θ ( x i ) − y i ) 2 J(\theta_1,\theta_2)= \frac{1}{2m}\sum_{i=1}^m (h_{\theta }(x_i)-y_i)^2 J(θ1,θ2)=2m1∑i=1m(hθ(xi)−yi)2$是严格意义上的凸函数,也就是存在唯一一个全局最小值,较小的学习率和足够的的迭代次数。当我们找到等高图中J的最小值对应的 θ 1 , θ 2 \theta_1,\theta_2 θ1,θ2的值,就是确定了线性回归模型中的两个模型参数。
五,梯度下降法(算法优化)解决无约束优化问题