监督学习之回归问题——预测房屋售价
数据集
Training set of housing prices:
Size in feet2(x) | Price(¥) in 1000′s(y) |
---|---|
2014 | 460 |
1416 | 232 |
1534 | 315 |
852 | 178 |
⋯ | ⋯ |
注释:
m:训练集大小
x′s="input"variable/feature
y′s="output"variable/"target"variable
(x,y)是一个训练样本
(x(i),y(i),第i个训练样本
线性回归模型:
θi模型参数
cost function
在线性回归中,我们有一个数据集,我们要做的就是得出模型参数的值,尽量地与这些数据点很好的拟合。
令J(θ0,θ1)=12m∑i=1m(hθ(x(i))−y(i))2,求minθ0,θ1J(θ0,θ1)
平方误差代价函数
是 | 一般 | 简化 |
---|---|---|
模型 | hθ(x)=θ0+θ1x | hθ(x)=θ1x,θ0=0 |
参数 | θ0,θ1:不同的参数不同的模型 | θ1 |
代价函数 | J(θ0,θ1)=12m∑i=1m(hθ(x(i))−y(i))2 | J(θ1)=12m∑i=1m(hθ(x(i))−y(i))2 |
目标 | minθ0,θ1J(θ0,θ1) | minθ1J(θ1) |
两个参数的minθ0,θ1J(θ0,θ1)图形是一个3D的图形,但我们不会使用3D曲面来展示代价函数J,而是使用等高线图,或者成为等高图像
Gradient Descent梯度下降法
梯度下降法步骤:
Have some function:
- J(θ0,θ1)
Want:
- minθ0,θ1J(θ0,θ1)
outLine
- Keep changing
θ0,θ1
to reduce
J(θ0,θ1)
until we hopefully end up at a minimum
- start with some
θ0,θ1
(say
θ0=0,θ1=0
)
梯度下降法求出的”最优解“只是局部最优解。
梯度下降法算法:
repeat until converage{
}
同步更新 θ0,θ1