如果你能认真看完这篇文章, 那么请联系我
我送你小花花~
1. 线性回归
1.1 认识线性回归
- 在提到逻辑回归之前, 我们不得不说一下线性回归, 逻辑回归只是线性回归的一个变种或者说增强
- 回归(regression): 回归在机器学习中是监督学习的一个部分, 大体上我们可以看下图:
- 我们所说的线性回归, 可以说是机器学习中最重要的一个算法, 因为通过线性回归以及对线性回归的推广, 已经可以解决生活中的大部分分类与回归问题了!
- 无推广的线性回归是一个纯粹的回归模型.
1.2 来, 吃个栗子
我们看一个栗子
对一个房屋的价格, 我们的数据包括
- 房屋的面积
- 房屋的价格
其中, 房屋的面积是数据的一个特征(x), 房屋的价格是最后的预测结果(y)
对所有的数据, 得到如下图, 红色的点是所有的数据, 根据这些数据, 我们能够很容易的 画出一条直线(即学习过程) 来拟合这些数据, 如图中绿色的那条直线 y = a x + b y=ax+b y=ax+b
在画出了这条拟合的直线之后, 便可以通过其面积x, 来预测价格 y
接下来, 我们用Andrew Ng 的形式表达 y = a x + b y=ax+b y=ax+b
其中的y, 是 假设函数 hypothesis 用 h θ ( x ) h_{\theta}(x) hθ(x)表示 h θ ( x ) = θ 0 + θ 1 x h_\theta(x)=\theta_0+\theta_1x hθ(x)=θ0+θ1x
再看一张ppt, 总结一下上述
另外, 我们也可以直接表示 y = b + w x y=b+wx y=b+wx
其中的 b b b表示 b i a s bias bias, 即偏置, w w w是 w e i g h t weight weight 权重
以上 是单变量线性回归
1.3 多变量线性回归以及矩阵的表示
顾名思义, 多变量线性回归即有多个特征, 比如上述栗子中房子的面积, 房子门口几条街, 和房子的楼层数, 都是房子的特征, 可以用如下方式表示 y = b + w 1 x 1 + w 2 x 2 + w 3 x 3 + ⋯ + w m x m y=b+w_1x_1+w_2x_2+w_3x_3+{\cdots}+w_mx_m y=b+w1x1+w2x2+w3x3+⋯+wmxm y = b + ∑ i = 1 m ( w i x i ) y=b+\sum_{i=1}^m(w_ix_i) y=b+i=1∑m(wixi)
在这里我们构造两个向量
- X = [ x 1 x 2 ⋮ x m 1 ] X=\begin{bmatrix} x_1\\x_2\\{\vdots}\\x_m\\1\end{bmatrix} X=⎣⎢⎢⎢⎢⎢⎡x1x2⋮xm1⎦⎥⎥⎥⎥⎥⎤, 特征向量
- β = [ w 1 w 2 ⋮ w m b ] \beta=\begin{bmatrix} w_1\\w_2\\{\vdots}\\w_m\\b\end{bmatrix} β=⎣⎢⎢⎢⎢⎢⎡w1w2⋮wmb⎦⎥⎥⎥⎥⎥⎤
上式可以表示为:
y = β T X y=\beta^TX y=βTX
1.4 线性回归的最优解:
- 以上, 我们已经构造除了线性回归模型, 接下来, 要做的便是通过数据 学习 β \beta β的值
- 共有 m m m 条数据, 对于每一条数据, 我们的输入是 X X X与其对应的标签 y y y, 输出是 y ^ \hat{y} y^,
即, 我们用 y ^ \hat{y} y^ 表示预测结果, y y y表示实际结果 - 方差: J ( β ) = 1 2 m ∑ i = 0 m (