搜索微信公众号:‘AI-ming3526’或者’计算机视觉这件小事’ 获取更多人工智能、机器学习干货
第四章 多变量线性回归
4.1 多维特征
在之前的章节中,我们学习了单变量线性回归,及模型中只包含一个变量(特征)。但是我们清楚,在使用机器学习算法去解决一个实际问题时,只包含一个变量(特征)的模型是不能够满足我们的需求的,所以在这里,我们将从例子、定义以及模型三个方面来介绍多变量(multiple variables/features)线性回归。
4.1.1 一个小例子
这里我们还以之前的房价预测为例,我们为这个模型加入例如卧室数量、楼层数以及房子的使用时长等多个特征,构成一个含有多个变量的模型,模型中的特征为 ( x 1 , x 2 , . . . , x n ) (x_1,x_2,...,x_n) (x1,x2,...,xn)。
对于这个问题,我们就需要对这个含有多个变量的问题进行建模。
4.1.2 定义
- n n n = 特征的数量(number of features)
- x ( i ) x^{(i)} x(i) = 输入的第 i i i个训练样本的特征(input of i t h i^{th} ith training example)
- x j ( i ) x_j^{(i)} xj(i) = 输入的第 i i i个训练样本的特征的值(value of feature j j j in i t h i^{th} ith training example)
例如,在上面的例子中, n n n = 4, x ( 2 ) = [ 1416 3 2 40 ] x^{(2)} = \left[ \begin{matrix} 1416\\ 3\\ 2\\ 40\end{matrix} \right] x(2)=⎣⎢⎢⎡14163240⎦⎥⎥⎤, x 3 2 x_3^{2} x32 = 2。
4.1.3 假设函数
- 单变量线性回归: h θ ( x ) = θ 0 + θ 1 x h_\theta (x) = \theta_0+\theta_1 x hθ(x)=θ0+θ1x
- 多变量线性回归: h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 + . . . + θ n x n h_\theta (x) = \theta_0+\theta_1 x_1+\theta_2 x_2+...+\theta_n x_n hθ(x)=θ0+θ1x1+θ2x2+...+θnxn
在多变量线性回归的模型公式中,有 n + 1 n+1 n+1个参数和 n n n个变量,为了方便表示,将 x 0 x_0 x0的值设为1( x 0 ( i ) = 1 x_0^{(i)}=1 x0(i)=1),所以特征向量 x x x是一个从0开始标记的 n + 1 n+1 n+1维向量。即
x = [ x 0 x 1 x 2 . . . x n ] ∈ R n + 1 , θ = [ θ 0