线性回归
线性回归是为了求的一个超平面S,使得这个超平面S能够将训练集的正负实例点完全正确分开。为了求的这个超平面,我们需要求的其中的参数 θ \theta θ和 b b b,这时需要一个学习策略,就是定义损失函数并将损失函数最小化。
hypothesis: h θ ( x ) = X θ T = b + x 1 θ 1 + x 2 θ 2 + . . . + x n θ n h_{\theta}\left( x \right)=X\theta^{T}=b+{x_{1}}{\theta_{1}}+{x_{2}}{\theta_{2}}+...+{x_{n}}{\theta_{n}} hθ(x)=XθT=b+x1θ1+x2θ2+...+xnθn
- n n n 代表特征的数量
- θ {\theta} θ表示参数,也就是要求的的模型,是一个n维的向量
- X表示训练的数据集,是一个m*(n+1)维的矩阵,其中m表示样本的个数,这里的n+1表示在这个矩阵中添加了一列,位置为第一列,这一列的数据全为1
- x ( i ) {x^{\left( i \right)}} x(i)代表第 i i i 个训练实例,是训练数据集矩阵中的第 i i i行,是一个n维的向量(vector)。
- b表示偏置,如果偏置为0,则hypothesis函数必过原点。
损失函数: J ( θ 0 , θ 1 . . . θ n ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J\left( {\theta_{0}},{\theta_{1}}...{\theta_{n}} \right)=\frac{1}{2m}\sum\limits_{i=1}^{m}{{{\left( h_{\theta} \left({x}^{\left( i \right)} \right)-{y}^{\left( i \right)} \right)}^{2}}} J(θ0,θ1...θn)=2m1i=1∑m(hθ(x(i))−y(i))2
- m表示样本的个数,也就是训练数据集的行数
- y ( i ) {y}^{\left( i \right)} y(i)表示训练数据集中第 i i i个样本的标签
- h θ ( x ( i ) ) h_{\theta} \left({x}^{\left( i \right)} \right) hθ(x(i))表示训练数据集中根据第 i i i个样本进行拟合得到的预测标签