前言
lz最近开始学习机器学习算法,为了防止现在学到的知识在未来一段时间慢慢遗忘,在学习途中作此纪录,方便未来回顾。
本文记录的算法是线性回归算法。
一、名词解读
1.线性
什么是线性?顾名思义,线性的意思就是数学模型的几何表现是一条直线,这是基于模型中因变量(机器学习中称为特征或属性)是一元的情况。当模型中因变量为二元(特征向量是二维)时,其在几何上的表现则是一个平面,而当模型中因变量为多元(特征向量是多维)时,其在几何上的表现是一个超平面。
2.回归
在有监督算法中,当因变量y是连续性变量时,需要使用回归算法进行拟合,当因变量y是分类变量时,需要使用分类算法进行拟合。
二、模型形式
1.一般形式
h β ( x ) = β 0 + β 1 x ( 1 ) + β 2 x ( 2 ) + . . . + β n x ( n ) h_\beta(x)=\beta_0+\beta_1x^{(1)}+\beta_2x^{(2)}+...+\beta_nx^{(n)} hβ(x)=β0+β1x(1)+β2x(2)+...+βnx(n)(一般形式)
2.矩阵形式
h β ( X ) = β X h_\beta(X)=\beta X hβ(X)=βX
其中 β = \beta= β= ∣ 1 2 3 4 5 6 7 8 9 ∣ \left|\begin{matrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{matrix} \right| ∣∣∣∣∣∣147258369∣∣∣∣∣∣
三、损失函数
线性回归的损失函数为其残差平方和,具体形式为
1.一般形式
L o s s = ∑ i = 1 m ( h β ( x i ) − y i ) 2 Loss=\sum_{i=1}^{m}(h_\beta(x_i)-y_i)^2 Loss=∑i=1m(hβ(xi)−yi)2
其中 h β ( x i ) = β 0 + β 1 x i ( 1 ) + β 2 x i ( 2 ) + . . . + β n x i ( n ) h_\beta(x_i)=\beta_0+\beta_1x_i^{(1)}+\beta_2x_i^{(2)}+...+\beta_nx_i^{(n)} hβ(xi)=β0+β1xi(1)+β2xi(2)+...+βnxi(n