线性回归 Linear Regression
概念等同于数学中的线性回归模型,机器学习的本质是模型的拟合。
即在二维问题中求一条直线来拟合各个点(x,y)
其中x是自变量,或者叫输入参数/特征值,y是因变量,也就是结果/标签
(x一般在数学问题中叫做参数,在机器学习中叫特征值)
或者在多维问题中,求一个曲面(二维),或立体/域 来拟合所符合的各个点/域
假设一个n维问题中,输入n个特征值,x1 x2 x3 …… xn 输出为一个结果y
则 Y=W1X1+W2X2+W3X3+……+WnXn+b是最简单的线性回归模型,
即对于每个特征值都有一个参数,还有一个偏移量bias
我们可以将式子写成加权平均
Y=W1X1+W2X2+W3X3+……+WnXn+bX0
X0是我们延伸出来的,假设其值为1,这样我们就有N+1个输入变量x 和 N+1个参数
“矩阵乘法,即左行乘右列,左边行中的值与右边值对应相乘并相加”
矩阵运算效率较高,就可以用矩阵相乘的方法相计算。
对于损失,求线性回归中的损失较为重要,损失或者误差可以认为是真实值与预测值之间的误差。
损失函数Loss即我们用来衡量损失。
线性回归的过程即输入训练集进行训练,因为线性回归模型一般参数较少,训练的时间较短。
输入训练集训练的过程即
1.输入训练集中数据的参数&#