机器学习三步骤:
1.选择合适的模型 2.模型评估(损失函数) 3.最佳模型(梯度下降)
回归模型(监督学习)
- 线性回归模型
- 一元线性回归
- 多元线性回归
- 非线性回归模型
- 最小二乘法
- 定义
- 线性回归:给定数据集D= { ( x 1 , y 1 ) , ( 2 2 , y 2 ) , . . . , ( x m , y m ) } {\{(x_1,y_1),(2_2,y_2),...,(x_m,y_m)}\} {(x1,y1),(22,y2),...,(xm,ym)},其中 x i = ( x i 2 ; . . . ; x i d ) , y i ∈ R {x_i = (x_{i2};...;x_{id}),y_i \in R} xi=(xi2;...;xid),yi∈R.“线性回归”(linear regression) 试图学得一个线性模型以尽可能准确地预测实值输出标记。
- 线性回归是一种线性模型,它假设输入变量x和单个输出变量y之间存在线性关系。
形如: y = a x + b {y = ax+b} y=ax+b 一元线性回归
多元线性回归:多个变量组成的集合,形如, f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w d x d + b {f(x) = w_1x_1 + w_2x_2+...+w_dx_d+b} f(x)=w1x1+w2x2+...+wdxd+b
- 补充涉及的数学知识
- 多元函数:设D为一个非空的n元有序数组的集合,f为某一确定的对应规则。 ( x 1 , x 2 , . . . , x n ) ∈ D {(x_1,x_2,...,x_n)\in D} (x1,x2,...,xn)∈D 若对于每一个有序数组,通过f都有唯一确定的实数y与之对应,则称对应规则f为定义在D上的n元函数,记为 y = f ( x 1 , x 2 , . . . , x n ) {y = f(x_1,x_2,...,x_n)} y=f(x1,x2,...,xn)
- 二元函数:设D是二维空间的一个非空子集,称映射f: D -> R为定义在D上的二元函数,记为 z = f ( x , y ) , ( x , y ) ∈ D 或 z = f ( p ) , p ∈ D {z = f(x,y),(x,y) \in D 或z=f(p),p\in D} z=f(x,y),(x,y)∈D或z=f(p),p∈D 其中D称为该函数的定义域,x,y称为自变量,z称为因变量。
-
线性回归模型
给定有d个属性(特征)描述的示例 x = ( x 1 ; x 2 ; . . . , x d ) {x = (x_1;x_2;...,x_d)} x=(x1;x2;...,xd),其中 x i {x_i} xi是x在第i个属性(特征)上的取值,线性模型试图学得一个通过属性(特征)的线性组合来进行预测的函数。(假设函数)
即: f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w d x d + b {f(x) = w_1x_1 + w_2x_2+...+w_dx_d+b} f(x)=w1x1+w2x2+...+wdxd+b一般是用向量表示(向量默认是竖着的),写成:
f ( x ) = w T x + b {f(x) = w^Tx+b} f(x)=wTx+b ,其中 w = ( w 1 ; w 2 ; . . . ; w d ) {w = (w_1;w_2;...;w_d)} w=(w1;w2;...;wd) 转置变为横向量了。
那么横向量*竖向量=数值,本质是向量的内积。
把w和b学得以后,模型就得以确定了。 -
最小二乘法
基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(Least square method). 在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。即,真实值与预测值的差值。 -
损失函数是对单个训练集的,成本函数是所有训练集损失函数的平均数。