一、线性回归模型概述
- 线性回归模型:简单的来说就是在样本空间中的一条直线或者一个平面或者更高维的超平面,并且我们要使得预测值与真实值之间的误差最小化。
- 三维样本空间如下图:
- 二维样本空间:
二、线性回归模型
-
给定训练集 D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x n , y n ) D={(x_1,y_1 ),(x_2,y_2 ),…,(x_n,y_n)} D=(x1,y1),(x2,y2),…,(xn,yn)其中 x i ∈ R d ; y ∈ R ; x_i∈R^d;y∈R; xi∈Rd;y∈R;线性回归模型如下: f ( x i ) = w T x i + b f(x_i )=w^T x_i+b f(xi)=wTxi+b并且我们期望得到的模型有下面式子成立: f ( x i ) ≈ y i f(x_i )≈y_i f(xi)≈yi
-
为便于讨论我们将将 b b b并入到 w w w中: x i = [ x i 1 , x i 2 , … , x i d , 1 ] T x_i=[x_i^1,x_i^2,…,x_i^d,1]^T xi=[xi1,xi2,…,xid,1]T w i = [ w i 1 , w i 2 , … , w i d , b ] T w_i=[w_i^1,w_i^2,…,w_i^d,b]^T wi=[wi1,wi2,…,wid,b]T所以线性回归模型可以表示为: f ( x i ) = w T x i f(x_i )=w^T x_i f(xi)=wTxi
-
我们将每个样本的预测值与真实值记为: ε i ε_i εi y i = w T x i + ε i y_i=w^T x_i+ε_i yi=wTxi+εi
-
假设误差 ε i ε_i εi是独立同分布的,并且服从高斯分布。即: P ( ε i ) = 1 2 π σ e x p ( − ε i 2 2 σ 2 ) P(ε_i )=\frac{1}{\sqrt{2πσ}} exp(-\frac{ε_i^2}{2σ^2 }) P(εi)=2πσ1exp(−2σ2εi2) ε i = y i − x i ε_i=y_i-x_i εi=yi−xi带入得到: P ( y i ∣ x i , w ) = 1 2 π σ e x p ( − ( y i − w T x i ) 2 2 σ 2 ) P(y_i |x_i,w)=\frac{1}{\sqrt{2πσ}} exp(-\frac{(y_i-w^T x_i)^2}{2σ^2 }) P(yi∣xi,w)=2πσ1exp(−2σ2(yi−wTxi)2)已知参数 w w w和数据 x i x_i xi的情况下,预测值为 y i y_i yi的条件概率.
-
注:这个地方个人感觉比较疑惑: P ( ε i ) P(ε_i ) P(εi)按理来说表示的是误差为