线性回归与无约束优化论基础

线性回归

高中所学的一元线性回归 y = a + b x 为 y=a+bx为 y=a+bx了求取参数a、b的情况下,数据拟合出的直线的预测数据与原始数据的均方误差MSE
Q ( a , b ) = ∑ i = 1 n ( y i − a − b x i ) 2 Q(a,b)=\sum_{i=1}^{n}(y_{i}-a-bx_{i})^{2} Q(a,b)=i=1n(yiabxi)2
当MSE越小,就说明预测值越接近于真实值,即
Q ( a , b ) = m i n a , b Q ( a , b ) Q(a,b)=min_{a,b}Q(a,b) Q(a,b)=mina,bQ(a,b)
那么对于求取最小值的最直接的方法就是求一阶导数=0获取a,b;对于线性回归的核心思想其实就是找到a,b使真实值和预测值之间的误差最小
但往往在生活中伴随的预测基本都不仅仅一个变量足以概括,此时就将转变为多元线性回归问题.训练样本也随之由 ( x i ( 单个 x ) , y i ) (x_{i}(单个x),y_{i}) (xi(单个x),yi)变为 ( X ( i ) , y ( i ) ) (X^{(i)},y^{(i)}) (X(i),y(i)),其中
X ( i ) = [ x 1 ( i ) x 2 ( i ) . . . ] X^{(i)}=\begin{bmatrix}x1^{(i)} \\ x2^{(i)} \\ ... \end{bmatrix} X(i)= x1(i)x2(i)...
一元线性回归试图学习的是 f ( x ) = w x + b f(x)=wx+b f(x)=wx+b使得 f ( x ( i ) ) ≈ y ( i ) f(x^{(i)}) \approx y^{(i)} f(x(i))y(i)
而多元线性回归试图学习的是 f ( x ) = W T x + b f(x)=W^{T}x+b f(x)=WTx+b使得 f ( X ( i ) ) ≈ y ( i ) f(X^{(i)}) \approx y^{(i)} f(X(i))y(i) n T n^{T} nT表示参数矩阵)
多元线性回归对单行数据的求取可写作
f ( x ( 1 ) ) = W T X ( 1 ) + b = w 1 x 1 ( 1 ) + w 2 x 2 ( 1 ) + . . . + w d x d ( 1 ) + b = [ x 1 ( 1 ) , x 2 ( 1 ) , . . . , x d ( 1 ) , 1 ] ∗ [ w 1 w 2 . . . w d b ] f(x^{(1)})=W_{T}X^{(1)}+b=w1x_{1}^{(1)}+w2x_{2}^{(1)}+...+wdx_{d}^{(1)}+b=[x_{1}^{(1)},x_{2}^{(1)},...,x_{d}^{(1)},1]*\begin{bmatrix}w_{1} \\ w_{2} \\ . \\ .\\ .\\ w_{d} \\b\end{bmatrix} f(x(1))=WTX(1)+b=w1x1(1)+w2x2(1)+...+wdxd(1)+b=[x1(1),x2(1),...,xd(1),1] w1w2...wdb
整个数据集就可写作
[ f ( x ( 1 ) ) f ( x ( 2 ) ) f ( x ( 3 ) ) . . . f ( x ( N ) ) ] = [ [ x 1 ( 1 ) [ x 2 ( 1 ) . . . [ x d ( 1 ) 1 [ x 1 ( 2 ) [ x 2 ( 2 ) . . . [ x d ( 2 ) 1 [ x 1 ( 3 ) [ x 2 ( 3 ) . . . [ x d ( 3 ) 1 . . . . . . . . . . . . . . . [ x 1 ( N ) [ x 2 ( N ) . . . [ x d ( N ) 1 ] N ∗ ( d + 1 ) ∗ [

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值