西瓜书学习笔记——第三章:线性模型

本文深入探讨线性模型,包括线性回归的基础及其对离散变量的处理,详细解释了如何处理单个属性和多个属性情况。进一步介绍了线性回归的广义形式,对数几率回归及其在分类任务中的应用,以及如何求解对数几率回归模型的参数。此外,还提及了线性类别分析(LDA)和多分类学习的策略,如一对一(OvO)、一对其余(OvR)和多对多(MvM)方法。
摘要由CSDN通过智能技术生成

3.1 基本形式

  • 线性模型:试图学得一个通过属性的线性组合来进行预测的函数,即:
    f ( x ) = w 1 x 1 + w 2 x 2 + … + w d x d + b f\left( x\right) =w_{1}x_{1}+w_{2}x_{2}+\ldots +w_{d}x_{d}+b f(x)=w1x1+w2x2++wdxd+b
    其中, x = ( x 1 ; x 2 ; . . . ; x d ) x=(x_{1};x_{2};...;x_{d}) x=(x1;x2;...;xd)是有d个属性的示例
    一般用向量形式写成:
    f ( x ) = w T x + b f\left( x\right) =w^{T}x+b f(x)=wTx+b

在线性模型的基础上通过引入层级结构或高维映射可得到许多功能更为强大的非线性模型(nonlinear model)。

3.2 线性回归

  • 线性回归(linear regression)试图学得一个线性模型以尽可能地预测实值输出标记。
对离散变量的处理
  • 若属性值之间存在序关系,可通过连续化将其转换为连续值:如高中低对应{1, 0.5, 0}
  • 若属性之间不存在序关系,假定属性值有k个,则通常转化为k维向量:如瓜类的取值黄瓜,西瓜,冬瓜可转化为(0,0,1),(0,1,0)(1,0,0)
3.2.1 对于样本只有一种属性的情况

线性回归试图学得:
\qquad\qquad\qquad\qquad\qquad f ( x i ) = w x i + b f(x_{i})=wx_{i}+b f(xi)=wxi+b,使得 f ( x i ) ≃ y i f(x_{i}) \simeq y_{i} f(xi)yi

对于 f ( x i ) ≃ y i f(x_{i}) \simeq y_{i} f(xi)yi,我们可以通过让均方误差最小化来达到(即找到一条直线,使得所有样本到该直线的欧几里得距离之和最小)。
( w ∗ , b ∗ ) = a r g   m i n ( w , b ) ∑ i = 1 m ( f ( x i ) − y i ) 2 \left( w^{\ast },b^{\ast }\right) =arg\space min_{\left( w,b\right) }\sum ^{m}_{i=1}\left( f\left( x_{i}\right) -y_{i}\right) ^{2} (w,b)=arg min(w,b)i=1m(f(xi)yi)2 (3.4)    = a r g   m i n ( w , b ) ∑ i = 1 m ( y i − w x i − b ) 2 \space\space\qquad\qquad =arg\space min_{\left( w,b\right) }\sum ^{m}_{i=1}\left( y_{i}-wx_{i}-b\right) ^{2} \tag{3.4}   =arg min(w,b)i=1m(yiwxib)2(3.4)

求解 E ( w , b ) = ∑ i = 1 m ( y i − w x i − b ) 2 E\left( w,b\right) = \sum ^{m}_{i=1}\left( y_{i}-wx_{i}-b\right) ^{2} E(w,b)=i=1m(yiwxib)2最小化的过程,称为线性回归模型的最小二乘“参数估计”(parameter estimation)。

E ( w , b ) E\left( w,b\right) <

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值