【机器学习】2.线性模型

基本形式

给定有d个属性描述的示例 x = ( x 1 , x 2 , ⋯   , x d ) \mathop x = (x_1,x_2,\cdots,x_d) x=(x1,x2,,xd)通过属性的线性组合来进行预测的函数
f ( x ) = w 1 x 1 + w 2 x 2 + ⋯ + w d x d + b f(x)=w_1x_1+w_2x_2+\cdots+w_dx_d+b f(x)=w1x1+w2x2++wdxd+b
一般向量形式写成
f ( x ) = w T x + b f(x)=w^Tx+b f(x)=wTx+b

线性回归

试图学得一个线性模型以尽可能准确地预测实值输出标记
对于离散数据,如属性值之间存在‘序’的关系,则将他们转为连续值,eg:二值属性身高的高矮可转为{1,0},若不存在序的关系,则转为K维向量,eg:属性瓜类的取值‘西瓜’,‘南瓜’和‘黄瓜’可转为(1,0,0),(0,1,0)和(0,0,1)

线性回归试图 f ( x ) = w T x + b \mathop f(x)=w^Tx+b f(x)=wTx+b 使得 f ( x i ) ≈ y i \mathop f(x_i)\approx y_i f(xi)yi
使用均方误差作为性能度量
( w , b ) = a r g m i n w , b ∑ i = 1 m ( f ( x i ) − y i ) 2 (w,b)=arg min_{w,b} \sum_{i=1}^m(f(x_i)-y_i)^2 (w,b)=argminw,bi=1m(f(xi)yi)2
. . . . . . . . . . . . . = a r g m i n w , b ∑ i = 1 m ( y i − w x i − b ) 2 ............. = arg min_{w,b} \sum_{i=1}^m(y_i-wx_i-b)^2 .............=argminw,bi=1m(yiwxib)2
求解w,b使得 E ( w , b ) = ∑ i = 1 m ( y i − w x i − b ) 2 \mathop E(w,b)=\sum_{i=1}^m(y_i-wx_i-b)^2 E(w,b)=i=1m(yiwxib)2最小,分别进行求导。
∂ E ( w , b ) ∂ w = 2 ( w ∑ i = 1 m ( x i ) 2 − ∑ i = 1 m x i ( y i − b ) ) \frac {∂E(w,b)}{∂w}=2( w\sum_{i=1}^m(x_i)^2-\sum_{i=1}^mx_i(y_i-b)) wE(w,b)=2(wi=1m(xi)2i=1mxi(yib))
∂ E ( w , b ) ∂ b = 2 ( m b − ∑ i = 1 m ( y i − w x i ) ) \frac {∂E(w,b)}{∂b}=2(mb-\sum_{i=1}^m(y_i-wx_i)) bE(w,b)=2(mbi=1m(yiwxi))
令求导均等于零,求解最优w,b的解
w = ∑ i = 1 m y i ( x i − x ‾ ) ∑ i = 1 m x i 2 − 1 m ( ∑ i = 1 m x i 2 ) 2 w = \frac {\sum_{i=1}^my_i(x^i-\overline{x})}{\sum_{i=1}^m x_i^2-\frac{1}{m}(\sum_{i=1}^m x_i^2)^2} w=i=1mxi2m1(i=1mxi2)2i=1myi(xix)
b = 1 m ∑ i = 1 m ( y i − w x i ) b = \frac{1}{m} \sum_{i=1}^m(y_i-wx_i) b=m1i=1m(yiwxi)
其中 1 m ∑ i = 1 m x i = x ‾ \mathop \frac{1}{m}\sum_{i=1}^{m}x_i =\overline{x} m1i=1mxi=x

对于多元线性回归, f ( x i ) = w T x i + b \mathop f(x_i)=w^Tx_i+b f(xi)=wTxi+b ,令 w = (w,b) x=(x,1)

x = ( x 1 T 1 x 2 T 1 . . . . . . x m T 1 ) x = \begin{pmatrix} x_1^T & 1 \\ x_2^T& 1 \\ .&.\\ .&.\\ .&.\\ x_m^T& 1 \\ \end{pmatrix} x=x1Tx2T...xmT11...1
y = ( y 1 , y 2 , y 3 , . . . , y m ) y = (y_1,y_2,y_3,...,y_m) y=(y1,y2,y3,...,ym)
w = a r g m i n w ( y − x w ) T ( y − x w ) w=argmin_w(y-xw)^T(y-xw) w=argminw(yxw)T(yxw)
E w = ( y − x w ) T ( y − x w ) \mathop E_w = (y-xw)^T(y-xw) Ew=(yxw)T(yxw)对w求导
∂ E ∂ w = 2 x T ( x w − y ) = 0 \frac {∂E}{∂w} = 2x^T(xw-y)=0 wE=2xT(xwy)=0
⇒ 2 x T x w = 2 x T y \Rightarrow 2x^Txw=2x^Ty 2xTxw=2xTy
⇒ w = ( x T x ) − 1 x T y \Rightarrow w=(x^Tx)^{-1}x^Ty w=(xTx)1xTy

对数线性回归
ln ⁡ y = w T x + b \ln y= w^Tx+b lny=wTx+b
广义线性模型 g(.)单调可微函数
y = g − 1

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值