线性回归--西瓜书,统计学习总结

西瓜书中的示例即为统计学习中的样本,属性即为特征。

1.线性模型 

给定由d个属性描述的示例x=(x1;x2;...;xd),其中xi是x在第i个属性上的取值,线性模型将会学习到一个通过属性的线性组合来进行预测函数,即:

目标函数  f(x)=w1x1+w2x2+…+ wdxd+b,

用向量形式写成:f(x)=wTx+b

其中w=(w1;w2;...;wd),w和b得到之后,模型就确定。

2.线性回归

通过学习到一个线性模型来尽可能准确地预测实值输出标记

给定数据集D={(x1,y1), (x2,y2),…, (xm,ym)},其中xi=( xi1;xi2;...;xid),yi∈R。

2.1只有一个属性的线性回归

f(xi)=wxi+b 使得f(xi)渐近等于y

如何求解w和b? 使得误差最小。什么误差?最常用的是均方误差

均方误差有非常好的几何意义:欧几里得距离。基于均方误差最小化进行模型求解的方法叫做最小二乘法。在线性回归中,最小二乘法就是试图找到一条直线使得所有点到直线的欧几里得之和最小。求w,b的过程在最小二乘法中,叫做参数估计





让偏导等于0,即可求得解。


求w将b代入的时候,要注意,b中也有w。


2.2 多元线性回归

 这里w和x都是向量

为了方便,将b看作是w向量中的一个,而x向量需要相应加上一列1

w是(d+1)*1的列向量,d是属性个数

x是m*(d+1)的向量,m是示例个数     x1是列向量

  

也是均方误差   

机器学习基石视频:  E=y'y-2wx'y+w'x'xw  求偏导即可


令上式为0,求w  

    

在实践中,平台会提供求虚假逆矩阵的方法。

2.3 广义线性模型

wTx+b=g(y)

如将示例对应的输出标记定义为指数尺度上的变化,即g(y)=lny,也就是lny= wTx+b,这就是对数线性回归,也就是让e wTx+b=y。

一般化定义这种衍生,设g是单调可微函数(连续且充分光滑),令y=g-1(wTx+b)或者表达为g(y)= wTx+b,这样的模型称之为广义线性模型(generalizedlinear model)其中函数g称为联系函数(link function)

广义线性模型的参数估计通过加权最小二乘法或极大似然法进行。????

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值