机器学习基石-Linear Regression

大纲

这里写图片描述

Linear Regression Problem

yR ,我们就成为机器学习问题为回归问题

1 Linear Regression Hypothesis

h(x)=wTx

2 Illustration of Linear Regression

这里写图片描述
线性回归问题就是在空间中,寻找一个线或者超平面,满足点到超平面拥有最小的误差

3 The Error Measure

这里写图片描述
回归问题一般用square Error作为损失函数,所以我们的算法的目的就是如何最小化 Ein(w)

Linear Regression Algorithm

1 Matrix Form of Ein(w)

Ein(w)=1NXWy2

我们可以知道 Ein(w) 是一个连续可导的凸函数,所以在 w 满足Ein(w)=0的时候取得最小值

2 The Gradient Ein(w)

Ein(w)=2N(XTXWXTy)

Optimal Linear Regression Weights

我们令 Ein(w)=0 ,则有

这里写图片描述

Conclusion

这里写图片描述

Linear Regression Issue

如何证明在数据足够大的时候, Ein¯Eout¯ 呢?

这里写图片描述
这里写图片描述

当N足够大时, Ein¯ Eout¯ 都趋向于noise level,所以线性回归问题模型是可以学习的

Linear Regression for Binary Classification

1 Linear Classification VS Linear Regression

我们知道二分类问题的 0/1 损失很难被优化,是一个NP难问题,但是线性回归的的square损失很容易被优化,因为,{-1,+1}也属于R,所以我们很自然的想到能否用square代替0/1损失进行优化,来更好的优化问题。

这里写图片描述

2 Relation of Two Error

这里写图片描述

我们可以看到,square损失是0/1损失的上界

这里写图片描述

这里我们用了一个更宽松的上界来bound住包外误差,优化这个宽松的上界是很简单的,一般来说这个算法可以取得不错的效果,所以我们可以跑一次linear Regression来得到 W ,作为PLA算法的初始W,可以加速算法收敛

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值