线性回归 linear regression

这节课好像吸收的东西有点少
总体来说,线性回归就是形如
这里写图片描述
其实就是对我们的特征x进行加权w再求和罢了。
他的误差计算公式为
这里写图片描述
那么就是想最小化 err(y,y) .
我们用矩阵的计算方法,其实可以直接求得
这里写图片描述
觉得这个推导,吴恩达老师的cs229讲的比林轩田老师讲的好,吴恩达来说用的是 矩阵迹的方法trace()。

linear regression 能否用在 linear classification 上

答案是可以的。
我们比较他们的误差函数
这里写图片描述

wTX 作为横坐标,误差err作为纵坐标.
当y=1时
这里写图片描述
当y=-1时
这里写图片描述

发现,不管怎样,始终有
这里写图片描述

所以
这里写图片描述

regression的 Ein(w) 可以作为classification Eout(w) 的上限
所以,只要我们让regression的 Ein(w) 尽可能的小,那么就可以让classification Eout(w) 尽可能的小。

我们如果面对的是分类问题,单用linear regression其实效果没有linear classification好。由于linear regression 很快,所以我们一般先用linear regression, 求出一个大概的值,作为 PLA或者 packet 的初始值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值