线性回归 linear regression

这节课好像吸收的东西有点少
总体来说,线性回归就是形如
这里写图片描述
其实就是对我们的特征x进行加权w再求和罢了。
他的误差计算公式为
这里写图片描述
那么就是想最小化 err(y,y) .
我们用矩阵的计算方法,其实可以直接求得
这里写图片描述
觉得这个推导,吴恩达老师的cs229讲的比林轩田老师讲的好,吴恩达来说用的是 矩阵迹的方法trace()。

linear regression 能否用在 linear classification 上

答案是可以的。
我们比较他们的误差函数
这里写图片描述

wTX 作为横坐标,误差err作为纵坐标.
当y=1时
这里写图片描述
当y=-1时
这里写图片描述

发现,不管怎样,始终有
这里写图片描述

所以
这里写图片描述

regression的 Ein(w) 可以作为classification Eout(w) 的上限
所以,只要我们让regression的 Ein(w) 尽可能的小,那么就可以让classification Eout(w) 尽可能的小。

我们如果面对的是分类问题,单用linear regression其实效果没有linear classification好。由于linear regression 很快,所以我们一般先用linear regression, 求出一个大概的值,作为 PLA或者 packet 的初始值。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值