线性回归的一些思考(SVM)

1、对于线性回归模型的代价函数,为了能应用求导来求其最小值(代价函数可导),不能用错误的分类个数作为代价函数(不可导)又或者用S函数(非凸函数,不能应用梯度下降,转化为log凸函数),简单的做法就是转化为距离(统计学习方法书中提到的)或者机器学习课堂上讲到的几种形式,这些形式都可导。
2、线性模型中,对于简单的代价函数是可以直接求导得到(比如机器学习课堂上讲的简单线性回归模型),但是一般都采用梯度下降(平方最小误差代价函数是凸函数,凸函数的性质:局部最小就是全局最小),而且迭代速度有上限(统计学习方法有证明),比较快。
3、SVM模型的代价函数为什么不能用梯度下降呢?因为它有限制条件。有限制条件的凸函数优化问题,利用拉格朗日的对偶性,求解不带有限制条件的优化问题(其实还是有限制,只不过参数结果人为控制),这个求解的算法过程其实还是用了类似梯度下降的思想。同样对于线性回归的没有限制的代价函数,也是有对偶形式的。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值