LR与SVM以及线性回归的区别于联系

 文章最前: 我是Octopus,这个名字来源于我的中文名--章鱼;我热爱编程、热爱算法、热爱开源。所有源码在我的个人github ;这博客是记录我学习的点点滴滴,如果您对 Python、Java、AI、算法有兴趣,可以关注我的动态,一起学习,共同进步。

LR与SVM的联系与区别

相同点:

     1)LR与SVM都是分类算法

     2)LR与SVM都是监督学习算法

     3)LR与SVM都是判别模型

     4)如果不考虑核函数,LR与SVM都是分类算法,也就是说他们的分类决策都是线性的。

不同点:

     1)损失函数不同

     2)SVM只考虑支持向量,而LR考虑全局

     3)在解决非线性问题,SVM采用核函数的机制,而LR通常不采用核函数的方法

    4)LR是参数模型,SVM是非参数模型,本质不同

    5)在训练集较小时,SVM比较合适,而LR需要较多的样本

LR与线性回归的联系与区别:

     1)LR与线性回归都是属于广义的线性回归

     2)线程回归模型的优化目标函数是最小二乘,而LR则是依然函数

     3)线性回归主要做预测,LR主要做分类(如:二分类)

     4)LR的模型本质上是一个线程回归模型,逻辑回归模型无法做到sigmoid的非线程形式,sigmoid可以轻松处理0/1分类问题。

     5)线程回归在整个实数范围内进行预测,敏感度一致,而分类范围,需要在【0,1】。逻辑回归就是一种减小预测范围,将预测值限定为【0,1】间的一种回归模型,而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值