SVM与LR(逻辑回归)的区别和联系

SVM与LR(逻辑回归)的区别和联系

区别:

1、SVM是非参数估计,本质上是解决二次规划问题;LR是参数估计,本质上是一个极大似然估计问题。

2、SVM被称为结构风险最小化,也就是让模型的泛化能力尽可能好;LR被称为经验风险最小化,也就是最小化分类误差。

3、SVM中使用的分类损失函数是合页损失函数;LR中使用的分类损失函数是交叉熵函数。

4、SVM中只使用支持向量来决定决策边界;LR使用所有的样本来构建分类器。

5、SVM不能直接输出分类概率;LR输出的是分类概率,可以通过阈值判断来确定分类。

6、SVM不适合大量的数据样本;LR对数据样本大小没有要求。

联系:

1、都是经常用到的分类算法。

2、本质上都属于线性分类问题,通过加入核函数就可以解决非线性问题。

3、两者的损失函数都是由正则项加分类误差来构成,调整其中的权重参数就可以对模型泛化能力和分类精度进行权衡,以得到最合适的模型参数。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值