机器学习原理扫盲系列(三)LR与SVM的联系与区别

联系:
1、都是监督学习的分类算法
2、当不考虑核函数时,LR和SVM都是线性分类模型
3、都是判别模型
区别:

1、本质上的不同是loss的不同,也就是分类原理的不同。

LR的目标是最小化模型分布与经验分布之间的交叉熵
SVM的目标是最大化分类间隔
2、SVM决策边界只考虑分界面附近的点,即支持向量,对异常点相对不敏感,LR考虑全体数据,对异常点敏感。
3、svm不能产生概率值,LR能产生概率值
4、SVM是结构风险最小化,LR是概率风险最小化。
结构风险最小化是对训练误差和模型复杂度之间进行均衡,防止过拟合,减小泛化误差。为了达到结构风险最小化,最常用的方法是加入正则化项。而svm损失函数的第一项就相当于L2正则化。
LR也可以加入正则化项,但原始损失函数不包含正则化项。lr是最小化模型分布与经验分布之间的交叉熵。
5、在解决非线性问题时,svm可以引入核函数,lr一般不使用核函数。
svm只考虑决策面附近的点,只有少数点参与核计算。
lr中,如果使用核函数,则全部的样本点都要参与核计算,计算负责度太高。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值