【机器学习】Linear SVM 和 LR 的联系和区别

本文探讨了线性支持向量机(Linear SVM)与逻辑回归(LR)的相同点和不同点,包括它们的损失函数、概率性质、数据依赖性、风险最小化策略以及核函数的应用。尽管两者都是线性分类器,但SVM基于结构风险最小化,依赖数据测度,通常不产生概率,而LR基于经验风险最小化,能提供概率解释,且在大数据场景下更具优势。
摘要由CSDN通过智能技术生成

今天看到别人问这个问题,突然想到自己也对这两个经典的线性分类器没有太过区别其异同,所以特此翻阅了一下资料总结了一番。以下理论部分主要参考了LR与SVM的异同这篇文章。这篇文章之后,又写了它的姊妹篇【机器学习】Kernel Logestic Regression 和Kernel SVM

LR和Linear SVM的相同点

  1. 都是监督分类算法
  2. 都是线性分类方法
    另外这里需要说的就是LR也是可以加核函数的至于为什么不用,是原因的,后面再说。
  3. 都是判别模型
    判别模型和生成模型是两个相对应的模型。
    判别模型是直接生成一个表示 P(Y|X) 或者 Y=f(X) 的判别函数(或预测模型)
    生成模型是先计算联合概率分布 P(Y,X) 然后通过贝叶斯公式转化为条件概率。
    SVM和LR,KNN,决策树都是判别模型,而朴素贝叶斯,隐马尔可夫模型是生成模型。
    生成算法尝试去找到底这个数据是怎么生成的(产生的),然后再对一个信号进行分类。基于你的生成假设,那么那个类别最有可能产生这个信号,这个信号就属于那个类别。判别模型不关心数据是怎么生成的,它只关心信号之间的差别,然后用差别来简单对给定的一个信号进行分类。
    对于生成模型和判别模型的更详细的差别到时候再开一个博客来讲

LR和Linear SVM的不同点

LR和Linear SVM本质不同来自于loss function不同

LR的损失函数是cross entropy

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值