LR与SVM的相同点:
1、都是有监督的分类算法;
2、如果不考虑核函数,LR和SVM都是线性分类算法。
它们的分类决策面都是线性的。
3、LR和SVM都是判别式模型。
LR、SVM、决策树等判别式模型直接生成一个表示P(Y|X)或者Y=f(X)的判别函数。而生成式模型,例如朴素贝叶斯(NB),隐马尔可夫链(HMM),都是先计算联合概率分布P(Y,X),然后通过贝叶斯公式转化为P(Y|X)。
LR与SVM的不同点:
1、本质上是loss函数不同,或者说分类的原理不同。
LR的目标是最小化模型分布和经验分布之间的交叉熵:
LR基于概率理论中的极大似然估计。首先假设样本为0或者1的概率可以用sigmoid函数来表示,然后通过极大似然估计的方法估计出参数的值,即让模型产生的分布P(Y|X)尽可能接近训练数据的分布。
SVM的目标是最大化分类间隔(硬SVM),或者最大化 [分类间隔—a*分错的样本数量](软SVM)