这两种算法都是常见的分类算法,从目标函数来说,区别在于logistic回归采用的是log对数损失函数L(Y,P(Y|X))=-log(P(Y|X)),SVM采用的是hingle loss.损失函数的目的都是增加对分类影响较大的数据点的权重,减小对分类影响小的数据点的权重。
SVM只考虑support vectors,也就是和分类最相关的少数点,去学习分类器。而logistic回归通过非线性映射,大大减小离分类平面较远的点的权重,相对提升与分类最相关的数据点的权重。
在工业实际应用中,SVM用的不多,速度慢而且效果很难保证。
在Andrew Ng的机器学习视频中提到SVM和logistic回归的适用情形:
m是样本数,n是特征的数目
1、如果n相对于m来说很大,则使用logistic回归或者不带核函数的SVM(线性分类)
2、如果n很小,m的数量适中(n=1-1000,m=10-10000),使用带核函数的SVM算法
3、如果n很小,m很大(n=1-1000,m=50000+),增加更多的特征,然后使用logistic回归或者不带核函数的SVM。
SVM和logistic回归分别在什么情况下使用?
最新推荐文章于 2023-12-27 22:29:43 发布