LR和SVM的比较

LR与SVM的不同:

1.损失函数不同:
LR的损失函数是交叉熵,SVM损失函数是合页损失函数

2.样本点对模型的作用不同:
SVM中,只有关键的样本点(支持向量)对模型结果有影响,而LR中,每一个样本点都对模型有影响。

3.输出不同:
LR可以对每个样本点给出类别判断的概率值(基于后验概率),SVM无法做到。

4.防过拟合能力不同:
SVM的损失函数就自带正则(损失函数中的1/2||w||^2项),而LR必须另外在损失函数上添加正则项。

5.处理非线性分类问题能力不同:
SVM可通过核函数灵活地将非线性问题转化为线性分类问题。LR如果要做到这一点,需要自己手动地进行特征转换。

6.处理分类问题能力不同:
SVM只能处理二类分类问题,如果要处理多类别分类,需要进行 one VS one 或one VS all建模。LR可以直接进行多类别分类。

7.对数据要求不同:
SVM依赖于数据表达出的距离测度,所以需要对数据进行标准化处理,而LR不需要。

8.抗噪声数据能力不同:
SVM只看支持向量,而LR要看全部样本,所以SVM抗噪声能力要强于LR。

参考文章:https://www.jianshu.com/p/f86de852ee96

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LR(逻辑回归)和SVM(支持向量机)都是常见的机器学习算法,可以用于特征建模和分类任务。在使用LRSVM对特征进行建模并采用五折验证法时,可以按照以下步骤进行: 1. 特征提取:根据问题的需求,从原始数据中提取出适合建模的特征。这可以包括数值特征、文本特征、图像特征等。 2. 特征预处理:对提取出的特征进行预处理,包括缺失值处理、标准化、归一化等。确保特征在相同的尺度上。 3. 数据划分:将数据集划分为训练集和测试集。通常采用五折交叉验证,将数据集分成五个子集,每次使用四个子集作为训练集,剩余的一个子集作为测试集。 4. 特征建模:对每个训练集进行LRSVM模型的训练。LR是一种广义线性模型,可以用于二分类或多分类任务;SVM是一种非线性分类器,可以通过选择不同的核函数进行分类。 5. 模型评估:使用训练好的模型对测试集进行预测,并计算预测结果与真实标签之间的准确率、精确率、召回率、F1值等指标。 6. 重复步骤4和步骤5,直到每个子集都作为测试集进行了一次。最后,将各次模型评估的指标求平均值,得到最终的模型性能评估结果。 通过以上步骤,可以使用LRSVM对特征进行建模,并采用五折验证法来评估模型的性能。这样可以减小模型对特定数据集的过拟合情况,并提供对模型性能的更准确评估。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值