传统机器学习算法优缺点总结

传统机器学习算法优缺点总结

算法优点缺点
K-最近邻算法实现简单,预测的精度一般也较高对预测集的每个样本都需要计算它和每个训练样本的相似度,计算量较大,尤其是训练集很大的时候,计算量会严重影响算法的性能
决策树准确率较高,可解释性强,对缺失值、异常值和数据分布不敏感等对于连续型的变量需要离散化处理,容易出现过拟合现象等
朴素贝叶斯分类算法计算简单,在数据量较少的情况下依然有效,也适用于多分类的问题属性的相互独立假设在实际问题中可能得不到很好的满足。

该算法在医学、经济和社会领域都有广泛的应用。
支持向量机(SVM)有充分的理论基础,并且最终的决策只由少数的支持向量确定,算法的复杂度取决于支持向量的数量,而不是样本空间的维数,所以计算量不是很大,而且泛化准确率较高对参数调节和核函数的选取比较敏感,而且在存储和计算上占用较多的内存和运行时间,所以在大规模的样本训练上有所不足
随机森林不容易过拟合,适合数据的类型多样,具有很好的抗噪声能力,结果容易理解,可以并行化,算法计算速度快等对小数据集可能效果不理想,计算比单棵决策树慢,可能出现相似的树,投票结果影响正确的决策
k-Means算法算法简单、快速,合用于近似球状的簇,对非球形效果不明显一般要求所有的数据都放入内存,这限制了它在大规模数据上的应用。
还要求用户预先指定聚类的个数,但在大多数实际应用中,最终的聚类个数是未知的。
只使用某一固定的原则来决定聚类,这就使得当聚类的形状不规则或大小差别很大时,聚类的结果不能令人满意
层级聚类多层次聚类结构清晰可见无全局目标函数,聚类算法容易陷入局部最优,同时也容易受噪声、孤立点、奇异值的影响
基于密度聚类的算法优点是扫描一遍,且不受形状、噪声和孤立点数据对象的影响,不用提前给出聚类数不足是算法复杂度较高,同时聚类结果的质量和数据的密度有直接关系,要求待聚类数据的密度有起伏,并且该方法对参数设置十分敏感

User CF 和 Item CF
在这里插入图片描述

  • 4
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

积跬步,慕至千里

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值