非监督性学习--五种单一型算法

这篇博客详细介绍了非监督学习中的KNN、朴素贝叶斯、逻辑回归、SVM和决策树五种算法,包括算法原理、优缺点等关键点。KNN算法强调了K值选择的重要性,而朴素贝叶斯依赖于特征独立假设。逻辑回归在数据集有明确边界时效果良好,但可能过拟合。SVM追求最大间隔,适合高维数据,但计算复杂。决策树易于理解和解释,但可能过拟合且对不平衡数据处理不佳。
摘要由CSDN通过智能技术生成

1、KNN

算法

根据一个点周围最邻近的K个点,少数服从多数确定该点的种类。

重点

K值的选取。
二分类问题,K值一般选奇数。K值越小,噪音影响越大;K值越大,计算量大,越容易过拟合。
交叉验证是选取K值的有效方法。

优点

1、无变量,无需对数据的分布做任何假设
2、K值固定时,无需训练模型
3、适应各种数量复杂分布
4、算法简单易实现

缺点

1、K值选取对模型影响很大
2、应用算法之前,需对所有特征做标准化处理
3、计算时需要很大的内存
4、计算时间复杂度高

2、朴素贝叶斯

算法

找到每个类别的概率,及每一个特征的条件概率,算出每个类别的条件概率,找到最大概率对应的类别

目标函数

最大化后验概率
最大化后验概率

优点

1、训练速度快,分类快
2、对不相干的特征值不敏感
3、既可以处理连续型特征,也可以处理离散型
4、可以处理实时数据

缺点

各个特征之间必须相互独立

</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值