k-means、决策树、svm算法总结

一、k-means算法

        聚类算法

        一种典型的 无监督 学习算法,主要用于将相似的样本自动归到一个类别中。

        在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法。

        1.1聚类算法在现实中的作用

                用户画像,广告推荐,Data Segmentation,搜索引擎的流量推荐,恶意流量识别

                基于位置信息的商业推送,新闻聚类,筛选排序

                图像分割,降维,识别;离群点检测;信用卡异常消费;发掘相同功能的基因片段

        1.2 k-means聚类步骤

                k-means其实包含两层内容:K表示初始中心点个数(计划聚类数),means求中心点到其他数据点距离的平均值。

                具体步骤如下:

                        1.随机设置K个特征空间内的点作为初始的聚类中心。

                        2.对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别。

                        3.接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)。

                        4.如果计算得出的新中心点与原中心点一样(质心不再移动),那么结束,否则重新进行第二步过程。

                K-means聚类实现流程:

                        事先 确定常数K ,常数K意味着最终的聚类类别数;

                        随机 选定初始点为质心 ,并通过计算每一个样本与质心之间的相似度(这里为欧式距离),将样本点归到最相似的类中,

                        接着,重新计算 每个类的质心(即为类中心),重复这样的过程,直到 质心不再改变

                        最终就确定了每个样本所属的类别以及每个类的质心。

                        注意:由于每次都要计算所有的样本与每一个质心之间的相似度,故在大规模的数据集上,K-Means算法的收敛速度比较慢。

二、决策树算法

        决策树是监督学习的分类算法, 训练决策树需要有标签的数据。

        训练决策树模型需要考虑的问题:

                1.特征选择:

                        选择哪个特征开始生长决策树,挑选分类能力强的特征

                2.决策树的生长决策树的剪枝

 

 

 

 

 

 

三、SVM算法

        找下图红色的线。

 (36条消息) SVM算法详解_gua_niu123的博客-CSDN博客

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值