em算法怎么对应原有分类_随便聊聊十大数据挖掘算法(上):中英文版本

文末有福利

中文版:

很多话打算用自己的话来说,不做推导证明,只做大概原理解释以及用途说明。

1、C4.5

用于产生决策树的一种算法

9155054955c505fbf749b26cf3146066.png
来自山东大学生物信息学课件

再举个例子:比如选对象,先判断长的帅不帅,如果很丑,就可以在你这里pass掉,如果它长的很帅,就是一个比较好的选择,这个时候咱们再就考虑它的身高,身高大于某个值(如一米八),就认为它是好的选择,否则就放弃。(不引战,只是为了大家更好的记忆)

2、k-means

应用:客户分群

是一个聚类算法,聚类是“无监督学习”,事先不知道将要分成哪些类。

以空间中k个点为中心进行聚类,对最靠近他们的对象归类,通过迭代的方法,逐次更新各聚类中心的值,直到得到最好的聚类结果。

优点在于可以取得局部的最优,缺点在于非凸集的处理。

3、SVM支持向量机

把已知物体根据属性标记在坐标系中,然后画一条线。画的这条线要尽可能的把不同物体全部分开。也就是让距离线最近的点的距离之和最大。更适用于小样本,做分类问题。

a3b7548ca209b3c2a2c5e1968c111dab.png
来自山东大学生物信息学课件

4、KNN

应用:推荐系统

c1e787f737eb2fae995c61749dc62c68.png
来自山东大学生物信息学课件
  • KNN用于分类和回归,需要考虑最近的邻居。
  • 分类就是编组。
  • 回归就是预测结果(如数字)。
  • 特征抽取意味着将物品(如水果或用户)转换为一系列可比较的数字。
  • 能否挑选合适的特征事关KNN算法的成败。

5、贝叶斯分类器

应用:垃圾邮件过滤器

24d4a6d30a70d57e1539603d2349217c.png
来自山东大学生物信息学课件

假设不同特征之间是独立的,通过先验概率P(A)、P(B)和似然条件概率推算出后验概率出P(A|B)。

6、EM算法

EM算法分为两步,一个是E,一个是M,它用于估计含有隐变量的概率模型参数的极大似然估计,或者极大后验概率估计。

区别于最大似然估计,最大似然是在已有观测值的情况下,我们假设出现这个观测值的概率最大,在这种构建似然函数,进行参数的估计。

而如果概率模型中既含有观测值,又含有隐变量或潜在变量时,就可以使用EM算法来求解概率模型的参数。

fbf4f6eeff522b575b2ddecbb13d8640.png

更详细的可参考这篇文章:人人都懂EM算法

亦也参加我的这篇关于EM算法的文章:我要自学生信之数据挖掘:一文读懂EM算法

持续补充中~

英文版:

25ee32827d12413ac67f33f06b760712.png

5e8037c6ec000e667fcc10ea22108204.png

3b8d5eaca4e9f8f9de3c085f2d382429.png

英文原版:https://pan.baidu.com/s/1VDBV9t0RqCeZqrU40jOjbw 提取码:6xl0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值