机器学习基本概念(分类方法):Bayes、PCA、LDA 和 K-means

    最近这十几天真是累成狗。整理一下学到的关于Bayes、PCA、LDA、Kmeans的知识。

    首先说,Bayes。贝叶斯理论是根据事件发生的概率来进行估计。其实生活中我们在无意中也会用到,就是根据之前的经验,哪些事情发生的概率大,哪些事件发生的概率小。bayes是计算P(Wi/t) = p(t|Wi)*P(Wi)/p(t)。举一个简单的例子,我们有一组2维的数据,每一个数据有x,y 两个特征。这些数据被分为两类W1、W2,把x,y 理解成点的坐标,那么我们得到一堆点(实际上,3维以上我们就不能具象成具体空间来理解了,就好像线性代数里面,三维以上的向量,我们就不能具象到我们的世界来理解了)。P(Wi) 是事件Wi 发生的概率,可以用W1 和W2 的个数,除以W1 + W2 的结果来估计(因为我们永远不可能知道一个新的点属于W1 或者W2 的概率,只能用现有的数据来估计)。p(x|Wi) 是特征向量t 的概率密度,在这里t = (x,y)是二维向量。我们可以假设数据点满足XX分布,比如正态分布,然后来计算出他们的概率密度。然后我们就能够表示出P(Wi/t),通过比较W1 和W2 的P(Wi/t) 的大小,可以得到一个boundary(一个判断的条件,在图上标示为一条交界线),从而可以判断下一个到来的点是属于W1还是W2。

    PCA和LDA是用来降维的,像上面我们举得例子,是二维特征,在实际操作中,有的数据可能有十几维特征,我们通过降维,来减少特征数目,从而提高数据处理的速度。当然了,降维不可避免的会损失信息。PCA就是主成分分析,通过计算得出最主要的特征

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值