无监督学习

  1. 无监督学习的含义

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,在建模的过程中希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习。

无监督学习里典型例子是聚类。聚类的目的在于把相似的东西聚在一起,而我们并不关心这一类是什么。因此,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了。

聚类算法一般有五种方法,最主要的是划分方法和层次方法两种。划分聚类算法通过优化评价函数把数据集分割为K个部分,它需要K作为 输人参数。典型的分割聚类算法有K-means算法, K-medoids算法、CLARANS算法。层次聚类由不同层次的分割聚类组成,层次之间的分割具有嵌套的关系。它不需要输入参数,这是它优于分割聚类 算法的一个明显的优点,其缺点是终止条件必须具体指定。典型的分层聚类算法有BIRCH算法、DBSCAN算法和CURE算法等。

  1. 无监督学习的使用场景

(1)缺乏足够的先验知识,因此难以人工标注类别;

(2)进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们(部分)完成这些工作,或至少提供一些帮助。

(3)一从庞大的样本集合中选出一些具有代表性的加以标注用于分类器的训练。

(4)先将所有样本自动分为不同的类别,再由人类对这些类别进行标注。

(5)在无类别信息情况下,寻找好的特征。

3、无监督学习方法类别

无监督学习方法主要有:聚类方法(层次聚类与K均值聚类)、奇异值分解(SVD)、主成分分析(PCA)、潜在语义分析(LSA)、概率潜在语义分析(PLSA)、马尔可夫蒙特卡洛法(MCMC,包括Metropolis-Hastings算法和吉布斯抽样)、潜在狄利克雷分配(LDA)、PageRank算法、非负矩阵分解(NMF)、变分推理、幂法。

目前深度学习中的无监督学习主要分为两类,一类是确定型的自编码方法及其改进算法,其目标主要是能够从抽象后的数据中尽量无损地恢复原有数据,一类是概率型的受限波尔兹曼机及其改进算法,其目标主要是使受限玻尔兹曼机达到稳定状态时原数据出现的概率最大。

确定型无监督学习主要有自编码及稀疏自编码、降噪自编码等。自编码可以看作是一个特殊的3层BP神经网络,特殊性体现在需要使得自编码网络的输入输出尽可能近似,即尽可能使得编码无损(能够从编码中还原出原来的信息)。虽然稀疏自编码可以学习一个相等函数,使得可见层数据和经过编码解码后的数据尽可能相等,但是其鲁棒性仍然较差,尤其是当测试样本和训练样本概率分布相差较大时,效果较差。为此,Vincent等人在稀疏自编码的基础上提出了降噪自编码,其基本思想是,以一定概率使输入层某些节点的值为0,此时输入到可视层的数据变为x^,隐含层输出为y,然后由重构x的输出z,使得z和x的差值尽可能的小。

概率型无监督学习的典型代表就是限制玻尔兹曼机,限制玻尔兹曼机是玻尔兹曼机的一个简化版本,可以方便地从可见层数据推算出隐含层的激活状态。

4、无监督学习方法的模型、策略、算法

用于聚类的方法有:层次聚类、k 均值聚类、高斯混合模型。常用模型为:聚类树、K中心聚类、高斯混合模型。聚类树是为了使类内样本距离最小,K中心聚类是为了使样本与类中心距离最小,高斯混合模型是为了似然函数最大。为了达到此目的,常用的算法有启发式算法、迭代算法、EM 算法。

由于在实际机器学习过程中常用到高维数据,所以数据降维就显得尤为重要,常用到的对数据进行降维处理的方法有PCA,器模型为低维正交空间,这个模型是为了使方差最大,数据差异化最大,使用的算法为SVD。

对于话题分析方面的问题࿰

  • 1
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值