统计学习导论(十)无监督学习——学习笔记

无监督学习(unsupervised learning)旨在发现由 X 1 , X 2 , … , X p X_{1}, X_{2}, \dots, X_{p} X1,X2,,Xp构成的观测空间中一些有价值的模式:是否可以找到一种将数据中主要的信息集中显示出来的可视化方法?能否从变量或观测中找到一些子类?无监督学习就是回答诸如此类问题的一类技术。这里主要介绍两种特定形式的无监督学习,即主成分分析(principle components analysis, PCA)和聚类分析(clustering)。主成分分析是一种用于数据可视化以及在有指导学习方法之前对数据进行预处理的工具;聚类分析是一大类寻找数据中未知子类的方法。

1.无监督学习的挑战

有监督学习发展较为成熟,成熟的统计工具——逻辑斯蒂回归,线性判别,分类树,支持向量机等;评估结果质量——交叉验证,基于独立测试集的验证等。
无监督学习模型的训练更倾向于主观性,不设定明确的目标作为分析的指向,比如预测中的响应变量。无监督学习通常也可以视作探索性数据分析的一部分。

2. 主成分分析

主成分分析是计算主成分并使用主成分理解数据的一种方法。PCA是一种无监督学习,因为它仅包含一个变量组 X 1 , X 2 , … , X p X_{1}, X_{2}, \dots, X_{p} X1,X2,,Xp而不包含与之相关的响应变量 Y Y Y。除了能够在有监督学习模型中充当派生变量外,PCA还可以作为数据可视化(观测或变量的可视化)的工具。

2.1 什么是主成分

通过PCA能够找到一个尽可能包含足够多数据集变异信息的低维表示。PCA的思想是n个观测虽然都存在于p维空间中,但并不是所有维度都有同样的价值。PCA致力于寻找尽可能有意义的维度,这些维度是否有意义是由观测在每一维度上的离散程度所度量的。通过PCA找到的每一个维度都是原始p个特征的线性组合。

一组变量 X 1 , X 2 , … , X p X_{1}, X_{2}, \dots, X_{p} X1,X2,,Xp第一主成分是变量标准化线性组合中方差最大的组合:
Z 1 = ϕ 11 X 1 + ϕ 21 X 2 + … + ϕ p 1 X p Z_{1}=\phi_{11} X_{1}+\phi_{21} X_{2}+\ldots+\phi_{p 1} X_{p} Z1=ϕ11X1+ϕ21X2++ϕp1Xp
标准化(normalized)的含义是: ∑ j = 1 p ϕ j 1 2 = 1 \sum_{j=1}^{p} \phi_{j 1}^{2}=1 j=1pϕj12=1,其中 ϕ 11 , ϕ 21 , … , ϕ 11 \phi_{11}, \phi_{21}, \dots, \phi_{11} ϕ11,ϕ21,,ϕ11指第一主成分的载荷(loading)。同时,这些载荷构成了主成分的载荷向量 ϕ 1 = ( ϕ 11 ϕ 21 … ϕ p 1 ) T \phi_{1}=\left(\begin{array}{llll}\phi_{11} & \phi_{21} & \ldots & \phi_{p 1}\end{array}\right)^{T} ϕ1=(ϕ11ϕ21ϕp1)T。为防止载荷绝对值任意大而导致方差变得任意大,限定这些载荷的平方和为1。
假设 n n nx p p p维数据集 X X X,假定 X X X中每个变量都经过中心化处理,其均值为0(矩阵 X X X在列方向上的均值为0),然后寻求具有如下形式的样本特征值的线性组合:
z i 1 = ϕ 11 x i 1 + ϕ 21 x i 2 + … + ϕ p 1 x i p ( 1.1 ) z_{i 1}=\phi_{11} x_{i 1}+\phi_{21} x_{i 2}+\ldots+\phi_{p 1} x_{i p}(1.1) zi1=ϕ11xi1+ϕ21xi2++ϕp1xip1.1
该线性组合在限定条件 ∑ j = 1 p ϕ j 1 2 = 1 \sum_{j=1}^{p} \phi_{j 1}^{2}=1 j=1pϕj12=1下,有最大的样本方差。第一主成分的载荷向量在解如下最优化问题:
maximize ⁡ ϕ 11 , … , ϕ p 1 { 1 n ∑ i = 1 n ( ∑ j = 1 p ϕ j 1 x i j ) 2 }  subject to  ∑ j = 1 p ϕ j 1 2 = 1 ( 1.2 ) \underset{\phi_{11}, \ldots, \phi_{p 1}}{\operatorname{maximize}}\left\{\frac{1}{n} \sum_{i=1}^{n}\left(\sum_{j=1}^{p} \phi_{j 1} x_{i j}\right)^{2}\right\} \text { subject to } \sum_{j=1}^{p} \phi_{j 1}^{2}=1(1.2) ϕ11,,ϕp1

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鸭鸭鸭鸭鸭鸭

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值