李宏毅机器学习(19)

Unsupervised Learning - Linear Methods

无监督学习可以分为两类:

  • 化繁为简(聚类 Clustering,降维 Dimension Reduction):输入各种各样的树,输出一个简化抽象的树
  • 无中生有(Generation):输出对应的代码,输出各种各样的树

在这里插入图片描述

Clustering(聚类)

就是把各个无标签的数据进行分类。手动打上cluster 1、cluster 2、cluster 3的标签,这个分类过程就是化繁为简的过程。
那么,分成几类呢?有一种K-means的方法:
注:如果不是从原先的data set里取center的初始值,可能会导致部分cluster没有样本点
在这里插入图片描述
还有一种HAC的方法:

  1. 每次选择两个相似度最高的点,合成一个点。直到合成一个root。
  2. 选取阈值(threshold),形象来说就是在构造好的tree上横着切一刀,相连的叶结点属于同一个cluster
    在这里插入图片描述
    HAC和K-means最大的区别在于如何决定cluster的数量,在K-means里,K的值是要你直接决定的;而在HAC里,你并不需要直接决定分多少cluster,而是去决定这一刀切在树的哪里。

Dimension Reduction

但是,聚类的方法有一个最大的问题:很多东西并不能直接说属于哪一类,他可能同时具有多个类的属性。
比如:一个人可以会多国语言,因此并不能把他定义为“xx语言者”。
因此,我们应该用一个向量来表示一个物体。
这就叫Distributed Representation。
如果原先的object是high dimension的,比如image,那现在用它的属性来描述自身,就可以使之从高维空间转变为低维空间,这就是所谓的降维(Dimension Reduction)

举例而言,有的图片实际上只需要很少的维度就能表示了:
在这里插入图片描述
在这里插入图片描述

在Dimension Reduction里,我们要找一个function,这个function的input是原始的x,output是经过降维之后的z
最简单的方法是Feature Selection,即直接从原有的dimension里拿掉一些直观上就对结果没有影响的dimension,就做到了降维,比如下图中从 x 1 , x 2 x_1,x_2 x1,x2两个维度中直接拿掉 x 1 x_1 x1;但这个方法不总是有用,因为很多情况下任何一个dimension其实都不能被拿掉,就像下图中的螺旋卷。
在这里插入图片描述

PCA

另一种方法就是PCA

数学推导

PCA认为,我们只要找到一个 W W W,让 z = W x z=Wx z=Wx降维即可。比如下图中: x x x是宝可梦的攻击力和防御力,我们要找一个 W W W,算出宝可梦的战斗力 z z z。并且,这些 z z z的分布越分散越好(即: v a r i a n c e variance variance要大)。
在这里插入图片描述
上例是变成1维的情况,变成n维的情况也是一样的。只要求出多个 w w w,彼此互相正交,将其拼凑在一起就可以了。
在这里插入图片描述
那么,如何求解 w w w呢?数学公式如下。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
可以看出,数学求导是很长的。但好在可以直接调用函数,其实没那么麻烦。
PCA还有去**相关性(decorrelation)**的作用。
PCA可以让不同dimension之间的covariance变为0,即不同new feature之间是没有correlation的,这样做的好处是,减少feature之间的联系从而减少model所需的参数量。

另一个角度看PCA

以手写数字识别为例:
我们可以把一个数字看成多个笔画的组合,比如下面的“7”。
对公式的解释: x x x是一张图的所有像素, c c c是权重, u u u表示笔画, x ˉ \bar x xˉ是所有图片的平均值。
在这里插入图片描述
∑ c i u i = x ^ \sum{c_iu^i}=\hat x ciui=x^。很显然,我们希望 x − x ˉ x-\bar x xxˉKaTeX parse error: Expected 'EOF', got '}' at position 7: \hat x}̲越接近越好,即最小化 ∣ ∣ ( x − x ˉ ) − x ^ ∣ ∣ ||(x-\bar x)-\hat x|| (xxˉ)x^
考虑到我们有多张图片,即多个 x x x,就可以写出如下的Loss function。那么目标就是求出 u 1 , u 2 , . . . , u K u^1,u^2,...,u^K u1,u2,...,uK
有趣的是, u 1 , u 2 , . . . , u K u^1,u^2,...,u^K u1,u2,...,uK就是之前PCA求出的 w 1 , w 2 , . . . , w K w^1,w^2,...,w^K w1,w2,...,wK
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
求出矩阵 W W W之后,就可以求权值 C C C了。
在这里插入图片描述

PCA的缺点
  1. 它是Unsupervised的。PCA很可能找了一个方向,导致两个class的点被混在了一起。解决方法:使用引入labeled data的LDA方法,但这是supervised的。
  2. 它是Linear的。PCA只能把分布打扁,但不能拉直。遇到螺旋形分布时效果很不好。解决方法:使用non-linear transformation

在这里插入图片描述

PCA的例子

宝可梦

每个宝可梦有六个维度即vector={HP, Atk, Def, Sp Atk, Sp Def, Speed},我们当然可以用PCA来分析宝可梦。
这里有一个技巧:我们可以先找出6个特征向量和对应的特征值 λ i \lambda_i λi,其中 λ i \lambda_i λi表示第i个投影维度的variance有多大(即在第i个维度的投影上点的集中程度有多大),然后我们就可以计算出每个 λ i \lambda_i λi的比例。比例比较小代表这是所有宝可梦的共性,对我们的分析帮助不大,可以舍弃。比如下图中的5和6。
在这里插入图片描述

手写数字识别

可以看出,每个component有的像笔画,比较简单;有的像数字;还有的像玛雅文字,很复杂。
这似乎与我们的初衷(把数字拆分成笔画)有些不符。
在这里插入图片描述

人脸识别

到了人脸识别,这个问题更严重了:几乎所有component都是一张脸而非五官!
在这里插入图片描述
回到公式本身,不难发现原因: a a a可以为负数。这就代表着PCA不一定是让各个component叠加成 x x x,还有可能是让它们通过加加减减肯定可以获得基础的组件元素。
这显然不是我们的初衷。
在这里插入图片描述
解决方法:NMF
NMF的基本精神是,强迫使所有组件和它的加权值都必须是正的,也就是说所有图像都必须由组件叠加得到。
这种简单粗暴的方法效果是很好的:
在这里插入图片描述
在这里插入图片描述

Matrix Factorization

以例子入手:
现在有ABCDE五人的抱枕拥有情况(表格):
在这里插入图片描述
俗话说:没有无缘无故的爱,也没有无缘无故的恨。一个人买什么抱枕必然是有其内在原因,而我们需要探索出其中的原因。
根据之前Reduction的想法,我们有一下猜测:
每个角色有一些属性,其程度可以用一个向量来表示(比如傲娇、天然呆);每个人对这些属性有不同的喜好,喜好程度也可以用一个向量来表示。
当一个人和一个抱枕相遇时,两个向量的点积就是表格相应的数字。
但问题是,这些向量我们都不知道。这个可以用SVD来解决。
在这里插入图片描述
在这里插入图片描述

但有时候,表格中有些数据时缺失的。这样就不能用SVD了。
这个时候就要调整使用Gradient Descent来解决。
写出Loss Function: L = ∑ ( i , j ) ( r i ⋅ r j − n i j ) 2 L=\sum\limits_{(i,j)}(r^i\cdot r^j-n_{ij})^2 L=(i,j)(rirjnij)2后就可以直接Train了。
在这里插入图片描述
可以看出,结果喜人:每个角色的属性和每个人的喜好都知道了!
因此,这也是推荐系统的常用方法。
在这里插入图片描述
实际上除了人和动漫角色的属性之外,可能还存在其他因素操控购买数量这一数值,因此我们可以将式子更精确地改写为: r A ⋅ r 1 + b A + b 1 ≈ 5 r^A\cdot r^1+b_A+b_1≈5 rAr1+bA+b15 其中 b A b_A bA表示A这个人本身有多喜欢买公仔, b 1 b_1 b1则表示这个动漫角色本身有多让人想要购买,这些内容是跟属性vector无关的,此时loss function被改写为: L = ∑ ( i , j ) ( r i ⋅ r j + b i + b j − n i j ) 2 L=\sum\limits_{(i,j)}(r^i\cdot r^j+b_i+b_j-n_{ij})^2 L=(i,j)(rirj+bi+bjnij)2 当然你也可以加上一些regularization去对结果做约束。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值