李宏毅2020机器学习 【学习笔记】 P56 Unsupervised Learning:Linear Model

目录

Unsupervised Learning 还可以做这些事

Clustering 聚类

K-means 方法

HAC 层次聚类法

小插曲: Distributed Representation

所以,其实 Distributed Representation 和 Dimension Reduction 是同一件事情。

其意义可视化(图中彩色点是样本点)

怎么做呢?两种方法

Principle component analysis PCA 主特征提取

从另一种角度来看 PCA

Weakness of PCA

What happen to PCA?

所以,我们有了 NMF

Matrix Factorization 矩阵因子分解


感谢B站up主搬运的课程:

【李宏毅2020机器学习深度学习(完整版)国语】 https://www.bilibili.com/video/BV1JE411g7XF/?share_source=copy_web&vd_source=262e561fe1b31fc2fea4d09d310b466d


Unsupervised Learning 还可以做这些事

  • Clustering & Dimension Reduction 化繁为简
  • Generation 无中生有

Clustering 聚类

K-means 方法

HAC 层次聚类法

小插曲: Distributed Representation

Clustering 的思想过于绝对,一个物体就对应一个类,实际上一个物体应该由不同的特点来描述,就如下图中“小杰”拥有0.7的强化系特质,拥有0.25的放出系特质……用这样六个维度来表示。

对于图片这样一个非常高维的东西来说,我们如果也能这样做,就把非常高维的东西降到了低维空间中。

所以,其实 Distributed Representation 和 Dimension Reduction 是同一件事情。

其意义可视化(图中彩色点是样本点)

【我完全可以用一个二维空间去描述一个三维空间中的卷起来的面,只要我选取卷起来的边为特征轴】

其实就是取一个方向向量,然后把那些向量都映射到那个方向上去,达到降维的目的。

怎么做呢?两种方法

一种就是像上文所说的,自行选取新的特征边;

另一种呢,就是 PCA

Principle component analysis PCA 主特征提取

z=Wx

注意我们要取的方向应使得 z 的方差最大,方差越大点与点分的越开,尽可能地保留了各点间的歧义度

注意取的 w_1 有条件 ||w_1||_2 = 1 (2-norm 2-范数)

具体参考线性代数-范数(2) 向量范数 - 知乎 (zhihu.com)

所以我们现在要做的事情就是 Maximize 这个方差

即在各种取法下,新的维度分布方差,求那种让他最大的取法。

在找一条新的维度时

我们依然想让他方差最大,但不能找出来还是 z_1 ,所以加上限制条件 w_1 \cdot w_2 = 0 

最终将 w_1,w_2 ……放在一起组成 W 矩阵

中间讲了一大堆数学,没有听懂……

讲了怎么找符合条件的 w_1 、 w_2 ,结论如下

【 w_1 是 x 协方差矩阵 S 最大的本征值 \lambda_1 对应的本征向量】

【 w_1 是 x 协方差矩阵 S 第二大的本征值 \lambda_1 对应的本征向量】

从另一种角度来看 PCA

把原图像拆解成一堆组件乘上权重加一个均值

Weakness of PCA
  • 是 unsupercised 的, PCA 会根据无 label 的 data 自动地找出 variance 最大的特征维度,但是如果真实的 label 恰恰这样分之后得到了不好的效果呢(下面的 LDA 就是用了 label 的数据降维,但它是 supervised 的)
  • PCA 做的事情是线性的,像把图中的 S 形拉直这种非线性的事 PCA 是做不到的

What happen to PCA?

把人脸识别中 PCA 找出的前30个 component 列出来

会发现,为什么都是一张完整的脸,不是所谓“组件”

在 PCA 中,我们并没有要求系数必须是正数,可以是负数,这就导致了组件可以是这个减去那个得来的。

所以,我们有了 NMF
  • 要求系数是正的,符合由组件组合而来的逻辑
  • 要求组件是正的,符合真正意义上的组件(负数的组件在图像上不好解释)

在采用了 NMF 之后,组件更像“组件”了

Matrix Factorization 矩阵因子分解

把每一个“阿宅”和每一个手办动漫人物都表示成 K 维的向量(即我们将 Dimension Descent 到了 K )

M 个(图中错写为 N )“阿宅”的向量叠起来,再将 N 个动漫人物的向量横着叠起来,将其相乘得到的矩阵与给出的原矩阵做 Minimize Error 即可。

【 latent 潜在的】

假如在表中有未知数,我们就没法拿矩阵来比较了,那我们就只对表中有的数据比较即可

同样的, Loss Function 并不是只有这一种定义方式,还可以根据你的想法加上权重、加上偏置、加上正则化项~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值