非负矩阵分解 低秩矩阵分解

非负矩阵分解 NMF

一般的矩阵分解,分解的矩阵有正有负。
很多实际应用中,负数没有意义,如文本等等。
NMF中要求原矩阵和分解后矩阵都为非负矩阵,这个分解存在唯一。
引入稀疏,局部计算。

以人脸识别为例:
V ∈ R + n × m V\in R_+^{n\times m} VR+n×m m张脸,每张图n个像素
W ∈ R + n × r W\in R_+^{n\times r} WR+n×r 基矩阵,每一列为一个基
H ∈ R + r × m H\in R_+^{r\times m} HR+r×m 系数矩阵,即为V中的脸一一对应的编码
V ≈ W H = ∑ a = 1 r W i a H a j V\approx WH=\sum\limits_{a=1}^r W_{ia}H_{aj} VWH=a=1rWiaHaj 我们的目标

r的选择一般满足 ( m + n ) r &lt; m n (m+n)r&lt;mn (m+n)r<mn
r太大,过拟合,模型复杂
r太小,欠拟合

优化方法

非负矩阵分解(NMF)简介 - 知乎专栏
基于乘法更新发展的迭代更新算法
https://blog.csdn.net/pipisorry/article/details/52098864

对比PCA VQ

初始论文:与PCA相比,PCA去除子成分,NMF叠加子成分。
人脸识别中,NMF用一组代表不同部位的基图像表示脸

对比VQPCANMF
特点W为聚类而成的基图像W的列和H的行都是正交的W和H非负
基图像聚类取原数据最有代表性的基正交基非负稀疏
稀疏性单元:只有一个非零元,过于稀疏全局:相当于VQ的松弛,但用了所有基图像,过于稠密局部:相当于前两者折中,只用部分基图像表达
解释性非负存在负数,解释性差非负且提取局部特征,解释性好

应用

NMF 非负矩阵分解 – 原理与应用
https://en.wikipedia.org/wiki/Non-negative_matrix_factorization (上文很多来自wiki)

实现

https://zhuanlan.zhihu.com/p/27460660

低秩矩阵分解

斯坦福大学机器学习笔记——推荐系统(协同过滤、低秩分解、推荐系统)
推荐系统
假设通过学习,我们找到每个用户 j j j对不同特征的喜爱程度,即参数 θ ( j ) \theta^{(j)} θ(j)
则预测该用户对电影 i i i的打分, x ( i ) x^{(i)} x(i)为其特征向量,分数为 ( θ ( j ) ) T x ( i ) (\theta^{(j)})^Tx^{(i)} (θ(j))Tx(i)
所以我们的优化目标基于已知的打分 y ( i , j ) y^{(i,j)} y(i,j) r ( i , j ) = 1 r(i,j)=1 r(i,j)=1表示已知打分)来学习参数,以预测未知打分
梯度下降训练

协同过滤
已知用户对不同特征电影的喜好(学习到的参数)、评分,求电影的特征向量
没有参数也没有特征向量时——协同过滤。梯度下降求解

低秩矩阵分解就是协同过滤的向量化(矩阵化)

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值