无监督学习(unsupervised learning) 1.线性方法

无监督学习(unsupervised learning) 1.线性方法


1 unspervised learning

  • Reduction(化繁为简):Clustering & Dimension,只有输入
  • Generation(无中生有):只有输出

2 Clustering

  • How many clusters?
  • K-Means:

    • X={x1,x2,,xN} 聚成K类
    • 随机初始化聚类中心 ci,i=1,2,,K
    • 对每一个 xn ,计算它离每一个聚类中心的距离 bin ,它离的最近的即为它的类
    • 更新聚类中心: ci=xnbinxn/xnbin
    • 重复以上几步
  • Hierarchical Agglomerative Clustering (HAC)

    • step 1:build a tree,两两算相似度,相似度最大的两个合并,重复……
    • step 2:pick a threshold,切分K类

3 dimension reduction

  • Distributed Representation:每个对象使用一个向量表示,而不仅仅是一个类
  • MNIST:描述一个数字不需要28*28的向量
  • Feature Selection:
  • Principle component analysis(PCA): z=Wx ,线性降维

    • 投影得到的z越大越好
    • 投影到d维, w1,,wd 相互正交, W=[w1,,wd] 为正交矩阵
    • z1=w1x,z¯1=w1x¯

    • Var(z1)=z1(z1z¯1)2=wT1(xx¯)(xx¯)Tw1=wT1Cov(x)w1=wT1Sw1

    • 找到 w1 使得 wT1Sw1 达到最大,且 wT1w1=1
    • 使用Lagrange multiplier: g(w1)=wT1Sw1α(wT1w11) ,求偏导数得 Sw1=αw1 w1 即为S的特征向量。 wT1Sw1=α α 即为S的最大的特征值。
    • 找到 w1 使得 wT1Sw1 达到最大,且 wT1w1=1,wT2w1=0
    • ……解得 β=0 w2 是第二大的特征值对应的特征向量。
    • ……
    • cov(z)=WSWT=[λ1e1,,λKeK]

4 PCA——another point of view

  • xx¯=c1u1++cKuK=x^
  • Reconstruction error: L=min{u1,,uK}=||(xx¯)(k=1Kckuk)||2
  • SVD分解: Xmn=UmkkkVkn
  • LDA:考虑labelled data的降维(监督)
  • PCA的弱点:1、unsupervised;2、linear
  • 需要多少principle components?

    计算每个特征值的ratio


5 Non-negative matrix factorization

  • NMF非负矩阵分解,所有的参数和component均为非负
  • minimize error: XMNAMKBKN
    • L=(i,j)(rirjnij)2 ,不考虑缺失的数据
    • 用于推荐系统(Recommender systems)
    • L=(i,j)(rirj+bi+bjnij)2
    • 应用:Latent Semantic Analysis 潜语义分析LSA
    • 应用:Latent Dirichlet allocation 主题模型LDA
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值