李宏毅 DeepLearning-2017-Unsupervised Learning PCA-linear Dimension Reduction

化繁为简:把比较复杂的input变成比较简单的output
无中生有:generation 找个可以画图的function
在这里插入图片描述
降维表达的意义:
在这里插入图片描述

在这里插入图片描述
不同的image用同一个cluster,做降维处理,那么如何确定设置多少个cluster呢???
第一把输入数据分成K个cluster
每个cluster都找一个center,作为初始center,(k random Xn from X)从train data中抽
在这里插入图片描述
第二种;tree clustering 哈夫曼树,与上面的区别在于不直接决定有几个cluster
五个样做:两两计算相似度
设置一个 threshold 决定树的分层位置
在这里插入图片描述
这有个不好的地方是,属于绝对分类,每个输入对象必须属于某一个固定的聚类
然后我们看看分布的表达方式,用vector表示输入对象,
在这里插入图片描述
Distributed Representation 的方法
最简单的方法:
1)Feature selection
2)Principle component analisis(PCA)
下面把一组数据降到以为,w也是一个一维向量,W1是高维空间的一个vetcor,而z是高维空间的点在W1上的投影,那么如何选取W1,选择w1的标准是:投影之后,Z1的分布越大越好。差异性,奇异度变大。
在这里插入图片描述
计算W的方法:
在这里插入图片描述
利用拉格朗日乘:把有约束变成没有约束
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
奇异值矩阵分析,中心化,只有一个hidden layer
在这里插入图片描述
去掉imformation较少的feature,这是选择principle components的个数
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值