Auto-Encoders原理

无监督学习中,所有的数据都没有打label,就是没有对比的目标了。但是其实不是没有目标了,在Auto-Encoders的过程里,它的目标就是他自己,如下图,他这个就相当于一个卷积层,和CNN的区别就在于,它的输出层=输入层(784=784),因为他要重建它自己,而CNN的输出层是类数,为了分类。另一个区别就是:Auto-Ecoders的中间有一个neck,它可以升维,也可以降维。

还有一个问题是Auto-Ecoders如何去训练

一般来说是loss function可求导的情况就可以进行训练工作。

在发现Auto-Ecoders之前,都是在用PCA的方法降维。

(1)PCA是一种线性的变换,有本身的局限性,因为分类的数据的形态,一般都是非线性的

效果如下图:

 人脸的图片,下面一行是PCA

 下面推出一些Auto-Ecoders的一些变种。

 

 

 

 后边这部分可以理解为,p和q相差越大时,这个值越大,pq越重叠,这个值越小。

 但是此时还少一步,

Auto-Ecoders(AE)      vs             VAE

下面的人脸也是VAE识别到的,并且还自动加了背景虚化。

但是这些东西,和GAN比起来,差太多了

  • 6
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值