机器学习笔记:auto encoder

1 autoencoder 介绍

        这是一个无监督学习问题,旨在从原始数据x中学习一个低维的特征向量(没有任何标签)

        encoder 最早是用线性函数+非线性单元构成(比如Linear+nonlinearity),之后的模型有使用多层全连接、Relu+CNN进行encoder操作的 。

        那么,我们怎么从原始数据中学习特征向量z呢?

        核心思路就是使用一个decoder

 

 这里的tconv就是机器学习笔记: Upsampling, U-Net, Pyramid Scene Parsing Net_UQI-LIUWJ的博客-CSDN博客中所介绍的“up convolution”

在训练完毕之后,丢弃decoder,使用encoder来进行后续的任务 

2 特征向量z的维度

z的维度需要比输入x的维度小——>这样才能压缩数据

如果z的维度比输入x的维度大或者等于输入x的维度的话——>模型没有学习新特征的“动力”——>直接将x复制到z,多出来的维度补0即可

3 auto-encoder变体

3.1 de-noising autoencoder

在输入中假如噪声,但是学习的特征希望能还原成没有噪声的版本

 ——>可以更好地学习特征表示

——>避免直接复制——>所以每一个epoch加在输入上的噪声是不一样的

3.2 stacked auto-encoder(SAE)

多层auto-encoder,训练完毕后也是去掉所有的decoder

 4 AE作为生成模型

4.1 context encoder

        抹去图像的某一块,通过auto-encoder,看看能不能还原成整张图片/判断抹去的这一块学到的特征和实际这一块之间的区别

 

 4.1.1 不同的遮法

 4.2  temporal context encoder

        对于图像来说,我们的可以遮去一些像素点,然后通过auto-encoder的方式来学习这些遮掉的像素点。那么对于视频来说,我们也可以遮去一些视频中的“像素点”,也即遮掉某几帧,然后同样用auto-encoder来进行学习

   5 auto-encoder应用:半监督学习

        当我们有很多的图像,但是只有很少的label的时候,我们可以先对不适用标签,对图像使用auto-encoder。训练完毕之后,我们丢弃decoder,然后再encoder后面接入分类器,学习标签y',将其和真实特征y进行比对      

        

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值