自编码器的理解与应用

  • 什么是自编码器(AutoEncoder)?

自编码器可以认为是一种数据压缩算法,或特征提取算法。是一种无监督学习,基于反向传播算法和最优化方法,利用数据 x 本身作为监督来指导神经网络学习一个映射关系 h, 得到一个重构输出y。这个y近似等于x
自编码器可以理解为试图让输出和输入一样的神经网络。他们通过将输入压缩成一个隐藏空间表示来进行工作,然后通过这种表示重构输出。
在这里插入图片描述
自编码器的模型如下:
请添加图片描述所以呢,自编码器实际是由两部分组成:Encoder(编码器)和Decoder(解码器)。
编码器的作用:把高维输入x 编码成低维的隐变量h从而强迫神经网络学习最有信息量的特征;它在于把输入变成一个隐藏的空间表示,这也就进行特征提取。h=f(x)
解码器的作用:把隐藏层的隐变量h还原到初始维度,最好的状态就是解码器的输出能够完美地或者近似恢复出原来的输入,即x≈y。g(f(x))=y

  • 为什么要进行自编码呢?

希望通过添加一些限制条件,在训练autoencoder时将输入复制到输出中,同时得到的隐藏表示h 具有了有用的属性。重点是对于隐藏表示h的关注。
从自编码器获得有用特征的一种方法是将h限制为小于x的维度,在这种情况下,自编码器是不完整的。通过训练不完整的表示,我们强制自编码器学习训练数据的最显著特征。
理想情况下,自编码器可以成功地训练任何体系结构,根据要分配的复杂度来选择编码器和解码器的代码维数和容量。

  • 自编码器可以用来干什么?

第一:数据降噪
噪声是测量中的随机误差或偏差,包括错误值或者偏离期望的孤立点。简单来说就是对任务或者模型没有帮助甚至有误导作用的数据。编码器通过学习将潜在空间中的尽可能多的相关信息保留,丢弃不相关部分(噪声)。解码器学习潜在空间信息重建与输入一致的,这样就达到了去噪。
在这里插入图片描述

第二:可视化降维
设置合适的维度和稀疏约束,自编码器可以学习到比PCA等技术更有意思的数据投影。因为自编码属于无监督学习,所以只需要训练数据就可以得到较好的特征。
第三:起到特征提取器的作用
自动编码器学习到的特征h,可以作为有监督模型的输入,这样就起到了特征提取器的作用。

  • 自编码器有什么优缺点?

1、是泛化性强的,无监督学习不需要数据标注,这意味着很容易对指定类的输入训练出一种特定的编码器,而不需要完成任何新工作。

2、是数据相关的,这意味着自动编码器只能压缩那些与训练数据类似的数据。比如,使用人脸训练出来的自动编码器在压缩别的图片,比如树木时性能很差,因为它学习到的特征是与人脸相关的。

3、是有损的,意思是解压缩的输出与原来的输入相比是退化的,MP3,JPEG等压缩算法也是如此。这与无损压缩算法不同。

  • 8
    点赞
  • 104
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
注意力机制自动编码器是一种结合了自动编码器和注意力机制的深度学习模型。注意力机制自动编码器在编码器和解码器之间引入了注意力机制,使得模型能够更好地处理序列数据。在这种模型中,编码器将输入序列映射到一个连续表示序列,然后解码器根据这个连续表示序列来生成输出序列。与传统的自动编码器不同的是,注意力机制自动编码器在解码过程中会根据先前生成的符号和编码器的输出计算注意力权重,以决定对输入序列的哪些部分进行更多的关注。这样的设计可以提高模型对序列数据的理解能力,进而提高模型的准确率。注意力机制自动编码器的实现通常包括编码器、注意力机制和解码器这三个部分。编码器用于将输入序列编码成状态向量,注意力机制用于计算注意力权重,解码器根据注意力权重来生成输出序列。通过这种方式,注意力机制自动编码器能够更好地捕捉输入序列的相关特征,并生成更准确的输出。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [自注意力机制 Self-Attention与Transformer的原理及结构(编码器、解码器的原理及代码实现)](https://blog.csdn.net/forthenight996/article/details/126606190)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [注意力机制的应用(附代码)](https://blog.csdn.net/qq_43619847/article/details/128254392)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值