自编码器(auto-encoder)

self-supervised learning Framework

在这里插入图片描述

已知大量无标注数据,使用不需要标注数据的任务去预训练模型,进行微调再将其应用在下游任务中

basic idea of auto-encoder

在这里插入图片描述

encoder读入一张图片并将其变成一个vector,作为decoder的输入产生一张图片
训练目标:encoder输入和decoder输出越接近越好

more dimension reduction:PCA;t-SNE

why auto-encoder

由于图片的变化是有限的,因此可以用更低维度的变化情况去表示有限的变化
在这里插入图片描述

De-noising Auto-encoder

在这里插入图片描述类比于BERT——de-noising auto-encoder
在这里插入图片描述

feature disentanglement

解耦:disentanglement 一句话概括就是:解耦的特征中,每一个维度都表示具体的、不相干的意义
在这里插入图片描述 feature disentangle就是想要知道中间生成的vector中哪些维度表示某些信息
在这里插入图片描述应用——voice conversion(领结变声器)
在这里插入图片描述

经过encoder之后的vector将内容与语音模式维度分开再拼接

discrete latent Representation

经过encoder得到的vector与codebook中的vector计算相似度,并使用最相似的vector经过decoder生成
如在语言识别中应用:codebook中可以学习到最基本的发音音标,每个vector对应一个音标
在这里插入图片描述
摘要生成
auto-encoder+GAN ——>cycle GAN在这里插入图片描述在这里插入图片描述效果如下:
在这里插入图片描述
在这里插入图片描述

more application

generator

在这里插入图片描述
在这里插入图片描述异常检测:输入X判断与训练数据相比是否正常
在这里插入图片描述在这里插入图片描述在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
引用: Auto-encoder是一种深度学习模型,用于将输入数据编码为低维表示,并尽可能地重构原始数据作为输出。在降维方面,PCA会将不同类别的数据混合在一起,而auto-encoder则可以将它们分开。除了降维之外,auto-encoder还有其他用途,比如图片搜索。 引用: 训练一个auto-encoder的过程通常会先固定一些权重参数,然后逐层训练多个自编码器,每个自编码器的输入和输出维度逐渐逼近目标维度。最后,可以使用反向传播来微调网络参数。现在也可以不进行预训练,直接训练auto-encoder。此外,auto-encoder还可以与卷积神经网络(CNN)一起使用。 引用: 特征区分技术是指在auto-encoder中,通过编码器获取的Embedding向量中,可以区分出不同输入数据的特征信息。比如,对于语音输入,可以分别提取出语音内容和说话者的特征。这就是Feature Disentangle的目标。 根据李宏毅老师的讲解,auto-encoder是一种用于降维、重构和特征提取的深度学习模型。它可以将输入数据编码为低维表示,并尽可能地重构原始数据作为输出。除了降维之外,auto-encoder还可以用于图片搜索等任务。训练auto-encoder时,可以使用预训练和微调的方法,也可以直接进行训练。此外,auto-encoder还可以与卷积神经网络(CNN)结合使用。特征区分技术可以用于auto-encoder中,用于提取不同输入数据的特征信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值