李宏毅2020ML——P59-62更多关于auto-encoder

本文探讨了如何超越最小化重构误差,通过使用判别器来优化嵌入表示。在序列数据中,这种方法能提升可解释性。目标是生成更易理解的嵌入特征,同时实现输入信息的解纠缠。例如,在语音处理中,这种技术可用于变声器的开发。VQ-VAE作为一种方法,用于创建更直观且易于聚类的离散和结构化嵌入,并在序列数据上应用。整体目标是提高模型的可读性和特征的解析能力。
摘要由CSDN通过智能技术生成

more than minimizing reconstruction error

在这里插入图片描述
What is good embedding?
在这里插入图片描述

Using Discriminator

利用判别器来判断这个embedding和这个object是不是一对

好的结果应该是这样:
在这里插入图片描述
不好的结果应该是这样:
在这里插入图片描述
得到新的损失函数:
在这里插入图片描述
和之前对比:
在这里插入图片描述

Sequential Data

对于有循序的资料,会有更多的做法
在这里插入图片描述

More interpretable embedding

希望更加容易被解释
在这里插入图片描述

feature Disentangle

通常input包含了很多信息,但是我们无法知道哪些维代表什么消息
在这里插入图片描述
比如说语言
在这里插入图片描述
那我们分解开来会有什么用呢?做变声器
在这里插入图片描述
如何去训练呢?
在这里插入图片描述
另外一种方法:
在这里插入图片描述
加入IN和ADIN
在这里插入图片描述

discrete and structured

embedding更加直观和容易聚类
在这里插入图片描述
VQVAE做法:
在这里插入图片描述
在seq上的应用
在这里插入图片描述
让embedding更加可读
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用: Auto-encoder是一种深度学习模型,用于将输入数据编码为低维表示,并尽可能地重构原始数据作为输出。在降维方面,PCA会将不同类别的数据混合在一起,而auto-encoder则可以将它们分开。除了降维之外,auto-encoder还有其他用途,比如图片搜索。 引用: 训练一个auto-encoder的过程通常会先固定一些权重参数,然后逐层训练多个自编码器,每个自编码器的输入和输出维度逐渐逼近目标维度。最后,可以使用反向传播来微调网络参数。现在也可以不进行预训练,直接训练auto-encoder。此外,auto-encoder还可以与卷积神经网络(CNN)一起使用。 引用: 特征区分技术是指在auto-encoder中,通过编码器获取的Embedding向量中,可以区分出不同输入数据的特征信息。比如,对于语音输入,可以分别提取出语音内容和说话者的特征。这就是Feature Disentangle的目标。 根据李宏毅老师的讲解,auto-encoder是一种用于降维、重构和特征提取的深度学习模型。它可以将输入数据编码为低维表示,并尽可能地重构原始数据作为输出。除了降维之外,auto-encoder还可以用于图片搜索等任务。训练auto-encoder时,可以使用预训练和微调的方法,也可以直接进行训练。此外,auto-encoder还可以与卷积神经网络(CNN)结合使用。特征区分技术可以用于auto-encoder中,用于提取不同输入数据的特征信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值