论文解读:Recent Advances in Autoencoder-Based Representation Learning(Regularization-based methods)


在这里插入图片描述

写在前面

这篇文章讲的是基于自编码器的表示学习的综述文章,这篇博客主要介绍基于正则化的方法(Regularization-based methods)去实现disentanglement

Abstract

翻译:使用半监督或者无监督方法进行表示学习是人工智能领域的一个关键挑战。我们对过去一些基于自编码器的表示学习进行深度的回顾。我们相信元先验对于一些下游任务非常有用,例如disentanglement或者特征的层次组织学习。具体的,我们介绍三种主要的机制去实现这些下游任务:(1)正则化(近似或者聚合)后验分布…(后面不是这篇博客关注的内容)

下游/上游任务:上游任务指的是理论研究,下游任务指的是应用

元先验:这是一个很泛的概念指的是能够挖掘出下游任务的一种先验,下游任务可以是目标检测,文本分析等等,在这里disentanglement可以理解为一种策略,是表示学习的一种策略,而学习到这种策略后可以更好的服务于后续的下游任务

在这里插入图片描述
中间略去1-2节,因为不是重点

3. Regularization-based methods

在这里插入图片描述
在这里插入图片描述在这里插入图片描述
上面是一些对于不同正则化项选择的一些模型

3.1 Unsupervised methods targeting disentanglement and independence

在这里插入图片描述

翻译:Distanglement被Bengio看作是一个比较重要的元先验问题。换句话说,假设数据是由几个统计上独立的因素产生的,揭示这些因素对于大量的下游任务(downstream tasks)应该是极其有用的。

最近在Distanglement中的核心思想是:用正则化项去augmentVAE的变分下届,这样会激励隐变量z的distanglement。严肃的讲,假设数据x~p(x|v,w),即数据x取决于条件独立因子v和非条件独立因子w。我们的目标是augmentVAE的变分下界,这样推理模型q(z|x)可以学习预测因子v,以此来学习生成过程。

如何评估distanglement我们后面研究深入后会研究这个问题,因为作者也说 :”每个作者都有自己的评价指标,而且这些作者都认为自己的评价指标好“

后面全是模型的优劣分析,这里就不做介绍,具体看论文好一点。

β-VAE,FactorVAE,β-TCVAE,InfoVAE,HSIC-VAE,HFVAE,DIPVAE

为什么不讨论GAN模型?

GAN模型只关注数据的生成过程,并不关注表示学习(至少在目前的GAN版本中是这样的)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

InceptionZ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值