考虑VAE来实现不同条件下的文本生成

题目 Pre-train and Plug-in: Flexible Conditional Text Generation with Variational Auto-Encoders
作者: 这是一篇由阿里,武汉大学,芝加哥大学,美国亚马逊联合出品

**前言:**应该是真大佬之间的合作,哎十分羡慕啊。言归正传,我之前基本一直没怎么接触VAE,最多只是看过一些博客介绍,这篇文章应该算是我对VAE的一次全面了解,初始感觉,VAE强啊,本文做的是有条件的文本生成任务,基于VAE去做文本隐含分布映射,然后通过给出的条件能够实现针对文本隐含分布的映射,从而完成文本生成,不得不说,这个东西很酷,在实现工业界应该很有意义。

**摘要:**条件文本生成作为文本生成领域的重要课题。当前的条件文本模型不能在不完全训练的条件下去做到添加新的限制。本论文提出的PPVAE技术能够做到在只对轻权重网络做修改,然后即可实现添加新条件。当新的条件出现时,只需要train轻量级网络作为附加部分放入网络即可。

任务形式:
train形式:

  • 利用大量无标签文本做VAE训练,获取潜在的语义空间分布
  • 给定有标签(条件)的少量有监督文本做P LUGIN VAE训练,帮助确定VAE的编码和译码形式

predict:

  • 将数据映射到VAE生成的指定语义空间分布后,然后短文本。

前述VAE:
在这里插入图片描述
其实作者默认大量的无标签文本库中应该包含了所有条件的数据,基于这个假设做的实验。

主体框架:
在这里插入图片描述
PretrainVAE:
在这里插入图片描述
编码器:单层的Bi_GRU+2层全连接
译码器:transformers

PluginVAE:
在这里插入图片描述
论文阐述:超参很重要,后面给出说上面超参几乎确定了准确率和多样性的平衡点。
编码器:2层全连接
译码器:2层全连接

trick
在这里插入图片描述
这个可以理解为专门去设计了一些错误样本然后放入数据集中,让PluginVAE模型进行训练,这个还是很牛的,后面实验体现出来了。

数据集:
作者选取了两个数据集Yelp和News Titles数据集,然后分别考虑三个任务,分别实情感分类,长度控制,和主题限定。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值
>