GAN 生成对抗网络 10-9 improving sequence generation by GAN

在这里插入图片描述
一、conditional sequence generation
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
使用RL来增强seq2seq model
在这里插入图片描述
chat-bot在与人的互动中逐渐变强。比如人跟机器说How are you?机器回答bye bye,我们会给他一个很低的分数。
如果我们跟机器说hello,机器回一个hi,我们会给他一个较高的分数。

在这里插入图片描述
人来代替discriminator
在这里插入图片描述
使得reward值最大。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在实际应用中不会有人跟chat-bot互动那么多次,因此有人想出用alpha go来训练chat-bot

在这里插入图片描述
训练两个chat-bot
在这里插入图片描述
使用discriminator代替人,即给Discriminator大量人的对话。
在这里插入图片描述
在这里插入图片描述
事实上这是一个seq2seq model,因此Generator是一个RNN结构,RNN将生成的每个词丢到Discriminator这样能做吗?
答案是不能!!
这是图像和seq的一个区别。它是无法微分的,因为红框部分有一个sample processing。这是序列模型与图像的一个巨大的差别,图像是可以直接丢进discriminator的。

有三种解决方式
在这里插入图片描述
在这里插入图片描述
Gumbel-softmax用的还不多,不做详细讲解。让本来不能微分的东西可以微分。
在这里插入图片描述
continuous input for discriminator,即给discriminator一个连续的输入,我们不再做sampling process,直接把word distribution丢进discriminator。
但是事情没有那么简单
在这里插入图片描述
现在的问题是,我们会发现real sentence和Generated是不一样的,real sentence是one hot向量。discriminator可以很容易发现二者的差异,即不关语义信息,会直接将二者区分开,这样的句子是不make sense的。因此这样做是不够的。
可以使用WGAN来训练。
在这里插入图片描述

第三种方法是强化学习。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在实践中你会发现可能有10%的情况输入一个句子会输出I’m sorry或者I don’t know。类比图像生成,相当于生成来模糊图像。因为同一个输入可能有很多种答案,比如火车有好多朝向,如果不用GAN,可能会生成它们的平均,使得图像模糊;文本也是如此,输入一句话,有多种回答,取了它们的平均。
因此可以使用GAN来解决。使用GAN后倾向于产生较长的句子。

在这里插入图片描述
二、Unsupervised conditional sequence generation
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
至少要100w+ training data。
在这里插入图片描述
联想Domain

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值