GAN+RL
这梦想不休不止
这个作者很懒,什么都没留下…
展开
-
SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient
这篇文章是在GAN的基础上加入了pg策略,从而可以进行文本等离散数据的生成与处理。 看一遍文章倒是不需要多少时间,但是看代码花费了大量时间。感觉有代码的还是收获要多一些。 GAN之所以无法对离散数据进行很好的生成,是因为:离散输出使得从d到g的梯度难以传递。(微小的变化引起的改变,可能没有与之对应的标签)。同时也只有当d得到一个完整的数据的时候,才可以进行判断。部分完成的无法给出评分。 ...原创 2018-11-30 20:06:10 · 1021 阅读 · 0 评论 -
A Reinforcement Learning Framework for Natural Question Generationusing Bi-discriminators
果然,我在看完这篇论文表示一脸懵逼,这论文干啥了?啥也没干啊。这不会是A会的吧,一查,果然不是A会的。 单纯的小结构的创新,加几层网络,删去几层感觉作用也不大。 主要思想用的是上一篇写的seqGan,不过用到了两个D,一个D关注一部分东西。 不过看这篇文章又知道了一个focal loss(何大神的作品,这是这篇文章,我最大的收获之一,用于平衡样本数量悬殊的平衡办法) 对于这两个D,感觉在这...原创 2018-12-01 17:04:31 · 346 阅读 · 0 评论 -
Long Text Generation via Adversarial Training with Leaked Information
这篇文章是我看完RankGAN之后看的。这篇文章思想上是一个感觉还是有一定的前沿性。很新颖,至少之前没人这么想过。也把HRL和GAN结合在了一起。很Nice,这两天状态不好,看代码又花去了两天时间。 首先先说一下我看完代码之后的感觉吧: 第一点,leak主要体现在泄露了D对一个生成的句子提取的特征值(D也是根据这个特征值来得到最后的【fake,real】的) 第二点:因为使用了HRL的结...原创 2018-12-05 20:04:35 · 835 阅读 · 3 评论