自然语言处理学习——用GAN进行文本生成之一些总结性的介绍

Github 项目推荐 | PyTorch 实现的 GAN(有相当多的GAN模型)  Github项目地址:https://github.com/eriklindernoren/PyTorch-GAN

Github 项目推荐 | PyTorch 实现的 GAN 文本生成框架  Github项目地址:https://github.com/williamSYSU/TextGAN-PyTorch

然后对于gan的一个简单的introduction的代码: https://github.com/tanayag/gans

GAN在自然语言处理方面有哪些有趣的文章和应用? https://www.zhihu.com/question/54463527

GAN for NLP (论文笔记及解读) https://zhuanlan.zhihu.com/p/25168509

GAN+Text对抗文本生成paperReading https://zhuanlan.zhihu.com/p/199265175

Role of RL in Text Generation by GAN(强化学习在生成对抗网络文本生成中扮演的角色)  https://zhuanlan.zhihu.com/p/29168803

一些论文 《Generating Text via Adversarial Training》

GAN+文本生成:让文本以假乱真(上) https://zhuanlan.zhihu.com/p/36880287

为什么不能用GAN来干NLP https://www.zhihu.com/question/318783067

https://www.zhihu.com/question/318783067/answer/642743132

关于文档摘要的一些 链接 

https://github.com/OctoberChang/awesome-text-summarization

https://github.com/luopeixiang/awesome-text-summarization#sentence-summarization

https://github.com/r3ntru3w4n9/brief

https://github.com/iwangjian/textsum-gan

论文 https://www.aaai.org/ocs/index.php/AAAI/AAAI18/paper/view/16238/16492

Generative Adversarial Network for Abstractive Text Summarization github

Generative Adversarial Network with Policy Gradient for Text Summarization

https://github.com/rohithreddy024/Text-Summarizer-Pytorch

Python 自然语言处理 https://github.com/zhuyuanxiang/NLTK-Python-CN

Python 自然语言处理 第二版 https://usyiyi.github.io/nlp-py-2e-zh/

一些论文:

 Long Text Generation via Adversarial Training with Leaked Information https://arxiv.org/pdf/1709.08624.pdf

Learning to Encode Text as Human-Readable Summaries using Generative Adversarial Networks https://arxiv.org/pdf/1810.02851.pdf

Unparalleled Text summarization using GAN https://github.com/yaushian/Unparalleled-Text-Summarization-using-GAN

Adversarial Text Generation via Feature-Mover’s Distance https://papers.nips.cc/paper/2018/file/074177d3eb6371e32c16c55a3b8f706b-Paper.pdf

 

Summarization https://github.com/sebastianruder/NLP-progress/blob/master/english/summarization.md

文本摘要简述 https://www.jiqizhixin.com/articles/2019-03-25-7

 

文本情感分类 更好的损失函数 https://kexue.fm/archives/4293

 

 

文本 摘要的方法:

information redundancy text Summarization github

https://github.com/vishnu45/NLP-Extractive-NEWS-summarization-using-MMR

https://medium.com/tech-that-works/maximal-marginal-relevance-to-rerank-results-in-unsupervised-keyphrase-extraction-22d95015c7c5

文本摘要生成的库 https://github.com/miso-belica/sumy

InfoGAN  https://arxiv.org/pdf/1606.03657.pdf

https://towardsdatascience.com/build-infogan-from-scratch-f20ee85cba03 

https://machinelearningmastery.com/how-to-develop-an-information-maximizing-generative-adversarial-network-infogan-in-keras/

(可解释的生成对抗网络:InfoGAN的通俗解释)https://zhuanlan.zhihu.com/p/55945164

GAN+BERT的结合(ICLR 2020 | BERT还能跟GAN结合?ELECTRA来了!) https://zhuanlan.zhihu.com/p/140903900 

SiGAN: Siamese Generative Adversarial Network for Identity-Preserving Face Hallucination

CS-NET at SemEval-2020 Task 4: Siamese BERT for ComVE

关于MiniMAX的loss https://discuss.pytorch.org/t/minmax-adversarial-loss/89865/2

 

 

  • 5
    点赞
  • 58
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

量化橙同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值