NLP-生成模型-2016-生成式摘要模型:Seq2Seq+Attention+Copy【Pointer网络的Copy机制解决Decoder端的OOV问题】【抽取式+生成式】【第一个生成式摘要模型】

《原始论文:Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond》

Seq2Seq(BiGRU-UniGRU)+Attention+Copy【Copy机制解决Decoder端的OOV问题】【第一个生成式摘要模型】【抽取式+生成式】

同一作者的抽取式摘要模型(效果比其生成式摘要模型好)

《论文:SummaRuNNer: A Recurrent Neural Network based Sequence Model for Extractive Summarization of Documents》

与PGNet的区别

《论文:Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond》:不将Copy拷贝机制计算出的概率分布与在固定Vocab上计算的生成式的概率分布进行加和;(Copy机制只计算OOV词汇在源文本中所有词汇上的概率分布)

《论文:Get To The Point: Summarization with Pointer-Generator Networks》:将Copy拷贝机制计算出的概率分布与在固定Vocab上计算的生成式的概率分布进行加和;




参考资料:
【读】seq2seq—(3)Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值