NLP-生成模型-2015:Seq2Seq+Copy【 Pointer网络的Copy机制是对传统Attention机制的简化:输出针对输出词汇表的一个概率分布 --> 输出针对输入文本序列的概率分布】

本文介绍了Pointer Networks,它是对Seq2Seq模型和Attention机制的简化,尤其适用于输出序列是输入序列子集的情况。Pointer Networks通过直接输出针对输入序列的概率分布,解决了传统Seq2Seq模型在处理变长输出时的局限性,被应用于自动摘要等领域。
摘要由CSDN通过智能技术生成

《原始论文:Pointer Networks》

后续应用了Pointer Networks的三篇文章:

  • 《Get To The Point: Summarization with Pointer-Generator Networks》;
  • 《Incorporating Copying Mechanism in Sequence-to-Sequence Learning》;
  • 《Multi-Source Pointer Network for Product Title Summarization》;

一、从Seq2Seq说起

Sequence2Sequence(简称seq2seq)模型是RNN的一个重要的应用场景,顾名思义,它实现了把一个序列转换成另外一个序列的功能,并且不要求输入序列和输出序列等长。比较典型的如机器翻译,一个英语句子“Who are you”和它对应的中文句子“你是谁”是两个不同的序列,seq2seq模型要做的就是把这样的序列对应起来。

由于类似语言这样的序列都存在时序关系,而RNN天生便适合处理具有时序关系的序列,因此seq2seq模型往往使用RNN来构建,如LSTM和GRU。具体结构见Sequence to Sequence Learning with Neural Networks 这篇文章提供的模型结构图:

在这里插入图片描述

在这幅图中,

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值