后续应用了Pointer Networks的三篇文章:
- 《Get To The Point: Summarization with Pointer-Generator Networks》;
- 《Incorporating Copying Mechanism in Sequence-to-Sequence Learning》;
- 《Multi-Source Pointer Network for Product Title Summarization》;
一、从Seq2Seq说起
Sequence2Sequence(简称seq2seq)模型是RNN的一个重要的应用场景,顾名思义,它实现了把一个序列转换成另外一个序列的功能,并且不要求输入序列和输出序列等长。比较典型的如机器翻译,一个英语句子“Who are you”和它对应的中文句子“你是谁”是两个不同的序列,seq2seq模型要做的就是把这样的序列对应起来。
由于类似语言这样的序列都存在时序关系,而RNN天生便适合处理具有时序关系的序列,因此seq2seq模型往往使用RNN来构建,如LSTM和GRU。具体结构见Sequence to Sequence Learning with Neural Networks 这篇文章提供的模型结构图:
在这幅图中,