发表于ACL2018
AMR-to-Text以往的方法使用seq2seq模型,利用深度优先搜索将AMR变成序列,再利用LSTM模型编码,采用Encoder-Decoder方法得到Text。这类方法会损失AMR结构信息,某些相邻结点在序列中可能距离很远,不利于信息传递。
本文使用图上的LSTM对每个结点编码,再利用Encoder-Decoder方法得到Text。采用多步信息传递,每步传递时,每个结点接收从相邻结点传递的信息,更新自己的信息。更新机制类似LSTM。可以看出,该方法很类似GCN,不过采用了LSTM的门机制和遗忘机制。
另外,在生成时为了解决时间、人名等生成问题,采用Copy机制,利用一个门机制控制生成的单词是使用生成还是复制。