非学无以广才,非志无以成学。
没有找到原文章,只读了预讲会的ppt。出自于香港理工大学曹自强,Faithful to the Original: Fact Aware Neural Abstractive Summarization。收录于AAAI 2018。
本文主要做了三个方面的工作:
(1)基于卷积神经网络的sequence to sequence框架,将主题模型整合进自动摘要模型中。使用了开放的信息抽取和依存分析技术从源文本中提取实际的事实描述。
(2)提出dual-attention sequence-to-sequence框架来强制以源文本和提取的事实描述为条件的生成。
目录
Fact Extraction | Dependency Parsing
生成摘要不仅要保持信息充分,更重要的是信息的忠实性。
与抽取摘要不同,生成式摘要在融合原文本的过程中往往会创造出虚假的事实。曹自强在报告中介绍,目前有近 30% 的最先进的神经系统都会受到这种问题的困扰。以前生成式摘要主要着眼于信息性的提高,但作者认为忠实性(也即「信」)是生成摘要的前提,非常重要。
Solution
将现有的事实编码到摘要系统中
1.从源头提取事实
OpenIE
依存分析
2.开发基于双重注意力的seq2seq模型,以迫使生成的生成条件同时使用源文本和提取的事实
Fact Extraction | OpenIE
1.(主题;谓词;对象)三元组