【读】文本摘要—(1)Faithful to the Original: Fact Aware Neural Abstractive Summarization

本文介绍了曹自强在AAAI 2018的论文,关注生成摘要的忠实性问题。通过OpenIE和依赖分析提取事实,使用双重注意力的seq2seq模型,以确保生成的摘要既信息充分又忠实于原文。实验显示,该方法能显著减少虚假事实的生成。
摘要由CSDN通过智能技术生成

非学无以广才,非志无以成学。

没有找到原文章,只读了预讲会的ppt。出自于香港理工大学曹自强,Faithful to the Original: Fact Aware Neural Abstractive Summarization。收录于AAAI 2018。

本文主要做了三个方面的工作:

(1)基于卷积神经网络的sequence to sequence框架,将主题模型整合进自动摘要模型中。使用了开放的信息抽取和依存分析技术从源文本中提取实际的事实描述。

(2)提出dual-attention sequence-to-sequence框架来强制以源文本和提取的事实描述为条件的生成。

目录

Solution

Fact Extraction | OpenIE

Fact Extraction | Dependency Parsing

Statistics of Facts

Summarization Model

Framework

Data and Setting

Informativeness Performance

Faithfulness Performance

Conclusion


生成摘要不仅要保持信息充分,更重要的是信息的忠实性。

与抽取摘要不同,生成式摘要在融合原文本的过程中往往会创造出虚假的事实。曹自强在报告中介绍,目前有近 30% 的最先进的神经系统都会受到这种问题的困扰。以前生成式摘要主要着眼于信息性的提高,但作者认为忠实性(也即「信」)是生成摘要的前提,非常重要。

Solution

将现有的事实编码到摘要系统中

1.从源头提取事实

      OpenIE

      依存分析

2.开发基于双重注意力的seq2seq模型,以迫使生成的生成条件同时使用源文本和提取的事实

Fact Extraction | OpenIE

1.(主题;谓词;对象)三元组

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值