【赛尔笔记】文本摘要论文列表

作者:哈工大SCIR 冯夏冲

摘要(Summarization)是传统的自然语言处理任务之一[1],多年以来,一直被广大研究者持续挖掘推进,该任务旨在将输入数据转换为包含关键信息的简短概述。在早些年,该方向一直以DUC,CNNDM,Gigaword等数据集为核心进行研究[2],并取得了显著的进展。为了满足各种需求,近些年,跨语言摘要[3],多模态摘要[4],无监督摘要[5],摘要事实性研究[6],对话摘要[7],科学文献摘要[8],基于预训练的摘要[9],摘要任务分析[10]等方向喷薄发展,百花齐放,论文数量持续增多,除了各大会议(例如ACL,EMNLP)中的摘要相关论文之外,arXiv也会涌现出众多摘要相关论文。

受yizhen20133868/NLP-Conferences-Code[11],teacherpeterpan/Question-Generation-Paper-List[12],thunlp/PLMpapers[13],thu-coai/PaperForONLG[14],NiuTrans/ABigSurvey[15]等项目的激励,旨在整理现有摘要研究成果,追踪最新摘要论文,中心文本生成组博士生冯夏冲收集并整理了摘要论文阅读列表,该列表每条信息包括论文题目,作者,PDF链接,论文来源,是否有实现代码,可以帮助研究者快速整合该方向核心资料,并会长期维护和迭代整理现有论文列表。

图1 摘要论文阅读列表

除论文信息之外,该仓库还包括了文本生成组摘要论文笔记与讲解PPT,可以帮助初学者快速了解与入门该任务。

图2 摘要论文笔记与讲解PPT

项目地址:

https://github.com/xcfcode/Summarization-Papers

参考资料

[1]

Paice C D. Constructing literature abstracts by computer: Techniques and prospects[J]. Inf. Process. Manag, 1990, 26(1): 171-186.

[2]

Gambhir M, Gupta V. Recent automatic text summarization techniques: a survey[J]. Artificial Intelligence Review, 2017, 47(1): 1-66.

[3]

Cao Y, Liu H, Wan X. Jointly Learning to Align and Summarize for Neural Cross-Lingual Summarization[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. 2020: 6220-6231.

[4]

Li M, Chen X, Gao S, et al. VMSMO: Learning to Generate Multimodal Summary for Video-based News Articles[J]. arXiv preprint arXiv:2010.05406, 2020.

[5]

Kohita R, Wachi A, Zhao Y, et al. Q-learning with Language Model for Edit-based Unsupervised Summarization[J]. arXiv preprint arXiv:2010.04379, 2020.

[6]

Dong Y, Wang S, Gan Z, et al. Multi-Fact Correction in Abstractive Text Summarization[J]. arXiv preprint arXiv:2010.02443, 2020.

[7]

Feng X, Feng X, Qin B, et al. Incorporating Commonsense Knowledge into Abstractive Dialogue Summarization via Heterogeneous Graph Networks[J]. arXiv preprint arXiv:2010.10044, 2020.

[8]

Subramanian S, Li R, Pilault J, et al. On extractive and abstractive neural document summarization with transformer language models[J]. arXiv preprint arXiv:1909.03186, 2019.

[9]

Bi B, Li C, Wu C, et al. PALM: Pre-training an Autoencoding&Autoregressive Language Model for Context-conditioned Generation[J]. arXiv preprint arXiv:2004.07159, 2020.

[10]

Bhandari M, Gour P, Ashfaq A, et al. Re-evaluating Evaluation in Text Summarization[J]. arXiv preprint arXiv:2010.07100, 2020.

[11]

https://github.com/yizhen20133868/NLP-Conferences-Code

[12]

https://github.com/teacherpeterpan/Question-Generation-Paper-List

[13]

https://github.com/thunlp/PLMpapers

[14]

https://github.com/thu-coai/PaperForONLG

[15]

https://github.com/NiuTrans

本期责任编辑:李忠阳

本期编辑:朱文轩


下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!

后台回复【五件套】
下载二:南大模式识别PPT

后台回复【南大模式识别】

说个正事哈

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方深度学习自然语言处理”,进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

推荐两个专辑给大家:

专辑 | 李宏毅人类语言处理2020笔记

专辑 | NLP论文解读

专辑 | 情感分析


整理不易,还望给个在看!
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值