自动摘要
Alanaker
菜狗子,边笑边跑
展开
-
论文阅读笔记《Ranking Sentences for Extractive Summarization with Reinforcement Learning》
文章目录0 摘要1 介绍2 通过句子排序进行自动摘要2.1 句子编码器(sentence encoder)2.2 文档编码器(document encoder)2.3 句子抽取器(sentence extractor)3 交叉熵损失的陷阱4 使用强化学习进行句子排序4.1 学习策略4.2 使用高概率样本进行训练5 实验6 结果7 相关工作8 结论转载请注明原文出处0 摘要此文将抽取式单文档...原创 2019-02-15 00:40:30 · 2430 阅读 · 4 评论 -
论文阅读笔记《SummaRuNNer: A Recurrent Neural Network based Sequence Model for Extractive Summa》
1 摘要这个模型达到2017年的state-of-art两大优势:提出了一套简洁明了的公式,很好地解释了从一些抽象特征: 信息内容(information content),显著度(salience),新颖度(novelty) 到预测结果的过程提出了一种新的训练机制,可以使用生成式训练机制来训练这个抽取式模型2 介绍自动文档摘要方法主要分为抽取式(extractive)和生成式(a...原创 2019-02-08 22:25:29 · 3425 阅读 · 4 评论 -
论文阅读笔记《Can Syntax Help? Improving an LSTM-based Sentence Compression Model for New Domains》
文章目录0 摘要1 介绍2 方法2.1 问题定义2.2 基准模型(baseline)2.3 句法特征的结合2.4 通过ILP进行全局推断2.4.1 目标函数2.4.2 约束3 实验3.1 数据集与实验参数设置3.2 自动化评估3.3 手动评估4 相关工作5 结论转载请注明原文出处0 摘要这篇论文是由新加坡管理大学(SMU)和北京理工大学(BIT)合作的成果此文主要研究如何在句子压缩的工作中...原创 2019-02-14 12:58:20 · 900 阅读 · 0 评论 -
论文泛读笔记《Learning to Extract Coherent Summary via Deep Reinforcement Learning》
文章目录0 摘要1 介绍2 相关工作3 神经抽取式摘要模型4 强化神经抽取式摘要模型4.1 强化学习4.2 神经连贯性奖励4.3 ROUGE得分奖励5 实验与结果5.1 神经连贯模型的结果5.2 强化神经抽取式摘要模型(RNES)的结果6 结论转载请注明本文出处0 摘要1 介绍2 相关工作3 神经抽取式摘要模型4 强化神经抽取式摘要模型4.1 强化学习4.2 神经连贯性奖励4.3...原创 2019-02-25 16:29:13 · 834 阅读 · 0 评论 -
论文泛读笔记《Neural Document Summarization by Jointly Learning to Score and Select Sentences》
文章目录0 摘要1 介绍0 摘要此论文将句子打分与选择作为主要的任务而不仅是子任务, 使用分层编码器获取句子的分布式表示,作者将打分系统融入模型,根据前面的句子直接预测当前句的相对重要性。达到了CNN/Daily Mail数据集上的state-of-the-art(话说几乎看过的论文都是这么说的2333)1 介绍之前的传统方法已经有大量的句子打分与句子选择的应用(确实,可参考我前篇博文: ...原创 2019-02-25 21:54:11 · 1048 阅读 · 0 评论 -
论文泛读笔记《Neural Latent Extractive Document Summarization》
文章目录0 摘要1 介绍2 模型2.1 神经网络抽取式摘要模型2.2 句子压缩2.3 使用隐变量做抽取式摘要3 实验结果4 个人阅读总结0 摘要这应该是第一个提出把句子作为隐变量的抽取式摘要模型。1 介绍过去的抽取式摘要技术多是把这个看作句子序列标注二分类问题或者句子排序问题。传统方法主要有用人工特征做二分类器的方法,隐马尔可夫模型法,基于图的方法,基于ILP(线性整数规划)的方法。后来...原创 2019-02-25 23:13:41 · 1196 阅读 · 0 评论 -
论文阅读笔记《Get To The Point: Summarization with Pointer-Generator Networks》
文章目录摘要一 介绍二 模型2.1 序列->序列架构加上注意力机制模型(seq2seq+attention model)这是一篇ACL2017的论文,偏工程性,模型实用性强,可以说是生成式摘要技术的里程碑(特别是对于标题生成任务来说),作者也都是大牛(大家如果上过cs224n的课,应该对Manning教授不陌生吧)摘要在生成式摘要任务中,对于传统的seq2seq+attention的模...原创 2019-04-05 23:51:53 · 3791 阅读 · 2 评论