自动摘要
文章平均质量分 83
imsuhxz
这个作者很懒,什么都没留下…
展开
-
【读】seq2seq—(8)A Reinforced Topic-Aware Convolutional Sequence-to-Sequence Model for TextSum
第一篇非转载,而是尝试自己写阅读笔记,虽然感觉变成了整篇翻译…以后慢慢改进吧。学然后知不足。这是一篇Abstractive Text Summarization相关的paper,出自于腾讯知文团队、苏黎世联邦理工学院、哥伦比亚大学和腾讯 AI Lab,A Reinforced Topic-Aware Convolutional Sequence-to-Sequence Model fo...原创 2018-09-12 15:29:58 · 2931 阅读 · 5 评论 -
【读】文本摘要—(1)Faithful to the Original: Fact Aware Neural Abstractive Summarization
非学无以广才,非志无以成学。没有找到原文章,只读了预讲会的ppt。出自于香港理工大学曹自强,Faithful to the Original: Fact Aware Neural Abstractive Summarization。收录于AAAI 2018。本文主要做了三个方面的工作:(1)基于卷积神经网络的sequence to sequence框架,将主题模型整合进自动摘要模型...原创 2018-09-13 17:03:11 · 1067 阅读 · 0 评论 -
【读】机器学习摘要汇总
本文转载自:教机器学习摘要目录问题描述语料模型结果思考参考文献文本摘要是自然语言处理中比较难的一个任务,别说是用机器来做文摘了,就连人类做文摘的时候都需要具备很强的语言阅读理解能力和归纳总结能力。新闻的摘要要求编辑能够从新闻事件中提取出最关键的信息点,重新组织语言来写摘要;paper的摘要需要作者从全文中提取出最核心的工作,然后用更加精炼的语言写成摘要;综述性的...转载 2018-09-10 17:08:05 · 2565 阅读 · 0 评论 -
【读】AttSum: Joint Learning of Focusing and Summarization with Neural Attention
本文转载自:自动文摘(八)目录AbstractIntroductionQuery-Focused Sentence RankingCNN LayerPooling LayerRanking LayerSentence SelectionExperimentsDatasetModel SettingEvaluation MetricBaseli...转载 2018-09-10 17:02:25 · 358 阅读 · 2 评论 -
【读】自动文摘——预备
本文转载自:自动文摘(一)、自动文摘(二)、自动文摘(三)、自动文摘(四)目录一、前言IdeasIntroductionLink二、抽取式Extractive Summarization预处理词、句表示排序后处理输出Link三、难点AbstractiveEvaluation人工评价自动评价重要性四、生成式摘要E...转载 2018-09-10 16:50:36 · 950 阅读 · 0 评论 -
【读】seq2seq—(7)Incorporating Copying Mechanism in Sequence-to-Sequence Learning
本文转载自:自动文摘(十三)目录综述Seq2SeqCOPYNET模型综述拷贝模式和生成模式状态更新M矩阵实验文本摘要Link天下武功,唯快不破今天分享的paper是Incorporating Copying Mechanism in Sequence-to-Sequence Learning,作者来自香港大学和华为诺亚方舟实验室。本文...转载 2018-09-10 16:36:36 · 716 阅读 · 0 评论 -
【读】seq2seq—(6)Neural Headline Generation with Minimum Risk Training
本文转载自:自动文摘(十)目录综述NHG模型EncoderDecoderMRT+NHGMLEMRTROUGE实验结果Link心是自由的,世界就是自由的今天分享的paper是Neural Headline Generation with Minimum Risk Training。本文通过将评价指标融入目标函数来训练模型,在中文和英文数...转载 2018-09-10 16:32:24 · 587 阅读 · 0 评论 -
【读】seq2seq—(5)UNK问题
本文转载自:自动文摘(十)目录MotivationSolutionChar-basedVocabulary expansionOutput layer boostPointing/Copy 生活不只是眼前的苟且,还有paper和远方不知不觉坚持写自动文摘系列的博客已经50天了,本篇是系列的第十篇。其实说是系列文章并不准确,只是每篇博客与自动文摘有关系...转载 2018-09-10 16:26:56 · 7437 阅读 · 0 评论 -
【读】seq2seq—(4)LCSTS: A Large Scale Chinese Short Text Summarization Dataset
本文转载自:自动文摘(九)目录AbstractIntroductionData CollectionData PropertiesExperimentConclusion and Future WorkLink 坚持下去就是胜利。今天分享一篇关于构造自动文摘数据集的paper,数据集的质量、内容和规模都是直接影响deep learning效果的最...转载 2018-09-10 15:27:45 · 2856 阅读 · 0 评论 -
【读】seq2seq—(3)Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond
本文转载自:自动文摘(六)目录AbstractIntroductionRelated workModelsEncoder-Decoder with AttentionLarge Vocabulary TrickVocabulary expansionFeature-rich EncoderSwitching Generator/PointerHier...转载 2018-09-10 14:52:08 · 2836 阅读 · 0 评论 -
【读】seq2seq—(2)Abstractive Sentence Summarization with Attentive Recurrent Neural Networks
本文转载自:自动文摘(六)目录AbstractIntroductionRelated WorkBackgroundModel Objective Encoder Decoder Generation TrainingExperiment Datase...转载 2018-09-10 14:48:25 · 1377 阅读 · 1 评论 -
【读】seq2seq—(1)Generating News Headlines with Recurrent Neural Networks
本文转载自:自动文摘(五)目录AbstractModelOverviewAttentionDatasetOverviewPreprocessingDataset IssuesEvaluationAnalysisUnderstanding information stored in last layer of the neural network...转载 2018-09-10 14:39:04 · 633 阅读 · 0 评论