中文标题:精调BERT做抽取式摘要
论文链接:https://arxiv.org/pdf/1903.10318.pdf
发表:EMNLP 2019
组织:爱丁堡大学
开源链接:GitHub - nlpyang/BertSum: Code for paper Fine-tune BERT for Extractive Summarization
Abstract
本文将BERT用于抽取式摘要,提出了BERT的一个变体:BERTSUM。
1. Introduction
作者在本文主要专注于利用BERT来解决抽取式摘要的问题,作者发现一个扁平的句间Transformer的结构效果最好,在CNN/DM和NYT两个数据集上达到了SOTA。
2. Methodology
抽取式摘要的主要思想是对于一个文档中的句子集合,模型预测