ICML 2020论文笔记:地表最强文本摘要生成模型PEGASUS(天马)

Google发布天马-地表最强文本摘要生成模型,打败人类,我只要1000个样本)

背景

机构:Google Research
作者:Jingqing Zhang, Yao Zhao, Mohammad Saleh, Peter J. Liu
论文地址:https://arxiv.org/abs/1912.08777
收录会议:ICML 2020
论文代码:https://github.com/google-research/pegasus

摘要

近些年 Transformers 在海量语料上进行自监督预训练再到下游各种NLP任务(当然也包括文本摘要)上微调的方案已取得巨大成功。但是,尚未有针抽象文本摘要(abstractive text summarization)定制预训练目标。此外,目前抽象文本摘要任务也缺乏跨领域的系统评价。为此,本文提出了一种新的自监督预训练目标:GSG(Gap Sentences Generation),以适配Transformer-based的encoder-decoder模型在海量文本语料上预训练。在 PEGASUS 中, 将输入文档中的“重要句子”删除或者遮蔽,再利用剩余的句子在输出中生成这些被删除或遮蔽的句子。从输入和输出看,该目标与文本摘要类似。本文以12个文本摘要数据集(包括新闻、科学、故事、使用说明、电子邮件、专利和立法议案)对最好的PEGASUS模型进行全面测试。实验结果是:PEGASUS刷新12个数据集的ROUGE得分记录。另外,PEGASUS模型在处理低资源摘要数据集也显示出惊人的性能,在6个数据集上仅以1000个样本就超过了之前的最先进结果。最后,本文还对PEGASUS模型生成的摘要结果进行人工评测,结果表明本文的模型在多个数据集上达到与人工摘要相媲美的性能。

介绍

抽象文本摘要是一项极具挑战的自然语言处理任务,因为这要求理解长篇文章、压缩资讯以及生成语言。目前主流的解决方案是用seq2seq,让神经网路学习把输入序列映射到输出序列。这些seq2seq模型最初是使用RNN,但因为基于Transformer encoder-decoder的各种模型在处理长序列中的依赖关系表现更好,所以逐渐更受青睐。

各种Transformer模型与自监督预训练技术(如BERT、GPT-2、 RoBERTa、XLNet、ALBERT、T5、ELECTRA)相结合,已被证明是学习生成通用语言的强大框架。之前的工作中,预训练使用的自监督目标对下游应用有一定程度的不可知性,即不考虑下游任务,如此有利于模型通用性的学习。本文认为如果预训练的自监督目标更接近最终的任务,那么最终的下游任务能取得更好的结果。

实验证明,将输入文档中部分句子遮蔽掉,用剩余的句子生成被遮蔽掉句子的这种预训练目标很适用于文本摘要任务。这种预训练目标确实适合于抽象摘要,因为它非常类似于下游任务,从而促进模型对整个文档的理解和类似摘要的生成。需要指出的是,选择重要句子比随机选择或者选择前几个句子的结果性能都要好。

在C4语料上预训练出的最好PEGASUS模型,参数只有568M,但在12个评测数据集上评测能够比肩此前最优结果,甚至超越它们刷新纪录。另外,本文为进一步提升最先进结果,引入了一个新收集的文本语料库,该语料库由新闻类文章组成包括XSum和CNN/DailyMail摘要数据集,统称为HugeNews。此外,将本文的模型应用了低资源文本摘要任务上时,实验结果表明本文的模型能够非常快速适用于少量监督对的微调,并仅以1000个样本即在6个数据集中斩获桂冠。最后,还将文本模型的结果与人工摘要结果做对比,结果表明本文的模型可以达到与人工摘要相媲美的效果。

总结下本文的贡献:

(1)提出了一个新的自监督的预训练目标(GSG)用于抽象摘要任务,并研究相应的句子选择策略。
(2)用多个领域的摘要任务数据集对GSG进行广泛评测,并仔细地选择最佳的模型设置,训练一个参数量仅为568M的PEGASUS模型。该模型在全部的12个下游数据集上能够超过或与当前最先进水平持平。
(3)对于低资源任务数据集,通过微调PEGASUS模型,可以在广泛的领域实现良好的抽象摘要效果。在多个任务上,仅需1000个样本就超过了以前的最先进的结果。
(4)对模型结果进行人工评估,结果表明在XSum, CNN/DailyMail和Reddit TIFU上的摘要效果与人工摘要比肩。

模型

预训练目标GSG

本文假设预训练自监督的目标越接近最终的任务则结果性能越好。在PEGASUS预训练中,将文件里的几个完整句子删除,而模型的目标就是要恢复这些句子,换句话说,用来预训练的输入是有缺失部分句子的文档,而输出则是缺失句子的串连。这是一项难以置信的艰巨任务,甚至对人人类来说也是不可能的,我们并不期望模型能完美地解决它。然而,这样一个具有挑战性的任务促使模型学习到关于语言的知识和这个世界的一般事实,以及如何从整个文档中提取信息,以便生成类似于微调摘要任务的输出。这种自监督的优点是,可以创建与文档一样多的示例,而不需要任何人工注释,而这通常是纯监督系统的阿喀琉斯之踵。
Figure 1 展示了GSG和MLM如何同时作用到一个样本。在实验中发现,MLM任务在大的预训练Steps中并不能提升下游任务,所以在最终的PEGASUS_{LARGE}版中舍弃了MLM任务。
在这里插入图片描述Figure 1:PEGASUS是一个标准的Transformer,既有encoder也有decoder。预训练目标包括GSG和MLM。原始的3个句子,其中一个句子整句被[MASK1]遮蔽,即作为目标生成文本;另外两个句子用[MASK2]随机遮蔽部分token后作为输入。

实验发现,选择重要的句子来遮蔽效果最好,让自监督示例的输出结果更像摘要。那么怎么选择重要的句子?根据ROUGE度量标准,通过查找那些与文档的其他部分最相似的句子,自动地识别出这些句子。ROUGE计算两个文本的n-gram重叠,从而得到文本之间的相似性(ROUGE-1、ROUGE-2和ROUGE-L是三种常见的变体)。句子选择策略如Figure 2 所示:
在这里插入图片描述Figure 2:以C4语料为例,绿色、红色、蓝色句子分别对应随机选择、选取前几个和Ind-Ori句子选择策略。

Ind表示独立计算每个句子得分再选择top个句子(其对立面是Seq,通过贪婪地最大化所选句子之间的ROUGE1-F1),Orig表示采用原始的n-grams(其对立面是Uniq,句子中的n-grams去重)。所以,组合方案有4种。

预训练语料和下游任务

与T5类似,本文预训练所用的海量语料也是通过网络爬取。接着在12个抽象摘要数据集上微调PEGASUS,以ROUGE得分来看取得当下最好结果,但参数量只有T5的5%。参与评测的12个数据集是多样的的,包括新闻文章、科学论文、专利、短篇小说、电子邮件、法律文件和使用指南,这表明模型框架适用于广泛的主题,具有一定通用性。

预训练的语料具体如下:
(1)C4,这是T5中引入的语料
(2)HugeNews,这是本文新引入的

下游任务具体如下:
(1)XSum(2)CNN/DailyMail(3)NEWSROOM(4)Multi-News(5)Gigaword(6)arXiv(7)PubMed(8)BIGPATENT(9)WikiHow(10)Reddit TIFU(11)AESLC(12)BillSum

实验结果

PEGASUS_{base}版:
参数量为223M,L=12,H=768,F=3072,A=12,batch size=256。
PEGASUS_{large}版:
参数量为568M,L=16,H=1024,F=4096,A=16,batch size=8192。

消融研究

模型的消融研究基于PEGASUS_{BASE},研究对象:预训练语料、预训练目标、词典尺寸。

预训练语料的影响如Figure 3所示:
在这里插入图片描述
Figure 3:预训练语料的影响。PEGASUS的base版是基于C4和HugeNews预训练的。

从上图可以看出在两个新闻相关的下游任务上用HugeNews预训练效果更好,而另两个非新闻类的任务WikiHow和Reddit TIFU则用C4预训练效果更好。这表明,当预训练的语料和下游任务更相关时,预训练的模型可以更有效地迁移到下游任务。

预训练目标的影响如Figure 4所示:
在这里插入图片描述
Figure 4a可以看出Ind-Orig的方案最佳,Seq-Uniq次之。Figure 4a展示了gap-sentences比例(GSR)的影响。实验表明GSR低于50%较好,在CNN/DailyMail数据集上15%的比例可以得到最优结果。而XSum/Reddit TIFU和WikiHow的最佳值分别是30%和45%。

Figure 5展示了词典大小的影响:
在这里插入图片描述

在新闻类数据集中Unigram和BPE效果相差不大,而在非新闻数据集中Unigram则优于BPE,特别是在WikiHow数据集上。在XSum和CNN/DailyMail上,Unigram 96kROUGE得分最高。在WikiHow和Reddit TIFU数据集上对应的最佳选择分别是Unigram 128k和64k。

Larger模型效果

基于之前的实验,在Large版的模型中选用的是GSG(Ind-Orig)预训练目标(不带有MLM)、Unigram词典大小96k。

Table 1和 Table 2展示了PEGASUS_{BASE}和PEGASUS_{LARGE}在下游任务上的表现。PEGASUS_{BASE}在多项任务上超过当前最优结果,PEGASUS_{LARGE}则在全部下游任务超越当下最优结果。
在这里插入图片描述
在这里插入图片描述

处理低资源数据集

经过大型语料预训练的PEGASUS模型,该模型不需要大量的样本进行微调,就可以获得接近最先进的性能。Figure 6展示了PEGASUS模型在8个数据集下使用不同样本数进行微调的结果。
在这里插入图片描述
Large版只要用100个样本进行微调就可以得到与Base版在20k到200k样本上进行监督训练相近的结果。Large版在其中的6个任务上以1000个微调样本量就超越了之前的最优结果。在只有1000个微调样本的情况下,在大多数任务中都比使用完整监督数据的强基线(Transformer编码器-解码器)执行得更好,在某些情况下,强基线(Transformer编码器-解码器)使用的是多个数量级的样本。这种“样本效率”极大地提高了文本摘要模型的有用性,因为它显著地降低了监督数据收集的规模和成本,而在摘要的情况下,监督数据收集的成本是非常昂贵的。

人工评测

虽然使用像ROUGE这样的自动度量标准在模型开发过程中作为度量标准有用,但是该标准提供的信息有限,比如无法获悉文本摘要的流畅性或者与人类性能相比较结果如何。为此,本文还进行了一次人工评估,要求评分者将文本的模型摘要结果与人工摘要进行比较(不知道哪个是哪个)。这与图灵测试有一些相似之处。
在这里插入图片描述

使用3个不同的数据集进行了实验,发现人工评分者并不总是喜欢人工摘要,有时候也会更倾向于本文模型的摘要。特别是,在XSum和CNN/Dailymail数据集被大量研究的情况下,该模型仅使用1000个示例就达到了与人工摘要相媲美的结果。这表明,使用大量的监督样本不再是文本摘要所必须的了。

总结:

本文提出了PEGASUS,一种基于间隙句子(gap-sentences)生成的序列-序列模型,它是为抽象文本摘要定制的预训练目标。研究了几种gap-sentence的选择方法,确定了主句的选择是最优策略。同时证明了预训练语料库、gap-sentences比率、词汇量所带来的影响,并设置了最佳配置以在所有12个不同下游数据集上获得最先进的结果。本文还表明,PEGASUS模型能够非常快速地适应新的摘要数据集,仅需1000个样本就可以获得较好的结果。最后在多个数据集上评测本文的模型摘要与人工摘要,证明本文模型在多个数据集上可以取得与人类媲美的结果。

  • 3
    点赞
  • 47
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值