帝国理工联手谷歌提出抽象文本摘要最佳模型 | ICML 2020

0Fj每天发布大量与生活相关的资讯平台

文介绍的是ICML 2020 论文《PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization 》,论文作来自 伦敦帝国理工学院和谷歌。 0Fj每天发布大量与生活相关的资讯平台

作者 | 刘杰鹏0Fj每天发布大量与生活相关的资讯平台

编辑 | 丛 末0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

论文地址:https://arxiv.org/pdf/1912.08777.pdf 0Fj每天发布大量与生活相关的资讯平台

论文代码:https://github.com/google-research/pegasus 0Fj每天发布大量与生活相关的资讯平台

10Fj每天发布大量与生活相关的资讯平台

导语0Fj每天发布大量与生活相关的资讯平台

近些年 Transformers 在海量语料上进行自监督预训练再到下游各种NLP任务(当然也包括文本摘要)上微调的方案已取得巨大成功。但是,尚未有针抽象文本摘要(abstractive text summarization)定制预训练目标。此外,目前抽象文本摘要任务也缺乏跨领域的系统评价。0Fj每天发布大量与生活相关的资讯平台

为此,本文提出了一种新的自监督预训练目标:GSG(Gap Sentences Generation),以适配 Transformer-based 的 encoder-decoder 模型在海量文本语料上预训练。在 PEGASUS 中, 将输入文档中的“重要句子”删除或者遮蔽,再利用剩余的句子在输出中生成这些被删除或遮蔽的句子。从输入和输出看,该目标与文本摘要类似。0Fj每天发布大量与生活相关的资讯平台

本文以 12 个文本摘要数据集(包括新闻、科学、故事、使用说明、电子邮件、专利和立法议案)对最好的 PEGASUS 模型进行全面测试。实验结果是:PEGASUS 刷新 12 个数据集的 ROUGE 得分记录。另外,PEGASUS 模型在处理低资源摘要数据集也显示出惊人的性能,在 6 个数据集上仅以 1000 个样本就超过了之前的最先进结果。最后,本文还对 PEGASUS 模型生成的摘要结果进行人工评测,结果表明本文的模型在多个数据集上达到与人工摘要相媲美的性能。0Fj每天发布大量与生活相关的资讯平台

20Fj每天发布大量与生活相关的资讯平台

前言0Fj每天发布大量与生活相关的资讯平台

抽象文本摘要是一项极具挑战的自然语言处理任务,因为这要求理解长篇文章、压缩资讯以及生成语言。目前主流的解决方案是用 seq2seq,让神经网路学习把输入序列映射到输出序列。这些 seq2seq 模型最初是使用 RNN,但因为基于 Transformer encoder-decoder 的各种模型在处理长序列中的依赖关系表现更好,所以逐渐更受青睐。 0Fj每天发布大量与生活相关的资讯平台

各种 Transformer 模型与自监督预训练技术(如 BERT、GPT-2、 RoBERTa、XLNet、ALBERT、T5、ELECTRA)相结合,已被证明是学习生成通用语言的强大框架。之前的工作中,预训练使用的自监督目标对下游应用有一定程度的不可知性,即不考虑下游任务,如此有利于模型通用性的学习。本文认为如果预训练的自监督目标更接近最终的任务,那么最终的下游任务能取得更好的结果。 0Fj每天发布大量与生活相关的资讯平台

实验证明,将输入文档中部分句子遮蔽掉,用剩余的句子生成被遮蔽掉句子的这种预训练目标很适用于文本摘要任务。这种预训练目标确实适合于抽象摘要,因为它非常类似于下游任务,从而促进模型对整个文档的理解和类似摘要的生成。需要指出的是,选择重要句子比随机选择或者选择前几句的结果性能都要好。 0Fj每天发布大量与生活相关的资讯平台

在 C4 语料上预训练出的最好 PEGASUS 模型,参数只有 568M,但在 12 个评测数据集上评测能够比肩此前最优结果,甚至超越它们刷新纪录。另外,本文为进一步提升最先进结果,引入了一个新收集的文本语料库,该语料库由新闻类文章组成包括 XSum 和 CNN/DailyMail 摘要数据集,统称为 HugeNews。此外,将本文的模型应用了低资源文本摘要任务上时,实验结果表明本文的模型能够非常快速适用于少量监督对的微调,并仅以 1000 个样本即在 6 个数据集中斩获桂冠。最后,还将文本模型的结果与人工摘要结果做对比,结果表明本文的模型可以达到与人工摘要相媲美的效果。 0Fj每天发布大量与生活相关的资讯平台

总结下本文的贡献: 0Fj每天发布大量与生活相关的资讯平台

(1)提出了一个新的自监督的预训练目标(GSG)用于抽象摘要任务,并研究相应的句子选择策略。0Fj每天发布大量与生活相关的资讯平台

(2)用多个领域的摘要任务数据集对 GSG 进行广泛评测,并仔细地选择最佳的模型设置,训练一个参数量仅为 568M 的 PEGASUS 模型。该模型在全部的 12 个下游数据集上能够超过或与当前最先进水平持平。 0Fj每天发布大量与生活相关的资讯平台

(3)对于低资源任务数据集,通过微调 PEGASUS 模型,可以在广泛的领域实现良好的抽象摘要效果。在多个任务上,仅需 1000 个样本就超过了以前的最先进的结果。 0Fj每天发布大量与生活相关的资讯平台

(4)对模型结果进行人工评估,结果表明在 XSum, CNN/DailyMail 和 Reddit TIFU 上的摘要效果与人工摘要比肩。 0Fj每天发布大量与生活相关的资讯平台

30Fj每天发布大量与生活相关的资讯平台

模型0Fj每天发布大量与生活相关的资讯平台

1、预训练目标 GSG0Fj每天发布大量与生活相关的资讯平台

本文假设预训练自监督的目标越接近最终的任务则结果性能越好。在 PEGASUS 预训练中,将文件里的几个完整句子删除,而模型的目标就是要恢复这些句子,换句话说,用来预训练的输入是有缺失部分句子的文档,而输出则是缺失句子的串连。这是一项难以置信的艰巨任务,甚至对人人类来说也是不可能的,我们并不期望模型能完美地解决它。然而,这样一个具有挑战性的任务促使模型学习到关于语言的知识和这个世界的一般事实,以及如何从整个文档中提取信息,以便生成类似于微调摘要任务的输出。这种自监督的优点是,可以创建与文档一样多的示例,而不需要任何人工注释,而这通常是纯监督系统的阿喀琉斯之踵。0Fj每天发布大量与生活相关的资讯平台

Figure 1 展示了 GSG 和 MLM 如何同时作用到一个样本。在实验中发现,MLM 任务在大的预训练 Steps 中并不能提升下游任务,所以在最终的 PEGASUS_{LARGE}版中舍弃了 MLM 任务。 0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

实验发现,选择重要的句子来遮蔽效果最好,让自监督示例的输出结果更像摘要。那么怎么选择重要的句子?根据 ROUGE 度量标准,通过查找那些与文档的其他部分最相似的句子,自动地识别出这些句子。ROUGE 计算两个文本的 n-gram 重叠,从而得到文本之间的相似性(ROUGE-1、ROUGE-2 和 ROUGE-L 是三种常见的变体)。句子选择策略如 Figure 2 所示:0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

Ind 表示独立计算每个句子得分再选择 top 个句子(其对立面是 Seq,通过贪婪地最大化所选句子之间的 ROUGE1-F1),Orig 表示采用原始的 n-grams(其对立面是 Uniq,句子中的 n-grams 去重)。所以,组合方案有 4 种。0Fj每天发布大量与生活相关的资讯平台

2、预训练语料和下游任务0Fj每天发布大量与生活相关的资讯平台

与 T5 类似,本文预训练所用的海量语料也是通过网络爬取。接着在 12 个抽象摘要数据集上微调 PEGASUS,以 ROUGE 得分来看取得当下最好结果,但参数量只有 T5 的 5%。参与评测的 12 个数据集是多样的的,包括新闻文章、科学论文、专利、短篇小说、电子邮件、法律文件和使用指南,这表明模型框架适用于广泛的主题,具有一定通用性。 0Fj每天发布大量与生活相关的资讯平台

预训练的语料具体如下: 0Fj每天发布大量与生活相关的资讯平台

(1)C4,这是 T5 中引入的语料 0Fj每天发布大量与生活相关的资讯平台

(2)HugeNews,这是本文新引入的 0Fj每天发布大量与生活相关的资讯平台

下游任务具体如下: 0Fj每天发布大量与生活相关的资讯平台

(1)XSum(2)CNN/DailyMail(3)NEWSROOM(4)Multi-News(5)Gigaword(6)arXiv(7)PubMed(8)BIGPATENT(9)WikiHow(10)Reddit TIFU(11)AESLC(12)BillSum 0Fj每天发布大量与生活相关的资讯平台

40Fj每天发布大量与生活相关的资讯平台

实验结果0Fj每天发布大量与生活相关的资讯平台

PEGASUS_{base}版:0Fj每天发布大量与生活相关的资讯平台

参数量为 223M,L=12,H=768,F=3072,A=12,batch size=256。 0Fj每天发布大量与生活相关的资讯平台

PEGASUS_{large}版: 0Fj每天发布大量与生活相关的资讯平台

参数量为 568M,L=16,H=1024,F=4096,A=16,batch size=8192。0Fj每天发布大量与生活相关的资讯平台

1、消融研究0Fj每天发布大量与生活相关的资讯平台

模型的消融研究基 于PEGASUS_{BASE},研究对象:预训练语料、预训练目标、词典尺寸。 0Fj每天发布大量与生活相关的资讯平台

预训练语料的影响如 Figure 3 所示: 0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

从上图可以看出在两个新闻相关的下游任务上用 HugeNews 预训练效果更好,而另两个非新闻类的任务 WikiHow 和 Reddit TIFU 则用 C4 预训练效果更好。这表明,当预训练的语料和下游任务更相关时,预训练的模型可以更有效地迁移到下游任务。 0Fj每天发布大量与生活相关的资讯平台

预训练目标的影响如 Figure 4 所示: 0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

Figure 4a 可以看出 Ind-Orig 的方案最佳,Seq-Uniq 次之。Figure 4a 展示了 gap-sentences 比例(GSR)的影响。实验表明 GSR 低于 50% 较好,在 CNN/DailyMail 数据集上 15% 的比例可以得到最优结果。而 XSum/Reddit TIFU 和 WikiHow 的最佳值分别是 30% 和 45%。 0Fj每天发布大量与生活相关的资讯平台

Figure 5 展示了词典大小的影响: 0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

在新闻类数据集中 Unigram 和 BPE 效果相差不大,而在非新闻数据集中 Unigram 则优于 BPE,特别是在 WikiHow 数据集上。在 XSum 和 CNN/DailyMail 上,Unigram 96kROUGE 得分最高。在 WikiHow 和 Reddit TIFU 数据集上对应的最佳选择分别是 Unigram 128k 和 64k。0Fj每天发布大量与生活相关的资讯平台

2、Larger 模型效果0Fj每天发布大量与生活相关的资讯平台

基于之前的实验,在 Large 版的模型中选用的是 GSG(Ind-Orig)预训练目标(不带有MLM)、Unigram 词典大小 96k。 0Fj每天发布大量与生活相关的资讯平台

Table 1和 Table 2展示了 PEGASUS_{BASE} 和 PEGASUS_{LARGE}在下游任务上的表现。PEGASUS_{BASE}在多项任务上超过当前最优结果,PEGASUS_{LARGE} 则在全部下游任务超越当下最优结果。 0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

3、处理低资源数据集0Fj每天发布大量与生活相关的资讯平台

经过大型语料预训练的 PEGASUS 模型,该模型不需要大量的样本进行微调,就可以获得接近最先进的性能。Figure 6 展示了 PEGASUS 模型在 8 个数据集下使用不同样本数进行微调的结果。0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

Large 版只要用 100 个样本进行微调就可以得到与 Base 版在 20k 到 200k 样本上进行监督训练相近的结果。Large 版在其中的 6 个任务上以 1000 个微调样本量就超越了之前的最优结果。在只有 1000 个微调样本的情况下,在大多数任务中都比使用完整监督数据的强基线(Transformer 编码器-解码器)执行得更好,在某些情况下,强基线(Transformer 编码器-解码器)使用的是多个数量级的样本。这种“样本效率”极大地提高了文本摘要模型的有用性,因为它显著地降低了监督数据收集的规模和成本,而在摘要的情况下,监督数据收集的成本是非常昂贵的。 0Fj每天发布大量与生活相关的资讯平台

4、人工评测0Fj每天发布大量与生活相关的资讯平台

虽然使用像 ROUGE 这样的自动度量标准在模型开发过程中作为度量标准有用,但是该标准提供的信息有限,比如无法获悉文本摘要的流畅性或者与人类性能相比较结果如何。为此,本文还进行了一次人工评估,要求评分者将文本的模型摘要结果与人工摘要进行比较(不知道哪个是哪个)。这与图灵测试有一些相似之处。0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

使用 3 个不同的数据集进行了实验,发现人工评分者并不总是喜欢人工摘要,有时候也会更倾向于本文模型的摘要。特别是,在 XSum 和 CNN/Dailymail 数据集被大量研究的情况下,该模型仅使用 1000 个示例就达到了与人工摘要相媲美的结果。这表明,使用大量的监督样本不再是文本摘要所必须的了。0Fj每天发布大量与生活相关的资讯平台

50Fj每天发布大量与生活相关的资讯平台

总结0Fj每天发布大量与生活相关的资讯平台

本文提出 PEGASUS,一种基于 gap-sentences 生成的序列-序列模型,它为抽象文本摘要任务定制预训练目标 GSG。此外本文研究了数种 gap-sentence 的选择方法,确定了主句的选择是最优策略。同时证明了预训练语料库、gap-sentences 比率、词汇量所带来的影响,并设置了最佳配置以在所有 12 个下游数据集上获得最先进的结果。本文还表明,PEGASUS 模型能够非常快速地适应新的摘要数据集,仅需 1000 个样本就可以获得较好的结果。最后在多个数据集上对比本文模型摘要与人工摘要,证明本文模型在多个数据集上可以取得与人类媲美的结果。0Fj每天发布大量与生活相关的资讯平台

本文作者:刘杰鹏,毕业于华中科技大学,研究方向机器阅读理解、文本生成等。0Fj每天发布大量与生活相关的资讯平台

0Fj每天发布大量与生活相关的资讯平台

也许你还喜欢

高品质音乐下载网站有哪些

本文将探讨无损音乐的原理和方法,以及在哪里可以免费下载这种高品质的音乐。

ssd固态硬盘分区详细教程分享

最近很多朋友咨询关于如何给固态硬盘分区的问题,却不知道如何操作,现在就一起来看

photoshop去水印的方法图文步骤详

首先打开PS,打开想要去掉水印的图片

steamid怎么看?在哪里可以找到

首先大家需要设置来把URL地址栏显示出来,用鼠标点击客户端左上角的“steam按钮”,然后再

nvidia游戏优化怎么设置性能达到最

nvidia游戏优化怎么设置性能达到最佳,NVIDIA显卡设置提高游戏优化性能,NVIDIA独立显卡优

电脑怎么下载我的世界图文步骤详细

电脑怎么下载我的世界,怎么下载我的世界Minecraft Java版,正版启动器不能下载我的世界怎

steamfps怎么调出来具体操作方法图

steamfps怎么调出来,Steam如何设置游戏在右上角显示帧数,steamfps如何设置上限,steamfps

steam人机验证过不了怎么解决图文

steam人机验证过不了怎么解决,手机steam人机验证过程,steam人机验证重新登录游戏,steam人

怎么找到steam个人资料链接图文介

怎么找到steam个人资料链接,steam个人资料打不开怎么办,Steam怎么更换个人资料页的背景,s

steam登录不上去怎么解决图文教程

steam登录不上去怎么解决,steam无法登录怎么办,steam登录时出现错误代码怎么解决,steam手