GLUE部分基准数据集介绍:RTE、MRPC、SST-2、QNLI、MNLI、QQP

自然语言处理(NLP)主要包括自然语言理解(NLU)自然语言生成(NLG)。为了让NLU任务发挥最大的作用,来自纽约大学、华盛顿大学等机构创建了一个多任务的自然语言理解基准和分析平台,也就是GLUE(General Language Understanding Evaluation)
GLUE包含九项NLU任务,语言均为英语。GLUE九项任务涉及到自然语言推断、文本蕴含、情感分析、语义相似等多个任务。像BERT、XLNet、RoBERTa、ERINE、T5等知名模型都会在此基准上进行测试。目前,大家要把预测结果上传到官方的网站上,官方会给出测试的结果。
GLUE的论文为:GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding[1]
GLUE的官网为:https://gluebenchmark.com/

GLUE共有九个任务,分别是CoLA、SST-2、MRPC、STS-B、QQP、MNLI、QNLI、RTE、WNLI。如下图图2所示,可以分为三类,分别是单句任务相似性释义任务
GLUE九大任务的描述和统计。所有任务都是单句或者句子对分类,除了STS-B是一个回归任务。MNLI有3个类别,所有其他分类任务都是2个类别。测试集中加粗的表示测试集中标签从未在公共论坛等场所展示过

RTE

RTE(The Recognizing Textual Entailment datasets,识别文本蕴含数据集),自然语言推断任务,它是将一系列的年度文本蕴含挑战赛的数据集进行整合合并而来的,包含RTE1,RTE2,RTE3,RTE5等,这些数据样本都从新闻和维基百科构建而来。将这些所有数据转换为二分类,对于三分类的数据,为了保持一致性,将中立(neutral)和矛盾(contradiction)转换为不蕴含(not entailment)。

样本个数:训练集2, 491个,开发集277个,测试集3, 000个。

任务:判断句子对是否蕴含,句子1和句子2是否互为蕴含,二分类任务。

评价准则:准确率(accuracy)。

MRPC:Microsoft Research Paraphrase Corpus

MRPC(The Microsoft Research Paraphrase Corpus,微软研究院释义语料库),相似性和释义任务,是从在线新闻源中自动抽取句子对语料库,并人工注释句子对中的句子是否在语义上等效。类别并不平衡,其中68%的正样本,所以遵循常规的做法,报告准确率(accuracy)和F1值。

A text file containing 5800 pairs of sentences which have been extracted from news sources on the web, along with human annotations indicating whether each pair captures a paraphrase/semantic equivalence relationship. Last published: March 3, 2005.
一个包含5800对句子的文本文件,这些句子是从网络上的新闻来源中提取出来的,并带有人类注释,说明每一对句子是否包含释义/语义等价关系。最后出版日期:2005年3月3日。

0代表不相似,1代表相似
本任务的数据集,包含两句话,每个样本的句子长度都非常长,且数据不均衡,正样本占比68%,负样本仅占32%。

SST-2

SST-2(The Stanford Sentiment Treebank,斯坦福情感树库),单句子分类任务,包含电影评论中的句子和它们情感的人类注释。这项任务是给定句子的情感,类别分为两类正面情感(positive,样本标签对应为1)和负面情感(negative,样本标签对应为0),并且只用句子级别的标签。也就是,本任务也是一个二分类任务,针对句子级别,分为正面和负面情感。

样本个数:训练集67, 350个,开发集873个,测试集1, 821个。
任务:情感分类,正面情感和负面情感二分类。
评价准则:accuracy。
注意到,由于句子来源于电影评论,又有它们情感的人类注释,不同于CoLA的整体偏短,有些句子很长,有些句子很短,长短并不整齐划一。

QNLI

QNLI(Qusetion-answering NLI,问答自然语言推断),自然语言推断任务。QNLI是从另一个数据集The Stanford Question Answering Dataset(斯坦福问答数据集, SQuAD 1.0)[3]转换而来的。SQuAD 1.0是有一个问题-段落对组成的问答数据集,其中段落来自维基百科,段落中的一个句子包含问题的答案。这里可以看到有个要素,来自维基百科的段落,问题,段落中的一个句子包含问题的答案。通过将问题和上下文(即维基百科段落)中的每一句话进行组合,并过滤掉词汇重叠比较低的句子对就得到了QNLI中的句子对。相比原始SQuAD任务,消除了模型选择准确答案的要求;也消除了简化的假设,即答案适中在输入中并且词汇重叠是可靠的提示。

样本个数:训练集104, 743个,开发集5, 463个,测试集5, 461个。

任务:判断问题(question)和句子(sentence,维基百科段落中的一句)是否蕴含,蕴含和不蕴含,二分类。

评价准则:准确率(accuracy)。

MNLI

MNLI(The Multi-Genre Natural Language Inference Corpus, 多类型自然语言推理数据库),自然语言推断任务,是通过众包方式对句子对进行文本蕴含标注的集合。给定前提(premise)语句和假设(hypothesis)语句,任务是预测前提语句是否包含假设(蕴含, entailment),与假设矛盾(矛盾,contradiction)或者两者都不(中立,neutral)。前提语句是从数十种不同来源收集的,包括转录的语音,小说和政府报告。

样本个数:训练集392, 702个,开发集dev-matched 9, 815个,开发集dev-mismatched9, 832个,测试集test-matched 9, 796个,测试集test-dismatched9, 847个。因为MNLI是集合了许多不同领域风格的文本,所以又分为了matched和mismatched两个版本的数据集,matched指的是训练集和测试集的数据来源一致,mismached指的是训练集和测试集来源不一致。

任务:句子对,一个前提,一个是假设。前提和假设的关系有三种情况:蕴含(entailment),矛盾(contradiction),中立(neutral)。句子对三分类问题。

评价准则:matched accuracy/mismatched accuracy。
总体训练集很充足,GLUE论文作者使用并推荐SNLI数据集作为辅助训练数据。

QQP

QQP(The Quora Question Pairs, Quora问题对数集),相似性和释义任务,是社区问答网站Quora中问题对的集合。任务是确定一对问题在语义上是否等效。与MRPC一样,QQP也是正负样本不均衡的,不同是的QQP负样本占63%,正样本是37%,所以我们也是报告准确率和F1值。我们使用标准测试集,为此我们从作者那里获得了专用标签。我们观察到测试集与训练集分布不同。

样本个数:训练集363, 870个,开发集40, 431个,测试集390, 965个。
任务:判定句子对是否等效,等效、不等效两种情况,二分类任务。
评价准则:准确率(accuracy)和F1值。
类似于MRPC,句子对的释义问题。这里突出的除了样本不均衡、训练集测试集分布不一致外,还有这个训练集、测试集都非常大。这里的测试集比其他训练集都要多好几倍。

Ref:

  1. https://www.microsoft.com/en-us/download/details.aspx?id=52398
  2. https://zhuanlan.zhihu.com/p/86609035
  3. GLUE基准数据集介绍及下载 https://zhuanlan.zhihu.com/p/135283598
  • 22
    点赞
  • 78
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: GLUE(General Language Understanding Evaluation)任务数据集是一个被广泛应用于自然语言处理(NLP)任务评估的标准数据集。它由来自9个不同任务的多个数据集组成,包括情感分类、自然语言推理、命名实体识别等任务。GLUE任务数据集的格式一般如下: 1. 训练集(Training set):用于训练模型的数据集。通常包含大量的语言样本,包括输入句子及其对应的标签或目标。 2. 验证集(Validation set):用于在训练过程中评估模型性能的数据集。通常由从训练集中划分出的一部分样本组成,不参与训练过程,用于调整模型的超参数或进行早期停止等。 3. 测试集(Test set):用于最终评估模型性能的数据集。通常由不参与模型训练和验证的样本组成。在完成模型训练和调参后,使用测试集对模型进行评估,以了解模型的泛化能力和性能。 对于每个任务,GLUE数据集一般包括输入句子或文本数据,以及对应的标签或目标。例如,对于情感分类任务,输入句子是一个句子或文本段落,标签是该文本的情感类别,如正面、负面或中性。 在进行实验或研究时,我们可以使用GLUE数据集进行模型训练、验证和测试,以评估模型在各种NLP任务上的效果。通过对不同任务之间的性能进行比较,可以帮助我们了解和改进模型在不同语义理解任务上的表现,并推动NLP研究和应用的发展。 ### 回答2: GLUE是指General Language Understanding Evaluation,在自然语言处理领域广泛使用的一个基准任务。GLUE任务数据集格式指的是参与GLUE任务的数据集的数据格式要求。 GLUE任务数据集的格式要求如下: 1. 数据集应具有统一的标注格式:数据集中的语料需要按照一致的格式进行标注,以保证不同任务之间的可比性。 2. 输入格式要求:对于多项选择问题的任务,输入数据集应以问题和选项的形式提供。对于分类任务,输入数据集应以文本对或者单个句子的形式提供。 3. 标签格式要求:数据集中每个样本都应标注有相应的标签,用于指示样本所属的类别或是正确的答案。 4. 样本分割要求:数据集应以训练集、开发集和测试集的形式划分,并按照一定比例划分样本。常见的划分比例是70%的训练集、10%的开发集和20%的测试集。 5. 数据集质量要求:数据集应具有高质量的标注和丰富的样本。标注应准确无误,样本应能够涵盖各种语言结构和语义。 6. 数据集大小要求:数据集的规模应足够大,以确保模型能够充分学习和泛化。通常来说,数据集的大小应在几千到几百万条之间。 总之,GLUE任务数据集格式要求数据集的标注、格式、分割和质量都要符合一定的标准,以保证不同任务之间的可比性和模型的准确性和泛化性。 ### 回答3: GLUE(General Language Understanding Evaluation)任务数据集是一个广泛使用的自然语言处理数据集,旨在评估和比较不同模型在各种语言理解任务上的性能。它包含了9个不同的任务,包括自然语言推断、句子对匹配、情感分类等。 GLUE任务数据集的格式可以分为输入和输出两个部分。输入部分通常由两个文本序列组成,例如问题和答案、句子1和句子2等。而输出部分通常是一个标签,表示对应的任务类别。不同的任务可能有不同的标签集,例如True/False表示推断任务中的正确与错误,Positive/Negative表示情感分类任务中的积极与消极等。 在处理GLUE任务数据集时,我们通常需要使用机器学习模型来学习输入文本序列之间的关系,并进行相应的分类、匹配或预测。模型可以利用双向Transformer架构等深度学习方法来提取输入文本的语义信息,并通过训练来优化模型参数。 为了评估模型在GLUE任务数据集上的性能,我们可以使用各种评估指标,例如准确率、精确率、召回率、F1分数等。这些指标可以帮助我们比较不同模型的表现,并选择最优的模型进行进一步应用和研究。 总而言之,GLUE任务数据集提供了一个标准的、多样化的自然语言理解评估平台,帮助研究人员和开发者进行模型的训练和性能比较。通过合理利用这些数据集和方法,我们可以不断推动自然语言处理技术的发展。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

真·skysys

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值