BERT破的11项纪录具体都是什么?

百度也百度不到,自己看论文归纳了一下,有问题可以指出:

1.  MultiNLI(multi-genre natural language inference,文本蕴含识别)

     文本间的推理关系,又称为文本蕴含关系。样本都是文本对,第一个文本M作为前提,如果能够从文本M推理出第二个文本N,即可说M蕴含N,M->N。两个文本关系一共有三种entailment(蕴含)、contradiction(矛盾)、neutral(中立)

2.   QQP(quora question pairs,文本匹配)

     判断两个问题是不是同一个意思,即是不是等价的。属于分类任务

 3.   QNLI(question natural language inference,自然语言问题推理)

     是一个二分类任务。正样本为(question,sentence),包含正确的answer;负样本为(question,sentence),不包含正确的answer。

4.    SST-2(the stanford sentiment treebank,斯坦福情感分类树) 

      分类任务。

5.    CoLA(the corpus of linguistic acceptability,语言可接受性语料库) 

      分类任务,预测一个句子是否是acceptable。

6.     STS-B(the semantic textual similarity benchmark,语义文本相似度数据集) 

      样本为文本对,分数为1-5,用来评判两个文本语义信息的相似度。

7.     MRPC(microsoft research paraphrase corpus,微软研究释义语料库)

      样本为文本对,判断两个文本对语音信息是否是等价的 

8.      RTE(recognizing textual entailment,识别文本蕴含关系)  

      与MNLI相似,只不过数据集更少

9.      WNLI(winograd NLI,自然语言推理)

      小的数据集 

10.   SQuAD(the standFord question answering dataset,斯坦福问答数据集) 

      question,从phrase中选取answer。

11.   NER(named entity recognition,命名实体识别) 

12.   SWAG(the situations with adversarial generations dataset,) 

  • 8
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值