bert可以做哪些nlp任务

读了bert的论文大概知道bert可以做下面几个事情:

一、bert能做的任务

一、文本分类

二、序列标注任务,比如分词 实体识别 词性标注

三、句子关系判断 比如QA,自然语言推理

二、bert不能做的任务

不能做的事情
一、机器翻译

三、bert刷新的11个记录

. MultiNLI(multi-genre natural language inference,文本蕴含识别)

 文本间的推理关系,又称为文本蕴含关系。样本都是文本对,第一个文本M作为前提,如果能够从文本M推理出第二个文本N,即可说M蕴含N,M->N。两个文本关系一共有三种entailment(蕴含)、contradiction(矛盾)、neutral(中立)
  1. QQP(quora question pairs,文本匹配)

    判断两个问题是不是同一个意思,即是不是等价的。属于分类任务

  2. QNLI(question natural language inference,自然语言问题推理)

 是一个二分类任务。正样本为(question,sentence),包含正确的answer;负样本为(question,sentence),不包含正确的answer。
  1. SST-2(the stanford sentiment treebank,斯坦福情感分类树)

    分类任务。

  2. CoLA(the corpus of linguistic acceptability,语言可接受性语料库)

    分类任务,预测一个句子是否是acceptable。

  3. STS-B(the semantic textual similarity benchmark,语义文本相似度数据集) 
    

    样本为文本对,分数为1-5,用来评判两个文本语义信息的相似度。

  4. MRPC(microsoft research paraphrase corpus,微软研究释义语料库)
    

    样本为文本对,判断两个文本对语音信息是否是等价的

  5.  RTE(recognizing textual entailment,识别文本蕴含关系)  
    

    与MNLI相似,只不过数据集更少

  6.  WNLI(winograd NLI,自然语言推理)
    

    小的数据集

  7. SQuAD(the standFord question answering dataset,斯坦福问答数据集)

    question,从phrase中选取answer。

  8. NER(named entity recognition,命名实体识别)

  9. SWAG(the situations with adversarial generations dataset,)

  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值