自然语言处理(NLP)各任务最新研究进展,包括数据集和优秀论文

本文概述了自然语言处理领域的最新研究进展,包括Common Sense知识推理任务如Event2Mind、SWAG和Winograd Schema Challenge,句法解析的Penn Treebank,多任务学习的DecaNLP和GLUE基准。这些数据集和任务旨在推动模型在理解、推理和适应各种自然语言场景方面的能力。
摘要由CSDN通过智能技术生成

整理NLP-Progress上的东西。

目录

English

Common Sense 知识推理

Event2Mind

SWAG

Winograd Schema Challenge

Constituency parsing

Penn Treebank


English

Common Sense 知识推理

Common sense reasoning tasks are intended to require the model to go beyond pattern recognition. Instead, the model should use “common sense” or world knowledge to make inferences.

常识推理任务旨在要求模型超越模式识别。 相反,知识推理模型应该使用“常识”或世界知识来做出推论。

Event2Mind

Event2Mind is a crowdsourced corpus of 25,000 event phrases covering a diverse range of everyday events and situations. Given an event described in a short free-form text, a model should reason about the likely intents and reactions of the event’s participants. Models are evaluated based on average cross-entropy (lower is better).

Event2Mind是一个包含25,000个活动短语的众包语料库,涵盖各种日常事件和情境。 鉴于在简短的自由格式文本中描述的事件,模型应该推断事件的参与者可能的意图和反应。 基于平均交叉熵评估模型(越低越好)。

Model Dev Test Paper / Source Code
BiRNN 100d (Rashkin et al., 2018) 4.25 4.22 Event2Mind: Commonsense Inference on Events, Intents, and Reactions  
ConvNet (Rashkin et al., 2018) 4.44 4.40 Event2Mind: Commonsense Inference on Events, Intents, and Reactions  

SWAG

Situations with Adversarial Generations (SWAG) is a dataset consisting of 113k multiple choice questions about a rich spectrum of grounded situations.

Situations with Adversarial Generations(SWAG)是一个由113k多项选择问题组成的数据集,这些问题涉及丰富的基础情境。

Model Dev Test Paper / Source Code
BERT Large (Devlin et al., 2018) 86.6 86.3 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding  
BERT Base (Devlin et al., 2018) 81.6 -
  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值