FewRel 2.0数据集:以近知远,以一知万,少次学习新挑战

FewRel 2.0是清华大学刘知远团队发布的少次学习关系抽取数据集的升级版,提出了跨领域和“以上都不是”的新挑战。该数据集旨在推动模型在有限样本下适应新任务的能力,对于少次学习模型提出了更高的要求。相较于FewRel 1.0,2.0在跨领域任务上的表现更具挑战性,为研究者提供了进一步探索的空间。
摘要由CSDN通过智能技术生成

640

大家都知道,传统的机器学习模型需要较大的训练数据才能达到好的效果。然而我们人类从小时候起,就有看少量例子学会新事物的能力。少次学习(Few-Shot Learning)正是致力于探索模型如何能快速适应新任务的一种方式。 

有一类经典的少次学习设定叫做 N-Way K-Shot:给定 N 个模型从未见过的类型,每个类型给定 K 个训练样本,要求模型能够将测试样例进行 N 分类。形象地说,这种设定要求模型“现学现卖”,先看几个例子,然后在测试集上做“选择题”,判断它们到底属于新类型中的哪一类。

640?wx_fmt=png

在 CV 领域,常用的少次学习数据集有 miniImageNet 和 Omniglot。而在 NLP 领域,清华大学的刘知远老师组去年发布了 FewRel——一个大规模的少次学习关系抽取数据集。该数据集仅发布一年便获得了多次引用,也有许多研究者以此为基础展开相关研究。 

而在今年的 EMNLP 上,该团队又发布了数据集的升级版:FewRel 2.0。相关论文已经放出(https://arxiv.org/abs/1910.07124)。和 1.0 相比,FewRel 2.0 又有哪些区别呢?

640?wx_fmt=png


两大新挑战

在 FewRel 2.0 中,作者提出了两大少次学习新挑战:跨领域和“以上都不是”(无答案问题)。作者表示,以往的少次学习模型都不能很好的解决这两大问题,虽然他们提出了两个新模型,效果得到了一定的改善,但在这两个挑战上,仍有巨大的上升空间。

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值