Improving Low-resource Reading Comprehension via Cross-lingual Transposition Rethinking

Improving Low-resource Reading Comprehension via Cross-lingual Transposition Rethinking

论文:https://arxiv.org/abs/2107.05002

任务

解决抽取式阅读理解中低资源语言训练数据不足的问题。 通过在多语言环境中对现有的高质量提取式阅读理解数据集进行建模,提出了一个跨语言转置再思考(XLTT)模型(Cross-Lingual Transposition ReThinking)。

方法(模型)

提出了多语言适应性注意(multilingual adaptive attention MAA),将intra-attention,inter-attention结合起来,从每一对语言家族中学习更普遍的可归纳的语义和词法知识。为了充分利用现有的数据集,本文采用了一个新的训练框架,通过计算每个现有数据集和目标数据集之间的任务级相似度来训练模型。

模型结构

  • 首先,对于现有的抽取式阅读理解数据集,首先利用GNMT构建了多个语系的多语言平行语料,如(英语、日语、韩语…)。
  • 其次,利用多语言自适应注意力,在多语言环境中学习语言学相关的语义和词汇知识,以普及到低资源语言。
  • 然后,计算每个训练数据集和目标数据集之间的任务级余弦相似度(使用TF-IDF计算),以使用多个训练数据集。
image-20210818111737645

使用共享的多语言编码器,如Multi-BERT和XLM-R,对构建的多语言平行语料库进行编码,以获得上下文的向量表示。

主要贡献:

  • 提出了一种跨语言转置再思考(XLTT)的方法,在多语言背景下利用现有的大规模高质量ERC(抽取式机器阅读理解)数据集来解决低资源ERC的问题。
  • 提出了多语言适应性注意力(MAA)机制,通过结合intra-attention和inter-attention的关系,可以使抽取性RC模型从每一对语言家族中捕捉到更普遍的可归纳的语义和词汇信息,有利于推广到低资源语言。本文还提出了一个新的训练框架,通过计算每个现有训练数据集和目标数据集之间的任务级相似度来训练ERC模型。
  • 实验结果显示,本文提出的模型在2个多语言提取阅读理解基准上的表现优于6个基准,证明了多语言建模方法的有效性。

数据集

MLQA

七种语言的多向平行抽取式问题回答评估基准

TYDI QA

涵盖11种不同类型语言的QA数据集,有204K个QA对。

XQuAD

通过将实例翻译成十种语言,从240个段落中获得了1190个SQuAD v1.1 QA对的数据集。

XTREME

大规模的多语言多任务基准,用于验证和确认多语言模型的跨语言泛化能力。

性能水平&结论

MLQA数据集测试结果:

QQ20210818-195753

XQuAD数据集测试结果:

QQ20210818-195811

与之前的最佳模型相比,XLTT模型在MLQA测试集上取得了平均5.1的F1成绩和4.5的EM成绩,在XQuAD测试集上获得了平均2.7的F1成绩和3.6的EM成绩。两种多语言ERC的实验结果证明了本文提出的多语言ERC方法对对低资源语言的有效性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

没有胡子的猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值