使用MindStudio进行xlm模型训练

详情请点击:使用MindStudio进行xlm模型训练 - 知乎

本文显示,大规模预训练多语言的预训练导致了在广泛的跨语言转换任务中获得显著的 性能提升。作者在一百种语言上训练了一个基于 Transformer 的屏蔽式语言模型,使用超过 2TB 的CommonCrawl 过滤数据,对一百种语言进行了训练。该模型被称为 XLM-R,在多语种的 BERT

(mBERT)在各种跨语言的我们的模型被称为 XLM-R,在各种跨语言的基准测试中,XLM-R 明显优于多语言 BERT(mBERT),包括在 XNLI 上的平均准确率+14.6%,在 MLQA 上的平均 F1 得分+13%,以及+2.6%。MLQA 上+13%的平均 F1 得分,以及 NER 上+2.4%的 F1  得分。XLM-R、在低资源语言上的表现特别好,在 XNLI 上提高了 15.7%的准确率。与以前的模型相比,斯瓦希里语的 XNLI 准确率提高了 15.7%,乌尔都语提高了 11.4%。作者还提出了一个详细的关键因素的详细实证分析。实现这些收益所需的关键因素,包括

    1. 正向转移和容量稀释之间的权衡

    1. 高资源和低资源语言在规模上的表现。

最后,作者首次展示了在不牺牲单位面积的情况下进行多语言建模的可能性。

XLM-R 在 GLUE 和 XNLI 基准上与强大的单语言模型相比非常有竞争力。在 GLUE 和 XNLI  基准测试中,XLM-R 与强大的单语言模型相比具有很强的竞争力。代码公开在https://github.com/facebookresearch。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值