XTREME榜单第一,多粒度对齐的多语言预训练模型VECO 2.0

VECO 2.0是阿里巴巴达摩院的多语言预训练模型,通过多粒度对比学习任务实现跨语言统一表示。它在XTREME榜单上取得第一,解决了先前模型在语义对齐和同义词利用上的不足,涵盖109种语言,规模扩展到xlarge。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

7d84b9945e8ade2bb576493e827dfd65.gif

373655d000b38e79fadc173fde7e7bca.png

引言

预训练语言模型在各种 NLP 下游任务中发挥着重要作用,目前语言模型已经逐渐从单语扩展到多语言,并且已经证明了其在跨语言 NLP 任务上的优越性能。

目前多语言预训练模型的训练数据主要有两种,一种是每种语言的单语数据,另一种是互为翻译的双语平行数据。为了在同一语义空间构建不同语言的表示,之前的工作主要集中在两个预训练任务上:Multilingual Masked Language Model(MMLM)和 Translation Language Model(TLM),分别对应单语和双语数据的预训练任务。

MMLM 是 Masked Language Model(MLM)的多语言版本,在共享语义空间中对每种语言分别建模;TLM 则对拼接后的双语语料进行 MLM 任务,通过 self-attention 机制隐式地捕捉双语语料之

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值