21-22年顶会中对比学习-3

该研究将对比学习引入机器翻译,通过构建统一的多语言翻译模型,利用对比学习缩小不同语言间表示的差距,提升翻译质量。模型基于Transformer结构,结合数据增强策略,如同义词替换,以生成正负样本。实验在多种数据集上验证了方法的有效性,并进行了ablationstudies分析不同组件的影响。
摘要由CSDN通过智能技术生成

目录

一、specific中的对比学习

1.1 机器翻译中的对比学习——Contrastive Learning for Many-to-many Multilingual Neural Machine Translation

(1)研究出发点

(2)研究任务

(3)研究创新点

(4)测评任务

(5)ablation studys

(6)总结与反思

1.2 摘要生成中的对比学习

1.3 主题检测中的对比学习

1.4 文本蕴含关系中的对比学习

二、representation中的对比学习


一、specific中的对比学习

1.1 机器翻译中的对比学习——Contrastive Learning for Many-to-many Multilingual Neural Machine Translation

(1)研究出发点

直观认为《统一的跨语言表示能够引导模型实现更好的多语言转换表现——better multilingual transformation performance》

还有一个矛盾点:有些语言是资源丰富的,但是有些语言的数据资源很匮乏,但是对于这一点,论文中好像并没有太突出怎么解决的。——>bing 的回答是:通过对比学习,鼓励不同语言中具有相似语义的句子进行相似表示的技术,来利用某些语言的丰富资源提高其他语言的翻译质量。

根据这一点,论文提出了 a single unified multilingual translation model.

这个模型是由两部分组成,一部分是对比学习(constrastive learning),一部分是数据增强手段 (data argumentation)

(2)研究任务

Our key insight is to close the representation gap between different languages to encourage transfer learning as much as possible

模型架构如下:

模型架构是用于多语言翻译的对比学习框架(multilingual contrastive learning framework)

模型目标:

类似于对比学习的目标,是让表达相同语义的sentences在语义空间中更接近。

模型损失函数:

两个loss函数,一个是Lctr ,是作为了对比学习的损失函数;一个是交叉熵损失函数,是作为decoder的重构函数。

论文找那个的对比学习的损失函数,给出的key idea是:
The key idea of contrastive learning is to minimize the representation gap of similar sentences and maximize that of irrelevant sentences.

 句子的表示使用的是average pooling得到的语义表示。

从公式中,还可以看到有一个参数是temperature,它是一个参数,为了控制区别positive 和 negative examples的难度设置的。

还需要考虑是对比学习中正负例的构建方式,正例一般是语义相同的不同语言的sentences构成的pairs,而负例是从相同training batch中选择的,作为了负例。

模型训练的损失函数是由对比学习的损失函数(句子level)和交叉熵损失函数(token level)在组合这两个损失函数时,考虑了对比学习的损失函数的权重。——这里是根据实验得到的结果吗?权重项是怎么考虑的?

论文中给的cross_entropy 函数如下:

这个损失函数是用在并行数据集上,也就是有相同语义的但是是不同语言的数据集上,如下图所示,encoder中可能输入的english文本,decoder中可能输出就是法语文本了,是一种语言的文本到另一种语言文本的重建过程。

模型编码器选择是transformer结构,是由12个layer的encoder和12个layer的decoder构成。dimension设置为1024,共有16个heads。在transformer训练上,为了简化训练过程,考虑了使用layer normalization 和 residual connection。

 数据增强的策略

通过替换同义词词典中具有相同含义的词,实现了平行和单语数据。

下图中,左侧是单语的平行数据。右侧是多语的平行数据。

For every word contained in the synonym dictionary, we randomly replace it to one of its synonym with a probability of 90%

(3)研究创新点


1、大概应该是第一个将对比学习用到机器翻译领域的。提出了怎么使用对比学习的key idea提高多语机器翻译的效果或者模型性能。

2、在使用对比学习时,正负例策略的构建方案。这篇文章提出的使用同义词词典替换的方法,创建了正负实例。

(4)测评任务

实验数据集:

training过程中的数据集:

1、并行数据集PC32——以英文为主的语料集

2、多语言数据集MC24——增添了三种新的语言,之前没有出现在PC32中的。

evaluation过程中的数据集:

1、zero-shot direction:OPUS-100 zero-shot testset. The testset is comprised of 6 languages (Ru, De, Fr, Nl, Ar, Zh), resulting in 15 language pairs and 30 translation directions.

(5)ablation studys

1、The batch size的影响

2、contrastive loss的影响

(6)总结与反思

我觉得这篇文章用在了翻译任务中,把对比学习和机器翻译做了很多的集合或者融洽,对比学习的核心思想永远不会变,就是让更接近的语义在空间中更近,让相反的语义在空间中更远。

但是怎么和自己的领域任务更好的结合,是需要思考,也是需要实验来不断检验和修正的过程。

1.2 摘要生成中的对比学习

1.3 主题检测中的对比学习

1.4 文本蕴含关系中的对比学习

二、representation中的对比学习

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值