对比学习论文-系列4

MedCLIP: Contrastive Learning from Unpaired Medical Images and Text

目标

match the image and text

问题来源

For an anchor image, previous methods treat paired texts (i.e., reports from the same patient’s
study) as positives and unpaired texts (i.e., reports from other patients’ studies) as negatives. However, the negative
texts can describe the same symptoms as the anchor texts
解决方式: a soft semantic matching loss that uses the medical semantic similarity between each image and report as the supervision signal

模型架构

knowledge extractor module:从文本中抽取实体
Semantic similarity matrixs:通过比较医学实体(来自文本)和原始标签(来自图像)来建立语义相似性矩阵,这使得任意两个单独采样的图像和文本能够配对。
Predicted similarity matrix: 预测相似值

损失函数:semantic matching loss

在这里插入图片描述在这里插入图片描述

在这里插入图片描述

Supervised Prototypical Contrastive Learning for Emotion Recognition in Conversation

在每个训练步骤中,SPCL从这些队列中抽取一定数量的表征作为支持集,并为每个情感类别计算一个临时原型向量。这些原型向量被用作相应类别的样本来计算损失。SPCL确保每个样本至少有一个相同类别的阳性样本和一个小批量内所有其他类别的阴性样本。实验表明,SPCL可以在类别不平衡的情况下很好地工作,并且对训练批次的大小不太敏感。

Prototypical Contrastive Learning

正常的contrastive loss:P表示positive pairs,N表示negtive pairs
G(zi, zj ) is a score function that can be dot production, cosine similarity, etc.
在这里插入图片描述
prototypical contrastive learning:
计算得到每个class的元表示后,作为一个example,用于计算batch中的真实example和这个类型的元表示之间的距离。(红色线标出部分)
更新之后的loss函数如下:

在这里插入图片描述

Curriculum Strategy:

(1)数据难度衡量:主要根据数据(sample) 距离每个class中心的距离来判断数据的难度。
在每个epoch中,先计算class center的位置:
在这里插入图片描述在这里插入图片描述

(2)数据选择:我们设计了一种基于抽样的方法来构建一系列从易到难的数据子集。让R作为训练历时的数量,为了在第k个历时训练模型,我们首先生成一个长度为L的等差数列,其中a1=1-k/R,aL=k/R。然后,我们用a初始化一个伯努利分布,并从中抽取一个二进制随机数组RB。我们用B从当前历时的训练集中抽取一个子集Dsub-k,其中Dsub-k≡{xi∈Dtrain|RBi = 1}。

KECP: Knowledge Enhanced Contrastive Prompting for Few-shot Extractive Question Answering

目标

给出query,从文本得到answer所在的index。predict the start and the end positions
of the answer span

给定一个段落和一个查询,我们首先通过启发式规则(①)构建查询提示。接下来,我们从段落文本和外部知识库中获取知识,以加强对所选提示标记的表述(②③)。为了提高答案预测的准确性,我们对语义相似和混乱的负面跨度文本进行采样(④),并通过对比学习来训练模型(⑤)。在推理阶段,答案跨度文本可由MLM和无模型前缀树解码器⑥生成。(最好以彩色观看)
在这里插入图片描述
Input: We concatenate the query prompt Qprompt and the passage text P with some special tokens as input x input
在这里插入图片描述
span 预测: 我们首先通过滑动窗口获得一系列的跨度文本

在这里插入图片描述

Fine-grained Contrastive Learning for Relation Extraction

目标

在distant supervised RE中,部分label是错误的。
首先评估所有远距离监督的训练实例的噪声水平,然后将这种细粒度的信息纳入对比性预训练中。噪声较小或干净的训练实例相对于噪声训练实例的权重更高。 然后,我们在黄金标记的数据上对模型进行微调

我们利用学习顺序去噪 ( learning-order denoising)来改善预训练期间学到的关系表征,方法是将每个关系实例的权重与该实例的学习顺序进行线性投影。我们对训练中较早学到的关系实例适用较高的权重,而对训练中较晚学到的关系实例则适用较高的权重 (较早学习到的实例的真实性高于较晚学习到的实例的真实性)。我们使用这些权重来通知一个对比性学习损失函数,该函数学习将相似关系的实例分组。

在这里插入图片描述

模型

(1) learning order denoising
训练一个PLM,使用多类交叉熵损失来预测关系类。

在这里插入图片描述

在训练过程中,我们记录了训练实例的学习顺序。在最初的正确预测中,我们认为一个实例是 "学会 "的learned。同样,如果模型在训练期间未能正确预测一个实例,则该实例为 “未学” “not learned”。

应该是通过这个过程记录了instance的order,作为了后续contrastive learning的权重值。

关系的representation:
在这里插入图片描述

entity level的contrastive learning:
在这里插入图片描述
relation level的contrastive learning: distinguish whether two relations are semantically similar

assign higher weights to earlier learned instances from the learning order denoising stage

在这里插入图片描述

Debiased Contrastive Learning of Unsupervised Sentence Representations

DCLR 聚焦于减少句表示对比学习中负采样偏差的影响。在这个框架中,我们设计了一种基于噪声的负例生成策略和一种惩罚假负例的实例加权方法

在这里插入图片描述
负例生成
在这里插入图片描述
带有实例加权的负例学习

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
我们开发了一种通过通信进行信息交换的模型,并研究其对大型社会中信息聚合的影响。 底层状态决定了不同行为的回报。 代理决定哪些其他人形成昂贵的通信链接,并产生相关成本。 在接收到与底层状态相关的私有信号后,他们通过诱导通信网络交换信息,直到采取(不可逆的)行动。 我们将渐进学习定义为随着社会变大,采取正确行动的智能体在概率上收敛的比例。 在真实通信下,我们表明,如果(并且在某些附加条件下,也仅当)在诱导通信网络中,大多数代理距离接收和分发大量信息的“信息中心”不远,就会发生渐进学习。 因此,渐近学习需要将信息汇总到少数代理手中。 我们还表明,虽然真实的交流可能并不总是最好的React,但当交流网络诱导渐进学习时,它是一种平衡。 此外,我们将均衡行为与社会最优策略配置文件进行对比,即最大化总福利的配置文件。 我们表明,当网络诱导渐近学习时,均衡行为会导致最大的总福利,但当渐近学习不发生时,情况可能并非如此。 然后,我们系统地调查了哪些类型的成本结构和相关的社会集团(由以零成本相互联系的个人群体组成,例如友谊网络)确保导致渐进学习的通信网络的出现。 我们的结果表明,拥有过多和足够大的社会派系的社会不会诱导渐进学习,因为每个社会派系本身都会有足够的信息,这使得与他人的交流相对没有吸引力。 如果社会派系既不太多也不太大,则渐近学习结果,在这种情况下,鼓励跨派系交流。 NBER 工作论文系列的机构订阅者和发展中国家的居民可以在 www.nber.org 上免费下载该论文.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值