Pytorch实现有监督对比学习损失函数

关于对比损失

  无监督对比损失,通常视数据增强后的图像与原图像互为正例。而对于有监督对比损失来说,可以将同一batch中标签相同的视为正例,与它不同标签的视为负例。对比学习能够使得同类更近,不同类更远。有监督对比损失公式如下。

有监督对比损失数学公式

在这里插入图片描述

Pytorch实现有监督对比损失

  话不多说,直接看代码。为了更好的说明有监督对比损失的整个实现过程,以下代码没有经过系统整理,从一个例子,一步一步地计算出损失。若是理解了每一步,那系统整理应该没什么问题。

import torch
import torch.nn.functional as F




T = 0.5  #温度参数T
label = torch.tensor([1,0,1,0,1])
n = label.shape[0]  # batch

#假设我们的输入是5 * 3  5是batch,3是句向量
representations = torch.tensor([[1, 2, 3],[1.2, 2.2, 3.3],
                                [1.3, 2.3, 4.3],[1.5, 2.6, 3.9],
                                [5.1, 2.1, 3.4]])

#这步得到它的相似度矩阵
similarity_matrix = F.cosine_similarity(representations.unsqueeze(1), representations.unsqueeze(0), dim=2)
#这步得到它的label矩阵,相同label的位置为1
mask = torch.ones_like(similarity_matrix) * (label.expand(n, n).eq(label.expand(n, n).t()))

#这步得到它的不同类的矩阵,不同类的位置为1
mask_no_sim = torch.ones_like(mask) - mask

#这步产生一个对角线全为0的,其他位置为1的矩阵
mask_dui_jiao_0 = torch.ones(n ,n) - torch.eye(n, n )

#这步给相似度矩阵求exp,并且除以温度参数T
similarity_matrix = torch.exp(similarity_matrix/T)

#这步将相似度矩阵的对角线上的值全置0,因为对比损失不需要自己与自己的相似度
similarity_matrix = similarity_matrix*mask_dui_jiao_0


#这步产生了相同类别的相似度矩阵,标签相同的位置保存它们的相似度,其他位置都是0,对角线上也为0
sim = mask*similarity_matrix


#用原先的对角线为0的相似度矩阵减去相同类别的相似度矩阵就是不同类别的相似度矩阵
no_sim = similarity_matrix - sim


#把不同类别的相似度矩阵按行求和,得到的是对比损失的分母(还差一个与分子相同的那个相似度,后面会加上)
no_sim_sum = torch.sum(no_sim , dim=1)

'''
将上面的矩阵扩展一下,再转置,加到sim(也就是相同标签的矩阵上),然后再把sim矩阵与sim_num矩阵做除法。
至于为什么这么做,就是因为对比损失的分母存在一个同类别的相似度,就是分子的数据。做了除法之后,就能得到
每个标签相同的相似度与它不同标签的相似度的值,它们在一个矩阵(loss矩阵)中。
'''
no_sim_sum_expend = no_sim_sum.repeat(n, 1).T
sim_sum  = sim + no_sim_sum_expend
loss = torch.div(sim , sim_sum)


'''
由于loss矩阵中,存在0数值,那么在求-log的时候会出错。这时候,我们就将loss矩阵里面为0的地方
全部加上1,然后再去求loss矩阵的值,那么-log1 = 0 ,就是我们想要的。
'''
loss = mask_no_sim + loss + torch.eye(n, n )


#接下来就是算一个批次中的loss了
loss = -torch.log(loss)  #求-log
loss = torch.sum(torch.sum(loss, dim=1) )/(2*n)  #将所有数据都加起来除以2n

print(loss)  #0.9821
#最后一步也可以写为---建议用这个, (len(torch.nonzero(loss)))表示一个批次中样本对个数的一半
loss = torch.sum(torch.sum(loss, dim=1)) / (len(torch.nonzero(loss)))

END

  大致实现过程就是这样,如果有什么问题可以随时提出。或者有什么更好的实现方法,也欢迎共享。若你要使用该损失发文章,请引用:
  “Chen, L., Wang, F., Yang, R. et al. Representation learning from noisy user-tagged data for sentiment classification. Int. J. Mach. Learn. & Cyber. (2022). https://doi.org/10.1007/s13042-022-01622-7

  • 49
    点赞
  • 164
    收藏
    觉得还不错? 一键收藏
  • 111
    评论
监督的对比表示学习(Supervised Contrastive Learning)是一种基于对比损失函数的学习方法,它在pytorch代码中得以实现。 在这个方法中,我们有一对标注数据,例如一张图像和它对应的标签。我们希望通过训练网络,使得在特征空间中相似的样本之间的距离较小,而不相似的样本之间的距离较大。对比学习通过最大化正对比和最小化负对比来实现这一目标。 在pytorch代码中,首先需要定义一个对比损失函数。常见的对比损失函数包括ContrastiveLoss和TripletLoss。这些损失函数可以通过计算欧氏距离或余弦相似度来衡量样本之间的相似度。 接下来,我们需要构建一个神经网络模型。这个模型可以是一个卷积神经网络(Convolutional Neural Network,CNN),也可以是一个全连接神经网络(Fully Connected Neural Network,FCN),具体取决于任务的需要。 然后,我们需要将数据加载到模型中进行训练。在pytorch中,可以使用DataLoader来加载数据并进行批处理。可以使用torchvision库来加载常见的图像数据集,如MNIST、CIFAR-10等。 在训练过程中,我们将输入图像传递给网络,并计算损失函数。之后,使用反向传播算法进行优化,更新网络的权重。 最后,我们可以使用训练好的模型进行预测。将输入数据传递给网络,得到输出结果。 通过这样的过程,我们可以使用pytorch代码进行有监督的对比表示学习。这种方法可以应用于图像分类、目标检测、人脸识别等各种机器学习任务中。
评论 111
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值