对比学习MoCo损失函数infoNCE理解(附代码)

 MoCo loss计算采用的损失函数是InfoNCE: ​​

下面是MoCo的伪代码,MoCo这个loss的实现就是基于cross entropy loss。

将k作为q的正样本,因为k与q是来自同一张图像的不同视图;将queue作为q的负样本,因为queue中含有大量不同图像的视图。

在具体python代码中(在/moco/builder.py和/main_moco.py)的实现如下:

(1)首先计算正样本损失l_pos, 大小为(N, 1)。

l_pos = torch.einsum('nc,nc->n', [q, k]).unsqueeze(-1)

再计算负样本损失l_neg, 大小为(N, K)。

l_neg = torch.einsum('nc,ck->nk', [q, self.queue.clone().detach()])

(2)将l_pos和l_neg进行cat操作,并除以温度参数temperature(控制concentration level of distribution),得到logits, 大小为(N, 1+K)。

# logits: Nx(1+K)
logits = torch.cat([l_pos, l_neg], dim=1)

# apply temperature
logits /= self.T

目标是正样本都为1,负样本都为0。

(3)那么可以把logits看做分类,分成1+K个类别,期望都是第一个类别,则可以把labels设为0(为什么呢?)

# labels: positive key indicators
labels = torch.zeros(logits.shape[0], dtype=torch.long).cuda()

(4)最后函数返回,再使用nn.CrossEntropyLoss计算损失函数。

criterion = nn.CrossEntropyLoss().cuda(args.gpu)
# ...
loss = criterion(output, target)

前面提到的可以把labels设为0(为什么呢?)

我们可以结合nn.CrossEntropyLoss详解_Lucinda6的博客-CSDN博客_nn.crossentropyloss()https://www.cnblogs.com/marsggbo/p/10401215.html 理解一下。

交叉熵的计算公式为:

其中p表示真实值,在这个公式中是one-hot形式;q是预测值,在这里假设已经是经过softmax后的结果了。

下面详细分析一下nn.CrossEntropyLoss。

仔细观察上面的交叉熵的计算公式可以知道,因为p的元素不是0就是1,而且又是乘法,所以很自然地我们如果知道1所对应的index,那么就不用做其他无意义的运算了。所以在pytorch代码中target不是以one-hot形式表示的,而是直接用scalar表示。所以交叉熵的公式(m表示真实类别)可变形为:

仔细看看,是不是就是等同于log_softmaxnll_loss两个步骤。

所以Pytorch中的F.cross_entropy会自动调用上面介绍的log_softmaxnll_loss来计算交叉熵,其计算方式如下:


参考文章:

自监督学习MOCO算法解析 - 知乎

对比学习损失(InfoNCE loss)与交叉熵损失的联系,以及温度系数的作用 - 知乎

nn.CrossEntropyLoss详解_Lucinda6的博客-CSDN博客_nn.crossentropyloss()

https://www.cnblogs.com/marsggbo/p/10401215.html

nn.Softmax_harry_tea的博客-CSDN博客_nn.softmax

torch.einsum详解 - 知乎

  • 18
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
【资源说明】 基于机器学习对比学习法对MNIST数据集进行预训练和分类源码+项目说明+详细注释.zip 对比学习是一种机器学习方法,它利用训练数据中的相似和不同之处来学习分类任务。对比学习的目标是通过将相似样本归为一类、将不同样本归为另一类来学习分类决策边界。这种方法通常用于处理具有少量标注数据的问题,例如人脸识别,图像检索和自然语言处理。 ## 模型构架及训练步骤 1.加载并预处理数据集 可以使用本地的数据集,也可以在线下载(需要外网),建议直接使用本地 ```python # 指定本地路径的方法 from keras.datasets import mnist path = '你的数据集路径' (x_train, y_train), (x_test, y_test) = mnist.load_data(path) # 数据归一化处理 x_train = x_train.astype("float32") / 255.0 x_test = x_test.astype("float32") / 255.0 ``` 2.自定义DataGenerate 在这个类中锚点数据将从数据集中直接按标签取出,将锚点数据送进数据增强器,进行随机旋转、平移、剪切、缩放、翻转等方法。生成正样本。 在原有的数据集中选择标签不等于当前标签的数据作为负样本。 3.自定义损失函数 采用欧式距离计算正负样本和锚点之间的差异,并设置alpha参数作为阈值当negative样本与anchor样本的距离大于该阈值时,我们认为这样个样本是不匹配的,需要具体问题具体调整。 4.构建预训练网络模型 1>卷积层,使用32个3×3的卷积核,激活函数为ReLU。 2>池化层,使用2×2的池化窗口。 3>卷积层,使用64个3×3的卷积核,激活函数为ReLU。 4>池化层,使用2×2的池化窗口。 5>展平层,将输入的多维数据转换成以为向量。 6>全连接层,输出维度为64,激活函数是ReLU。 ```python encoder = keras.Sequential( [ layers.Conv2D(32, (3, 3), activation="relu", input_shape=input_shape), layers.MaxPooling2D((2, 2)), layers.Conv2D(64, (3, 3), activation="relu"), layers.MaxPooling2D((2, 2)), layers.Flatten(), layers.Dense(embedding_dim, activation="relu"), ], name="encoder", ) ``` 5.构建MLP模型 搭建两个全连接层,输入参数为256,输出类别数,从而实现分类。 ```python mlp_model = keras.Sequential([ layers.Dense(256, activation="relu", input_shape=(embedding_dim,)), layers.Dense(num_classes, activation="softmax") ], name="mlp_model") ``` 6.准确率 设置epochs=20,batches=128跑下来准确能够达到0.9179 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载使用,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 欢迎下载,沟通交流,互相学习,共同进步!
对比学习是一种基于相似性学习的方法,它通过比较不同样本之间的相似性来学习特征表示。SimCLR、InfoLossMOCO、BYOL都是最近几年提出的基于对比学习的预训练模型。 SimCLR是一种基于自监督学习的对比学习方法,它采用了一种新的数据增强方法,即随机应用不同的图像变换来生成不同的视图,并通过最大化同一视图下不同裁剪图像的相似性来训练模型。SimCLR在多个视觉任务上均取得了优异的表现。 InfoLoss是另一种基于自监督学习的对比学习方法,它通过最小化同一样本的不同视图之间的信息丢失来学习特征表示。InfoLoss可以通过多种数据增强方法来生成不同的视图,因此具有很强的可扩展性。 MOCO(Momentum Contrast)是一种基于动量更新的对比学习方法,它通过在动量更新的过程中维护一个动量网络来增强模型的表示能力。MOCO在自然语言处理和计算机视觉领域均取得了出色的表现。 BYOL(Bootstrap Your Own Latent)是一种基于自监督学习的对比学习方法,它通过自举机制来学习特征表示。BYOL使用当前网络预测未来的网络表示,并通过最小化预测表示与目标表示之间的距离来训练模型。BYOL在图像分类和目标检测任务上均取得了很好的表现。 总体来说,这些对比学习方法都是基于自监督学习的,它们通过比较不同样本或不同视图之间的相似性来学习特征表示,因此具有很强的可扩展性和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值