论文不详细解读(一)——MoCo系列

MoCo系列介绍了自监督学习中的对比学习方法,通过MoCov1、v2和v3的演进,探讨了负样本队列、动量更新和训练稳定性对模型性能的影响。MoCov3在ViT上的应用突显了训练不稳定性问题,提出了冻结第一层参数以提高训练稳定性的策略。
摘要由CSDN通过智能技术生成

引言:
自监督发展时间线
在这里插入图片描述
图来自:https://zhuanlan.zhihu.com/p/381354026

1. MoCo v1

论文名称: Momentum Contrast for Unsupervised Visual Representation Learning

开源地址https://github.com/facebookresearch/moco
大佬详细解读:https://zhuanlan.zhihu.com/p/382763210

motivation

原始的端到端自监督方法:
给定样本 x q x_q xq,数据增强得到正样本 x k x_k xk,batch内的其余样本作为负样本

原始样本 x q x_q xq输入到Encoder f q f_q fq中,正样本和负样本均输入到Encoder f k f_k fk中,通过Contrastive loss来更新2个Encoder f q f_q fq f k f_k fk的参数

Contrastive loss一般为InfoNCE:
在这里插入图片描述
【插入一个参考资料:对比学习损失(InfoNCE loss)与交叉熵损失的联系,以及温度系数的作用

毫无疑问,batch size 越大效果越好,但是受显存影响(2个encoder的全量数据都用于更新两个encoder的参数),batchsize不能设置过大,如何获得更多的负样本?

MoCo v1之前的做法:
正样本的生成方式不变(数据增强),采用一个较大的memory bank 用来存储负样本,每次训练从中采样一批负样本出来 k s a m p l e k_{sample} ksample,loss只更新Encoder f q f_q fq 的参数,和几个采样的 k s a m p l e k_{sample} ksample

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值