MoCo
PPT 下载链接:https://download.csdn.net/download/bryant_meng/12015364
下载积分好像不能自己设定耶,感兴趣的可以评论私聊
附录
摘抄学习来自:一文详解图像中的无监督学习
无监督学习的概念其实很早就有了,从最初的auto-encoder,到对图像进行不同的预处理然后进行预测的无监督学习(比如旋转后预测旋转角度、mask一部分进行复原),以及到如今对比学习(simclr、moco)、特征重构(byol,simsiam)、像素重构MAE、甚至low-level的无监督预训练(IPT),可以说图像的无监督学习获得了长足的发展,而且无监督的效果已经在逐步逼近有监督的效果。
对比学习
特征重构
特征重构
像素重构
《Masked Autoencoders Are Scalable Vision Learners》(CVPR-2022)
MAE,在 ViT 的基础上做的
被 mask 的 patch,并不是用 0 填充,而是直接忽略,patch 数量的减少,直接降低计算