深度学习(自监督:BYOL)——Bootstrap Your Own Latent A New Approach to Self-Supervised Learning

前言

该文章为deepmind团队出品,目前挂在arxiv上,并没有查到相应的发表记录。

该文章主要解决对比学习中,只存在正例时出现的模型奔溃解问题,即不论输入是什么,模型的输出都是一个常数。

即使只有正例,BYOL仍然达到了SOTA水平,如下图:
在这里插入图片描述
这表明在对比学习中,负例不一定需要存在。个人认为负例可以避免奔溃解,但是对于高性能的自监督模型而言不是必须的,例如BYOL。

同时相比于使用负例的对比学习算法(例如SimCLR),不使用负例的对比学习算法通常对于batch size大小不敏感,如下图所示
在这里插入图片描述
个人认为对于使用负例的对比学习算法而言,batch_size会影响对比学习中的负例个数,从而影响模型性能,不是很清楚为什么会有这种性质。

本文将对BYOL做一个简答介绍,同时记录一些个人思考。


BYOL简述

在这里插入图片描述
上图为BYOL的模型结构,BYOL存在target和online两个网络,具体处理流程为

  • 对输入数据x施加不同的数据增强,得到 t 、 t ′ t、t' tt
  • t t t输入到online网络的特征提取器 f θ f_\theta fθ中提取特征,得到特征向量 y θ y_\theta yθ,将 t ′ t' t输入到target网络的特征提取器 f ξ f_\xi fξ中提取特征,得到特征向量 y ξ ′ y_\xi' yξ
  • y θ y_\theta yθ经过一个MLP网络 g θ g_\theta gθ处理,得到 z θ z_\theta zθ y ξ ′ y_\xi' yξ经过一个MLP网络 g ξ g_\xi gξ处理,得到 z ξ ′ z_\xi' zξ
  • z θ z_\theta zθ经过一个MLP网络 q θ q_\theta qθ处理,得到 q θ ( z θ ) q_\theta(z_\theta) qθ(zθ),与 z ξ ′ z_\xi' zξ计算对比学习loss

对比学习loss为
在这里插入图片描述
当online与target模型输出固定且相等时,上述loss取值为0,可见奔溃解存在于解空间中

上述对比学习loss的梯度只会反向传播给online网络,不会反向传播给target网络,类似于MoCo,target网络使用动量更新,即
在这里插入图片描述
target网络的更新方式具体可见我的前篇博客链接,在此不赘述。


个人思考

在解空间中仍然存在奔溃解,为什么BYOL可以避免奔溃解?

BYOL的方式更像是trick,减少了找到奔溃解的可能。Target网络采用动量方式更新,更新后并不一定会使损失函数变小,使得模型找到损失函数最小值的可能性变小,即找到奔溃解的可能性变小。原文中有一些数学上的解释,但我不怎么认可。


实验

实验部分截取一些比较有意思的结果,详细请浏览原文
在这里插入图片描述
上图给出动量更新超参数 T T T对模型性能(自监督预训练完,在ImageNet1000上的top-1线性分类准确率)的影响,注意到当 T = 1 T=1 T=1时,target网络不会更新,即使如此,模型依然具有18.8%的准确率。

BYOL对颜色相关的数据增强没有SimCLR敏感,如下图
在这里插入图片描述
不过也可以看出,颜色相关的数据增强对自监督模型性能影响很大。

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
监督对比学习是一种用于训练深度神经网络的自监督学习方法,它在没有标签的大规模未标记数据上进行训练。该方法通过使模型学习将相似样本聚集在一起,将不相似样本分开来,从而学习到有用的特征表示。 以下是几种常见的无监督对比学习方法: 1. MoCo(Momentum Contrast):MoCo是一种基于对比学习的方法,它使用了动量更新策略来增强对比学习的性能。它通过构建一个动态的字典来扩展正样本的数量,并使用动量更新策略来提高特征的一致性。 2. SimCLR(Simple Contrastive Learning):SimCLR是一种简单而有效的对比学习方法,它通过最大化正样本间的相似性并最小化负样本间的相似性来进行训练。SimCLR使用了数据增强和大批量训练等技术来提高性能。 3. SwAV(Swapping Assignments between Views):SwAV是一种基于视图交换的对比学习方法,它通过交换不同视图下的样本分配来增强对比学习过程。SwAV还使用了聚类损失来进一步优化特征表示。 4. BYOLBootstrap Your Own Latent):BYOL是一种基于自举的对比学习方法,它通过预测一个网络的自我编码器输出来进行训练。BYOL使用了移动平均权重和在线网络更新等技术来提高性能。 5. SimSiam(Simplified Siamese):SimSiam是一种简化的孪生网络对比学习方法,它通过最大化网络预测的一致性来进行训练。相比于传统的对比学习方法,SimSiam省略了负样本的构造过程,简化了训练过程。 这些无监督对比学习方法在图像和自然语言处理等领域都取得了很好的效果,并且被广泛应用于预训练模型的训练中。每种方法都有其独特的特点和优势,可以根据具体任务和数据集选择适合的方法进行使用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值