自监督学习系列(2) SimSiam: Exploring Simple Siamese Representation Learning

目录

首先还是论文的相关信息

主要思想

讨论

结果

Comparisons on ImageNet linear classification

Transfer Learning

Reference


首先还是论文的相关信息

Paper:Exploring Simple Siamese Representation Learning

地址:https://arxiv.org/abs/2011.10566

主要思想

SimSiam用一句话描述:就是没有momentum encoder的BYOL(水了一篇博客偷笑!)

 Loss:

SimSiam的架构与BYOL一样也是三个阶段的架构。

       将图像经过转换后通过两个相同网络,再过小网络Projection,最后进行预测。与BYOL不同之

处在于SimSiam并没有两组的网络参数,同一个网络对于不同的输入用不同的Projection进行测所

以更新参数时,都只计算预测的gradient。

附:作者提供的伪代码

讨论

        我们的假设是SimSiam是一种类似于期望最大化(EM)算法的实现。它隐式地涉及两组变量,

并解决两个潜在的子问题。停止梯度的存在是引入额外的一组变量的结果。F是由θ参数化的网

络。T是增广。X是一幅图像。期望E[·]大于图像和增强的分布。为了便于分析,这里我们使用均方

误差,如果向量是L2归一化的,它等价于余弦相似度。

结果

Comparisons on ImageNet linear classification

   SimSiam并不是效果最好的,但是是所有列出的自监督学习方法中最简单、最容易实现的。

Transfer Learning

 补充:非官方实现:https://github.com/PatrickHua/SimSiam

Reference

[1] Exploring Simple Siamese Representation Learning [arXiv 2020]

[2] Self-Supervised Learning可以很簡單: BYOL與SimSiam的觀點

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值