目录
Comparisons on ImageNet linear classification
首先还是论文的相关信息
Paper:Exploring Simple Siamese Representation Learning
地址:https://arxiv.org/abs/2011.10566
主要思想
SimSiam用一句话描述:就是没有momentum encoder的BYOL(水了一篇博客偷笑!)
Loss:
SimSiam的架构与BYOL一样也是三个阶段的架构。
将图像经过转换后通过两个相同网络,再过小网络Projection,最后进行预测。与BYOL不同之
处在于SimSiam并没有两组的网络参数,同一个网络对于不同的输入用不同的Projection进行测所
以更新参数时,都只计算预测的gradient。
附:作者提供的伪代码
讨论
我们的假设是SimSiam是一种类似于期望最大化(EM)算法的实现。它隐式地涉及两组变量,
并解决两个潜在的子问题。停止梯度的存在是引入额外的一组变量的结果。F是由θ参数化的网
络。T是增广。X是一幅图像。期望E[·]大于图像和增强的分布。为了便于分析,这里我们使用均方
误差,如果向量是L2归一化的,它等价于余弦相似度。
结果
Comparisons on ImageNet linear classification
SimSiam并不是效果最好的,但是是所有列出的自监督学习方法中最简单、最容易实现的。
Transfer Learning
补充:非官方实现:https://github.com/PatrickHua/SimSiam
Reference
[1] Exploring Simple Siamese Representation Learning [arXiv 2020]
[2] Self-Supervised Learning可以很簡單: BYOL與SimSiam的觀點