对比学习SimCLR:论文阅读与简单demo测试
引言
其实对比学习(Contrast Learning)的概念很早就有了,但真正成为热门方向是在2020年的2月份,Hinton组的Ting Chen提出了SimCLR,用该框架训练出的表示以7%的提升刷爆了之前的SOTA,甚至接近有监督模型的效果。本博客基于现有的一些博客资料和arXiv论文,对SimCLR的文章内容进行了梳理,并做了一个简单的demo测试。希望能够帮助到大家对论文算法的学习。
1. 论文摘要解读:
1.1 内容翻译
本文【1】提出了一个简单的视觉表示对比学习框架SimCLR。我们简化了最近提出的对比自监督学习算法,而不需要专门的架构或memory bank。为了理解是什么使对比预测任务能够学习到有用的表示,我们系统地研究了框架的主要组成部分。我们发现:(1)数据扩增的组合在定义有效预测任务中起着关键作用;(2)在表示和对比损失之间引入一个可学习的非线性变换,极大地提高了表示学习的质量;(3)与监督学习相比,对比学习受益于更大的批量和更多的训练步。综合这些发现,