论文
文章平均质量分 91
其实也很简单
偶尔更新,如有疑问可以直接联系email:[email protected]
展开
-
从正负样本解耦看对比学习为何需要large batch size训练Ddcoupled Contrastive learning (DCT)
转载自欢迎大家从原文观看,此篇只做转载加上自己的一些理解。转载 2022-08-04 09:47:02 · 444 阅读 · 0 评论 -
Towards Better Understanding of Self-Supervised Representations / Q-Score
ii)虽然在没有任何标签信息的情况下发现了鉴别特征,但我们观察到,它们在正确分类的表示中(在下游分类中)被强烈激活,在错误分类的表示中激活率较低(图5);图3选择判别特征我们按照每个特征在总体中占dominant特征的次数(y轴)的升序绘制每个特征。1.一小部分特征占据主导地位(权重大)的特征,这些特征可能编码特定于图像的信息特征(即图3的下尾部)--------------这个意思是说,这一部分特征只有当图像是某一特定的类别,这一类的特征才会被激活dominant特征。Q分数也可以用作正则化项。.....原创 2022-07-28 11:28:21 · 659 阅读 · 0 评论 -
TimeCLR: A self-supervised contrastive learning framework for univariate time series representation
时间序列分类 自监督对比学习motivation:cv能取得这么好的效果是因为有数据增强, 而时间序列的表现差的原因是因为数据增强和特征提取器(backbone)不适用于提取时序依赖关系。innovation:一句话总结:在TimeCLR的基础上,加入DTW数据增强策略,网络用inceptionTime替换。AbstractTime series are usually rarely or sparsely labeled, which limits the perfo原创 2022-05-26 16:41:47 · 1228 阅读 · 0 评论 -
MoCO ——Momentum Contrast for Unsupervised Visual Representation Learning
Title: Momentum Contrast for Unsupervised Visual Representation Learning作者:Kaiming He Haoqi Fan Yuxin Wu Saining Xie Ross Girshick发表单位:Facebook AI Research(FAIR)关键词:clip、多模态论文:https://arxiv.org/pdf/1911.05722代码:https://github.com/facebookresearch原创 2022-05-23 08:47:07 · 2422 阅读 · 1 评论 -
【多模态】CLIP模型
Title: Learning transferable visual models from natural language supervision作者:Alec Radford * 1 Jong Wook Kim * 1 Chris Hallacy 1 Aditya Ramesh 1 Gabriel Goh 1 Sandhini Agarwal Girish Sastry 1 Amanda Askell 1 Pamela Mishkin 1 Jack Clark 1 Gretchen Kruege原创 2022-05-22 16:01:31 · 6328 阅读 · 0 评论