对比自监督学习——资料整理和汇总

关于对比自监督的学习,看这篇文章来进行引入,是一个很好的方法,https://mp.weixin.qq.com/s/7IdjHVgSMjEeB8kQLORmmw

大佬的解读 https://space.bilibili.com/626918756,其中特别是SimCLR这篇,一定要看一看,https://www.bilibili.com/video/BV1bD4y1S7nZ

 

然后一些文献综述的解读,这个是这篇文献综述的中文翻译版,翻译的挺好的,一定要看看,

然后一些有里程碑性质的文章:

Bootstrap Your Own Latent 这个文章呢,就是说,我不用负样本也可以把模型训练的很好,但是被认为是在一些工程的细节角度还是利用了负样本采样的思想 https://zhuanlan.zhihu.com/p/163811116,还有一些其他人写的解读:https://zhuanlan.zhihu.com/p/149070755,一个大佬写的视频解读https://www.bilibili.com/video/av712429081/

What Makes for Good Views for Contrastive Learning 这个是篇好文章,意思大概就是用一个GAN来学习出一个最好的对positive sample的变换,更多的解读可以看看这一篇文章,https://zhuanlan.zhihu.com/p/213769405

然后这个是InfoNCE提出的那篇文章,其实就是在NCE(负采样估计的基础上把mutual information的估计引入进来了呗),链接可以看这个,这个是代码的介绍 https://github.com/jefflai108/Contrastive-Predictive-Coding-PyTorch

知乎:大佬的文章 关于自监督学习 https://zhuanlan.zhihu.com/p/146398453 是一个系列

 

Adversarial Self-Supervised Contrastive Learning https://papers.nips.cc/paper/2020/file/1f1baa5b8edac74eb4eaa329f14a0361-Paper.pdf

On the surprising similarities between supervised and self-supervised models https://openreview.net/pdf?id=q2ml4CJMHAx

AutoAugment: Learning Augmentation Strategies from Data https://arxiv.org/pdf/1805.09501.pdf

AutoAugment: Learning Augmentation Policies from Data

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

量化橙同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值