2021-05-08论文

最近一直懒,没更新论文。虽然我向天发誓我论文一直在读的(天:我才不相信你呢)。总之最近要读的论文比较杂,主要是Contrastive Learning+Exploration in RL+Generation。想到哪里说到哪里吧。

SimCLR估计大家都知道了,大体就是对于不同的instance之间做contrast,如图
在这里插入图片描述
注意哈,这里面有两个有意思的东西,首先那个 f f f不要小看它,这个metric learning的思想会改变整体的效果;第二个就是他的batch size得超级大。

为了解决超级大的问题,MoCoV1MoCoV2引入了一个机制,就是所谓的momentum。简单来说,不再双向迭代导数,而是用一个滑动均衡,这样减少计算量。如图所示:

在这里插入图片描述
对于有label的来说,Supervised Constrastive Learning是你的好伙伴。这里面无非是对loss做了修改,不太清楚效果。

还有一类研究,是使用clustering来做,SwAV
还是一个非常有意思的方法。具体方法有点复杂,因为要online clustering。感兴趣的看原paper吧。这个方法看起来效果还是不错的。

一片跟Mix-Match类似的Mochi把最难的样本拿出来做mixing。这种方法展现出来了triplet mining和constrastive learning之间的一个关系,并且把MixMatch的思想又用了一次。效果不知,各位看官可以尝试。

关于constrastive learning,还有人提出三步走的方法。SimCLR第一步,正常训练第二步,然后constrastive learning + distillation + 真实label。具体见该文章

由于Constrastive Learning基本上是基于Multiview的,所以选取什么样的view就成为了一个重要的课题。在这篇文章中,作者的基本思路是,如果view把和下游任务有关的东西干掉了,那效果不好;但是如果留下来太多东西,那效果也不好。作者还提出了一个在有lalel情况下可以采用的方式。

最后再发一个有意思的。这篇文章大意是说,在抽取负样本的时候,有很多时候有些样本就卷了进来,所以我们要把假的负样本去掉。为了去掉这些假的负样本,作者做了一大堆数学推导,方法却是非常简单的。这类论文特别适合那种喜欢给自己的论文当中加一大堆理论的同学阅读。

今天就到这里吧。。。我明天看看RL的Exploration。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值