learning loss for active learning阅读笔记

针对主动学习设计的学习损失,cvpr2019的文献,文献下载链接1905.03677.pdf (arxiv.org)


也是例会五分钟内介绍的文献,简单概括一下模型和核心内容。

文献主要设计了一个主动学习的方法,不针对具体的学习任务,可以加在主模型上。这里的主模型可以是分类模型或者检测模型等。

 图a解释了这个模型:作者设计的主动学习模型是附加在主模型上的,它利用主模型特征层进行预测损失与训练。

 图b则是一个主动学习的流程:从未标注数据池中选出一部分数据标注为模型进行初始化,主model对unlabeled进行预测,副model则预测数据的loss,从而将所有data的loss进行一个相对大小的排列,选出top-k加入到标注中去。这个过程其实是一个不确定度的度量方法,不过是根据输入预测loss,也就是作者认为loss大的数据标注后对网络更好。但是没有label的数据怎么求loss呢,这就是副model干得活了,它是设计了一个网络将loss未卜先知预测出来。

 loss的计算用的不是梯度下降,原因是梯度的下降过程中loss也会下降,不稳定。所以作者用排序的loss作为损失函数,这样即使label的loss一直变化,但loss的相对大小没有变。

 用这个图简单介绍一下作者设计的求loss的过程,首先输入一张图产生两个输出,一个输出结果bounding box和类别,另一个输出是预测的loss。预测loss求法见上图:主模型对目标的预测与目标的ground truth求得目标损失,由副模型预测loss与目标损失求出 loss这两个损失进行训练。

  

 关于预测的loss求法,前面已经说过了这个求得是相对大小的loss,也就是说并不是求loss的确定值,而是求排列的顺序:

 解释一下公式:下标i和j是对应组成一组图片对的两张图片(共B/2个图片对),如果L_{i}>^{L_{j}},并且模型预测也满足Li>Lj,那么大于0,为正,括号内为负数,loss结果为0——模型预测正确,不进行权重更新。如果Li>Lj,但是模型预测为负,那么loss就大于0,需要进行权重更新。以这种方法就可以求出loss的相对大小啦。

 

 

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对比学习损失(contrastive learning loss)是一种用于自监督学习的损失函数。自监督学习是一种无需标注数据来训练模型的方法,其关键在于利用输入数据的内在结构进行学习。 对比学习损失通过将输入数据分为正例(positive)和负例(negative)两类,来衡量模型对于样本相似性的学习能力。具体而言,对于每个样本,我们将其与其他样本进行对比,并为它们计算一个相似性指标。正例是相似的样本对,而负例是不相似的样本对。 在对比学习中,一种常用的损失函数是对比损失(contrastive loss)。对于正例样本对,我们希望它们在特征空间中尽可能靠近,即相似性指标应该较小;而对于负例样本对,我们希望它们在特征空间中远离,即相似性指标应该较大。因此,对比损失的目标是最小化正例样本对的相似性指标,同时最大化负例样本对的相似性指标。 由于对比学习不需要标注数据,它可以广泛应用于许多领域。在计算机视觉中,对比学习可以用于图像特征学习、图像检索等任务。在自然语言处理中,对比学习可以用于文本相似度计算、句子表示学习等任务。对比学习通过学习数据的相似性,可以提升模型在无标注数据上的性能,为后续任务提供有用的特征表示。 总之,对比学习损失是一种用于自监督学习的损失函数,通过最小化正例样本对的相似性指标和最大化负例样本对的相似性指标,来提升模型在无标注数据上的学习效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值