论文笔记:Suppressing Mislabeled Data via Grouping and Self-Attention

Suppressing Mislabeled Data via Grouping and Self-Attention

ECCV2020
这篇论文与Semi-supervised Domain Adaptation based on Dual-level Domain Mixing for Semantic Segmentation 有异曲同工的地方,前者在特征层进行Mixup,后者在样本(图片)和样本集上进行Mixup;前者用于抑制坏Label,后者用于半监督域适应。

本文主要使用注意力机制解决数据集中标签质量不高、错标签的问题。

本文将一个Batch的图片(有好有坏),按每组K个图片随机分组,经过CNN后提取Feature Map,设置K个FC,K个图片的FM对应通过K个FC,得到的K个输出进行Interaction操作,然后通过两层FC、一层ReLU和Sigmoid,得到K个图片的各自的注意力值;FM和原始label结合注意力值,生成新的FM与label,最后就可以算loss了。

Group-to-Attend Module

组内注意力机制
1.在数据集的一个Batch中选择K=2张图片为一组(实验部分表明K=2效果最好),经过CNN提取特征Xi,实验中使用Resnet50的ImageNet预训练模型。
2. 设置两个FC,FCa与FCb,两个X对应经过FC后进行Interaction操作(可选拼接、求和、元素对应相乘)
3. 通过两层FC,一层ReLU,一层Sigmoid,得到[ai,aj]两个注意力值。一个Batch中共有m组,即有m对这样的值。
在这里插入图片描述

Mixup Module

混合模块
每组有两个从CNN提取的特征x,对应乘上注意力值,除以总注意力值(实验室总注意力值为1)得到新的特征x,同理求得新的Label分布。

在这里插入图片描述
整体流程图:
在这里插入图片描述

Training

损失函数形式如下,一个batch有n张图分成m组,所以有m个新的x与y需要算loss,n个原来的x与y算loss。
在这里插入图片描述
The effect of Group-to-Attend Module部分未想明白,待补充。。。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值