前言
Co-learning: Learning from Noisy Labels with Self-supervision
发表信息:ACM MM 2021
Paper:https://arxiv.org/abs/2108.04063
Code:无
一、核心思想
核心思想:在co-teaching的基础上,通过结合自监督任务和原有有监督任务协同训练。
损失:损失分成三个部分,分别是有监督交叉熵损失,自监督的infoNCE损失和多任务的结构一致性损失。
实现细节:
- 三个增广:weak Aug 用于有监督损失,two strong Aug 用于自监督对比损失
- MixUP:由于自监督学习部分需要较长时间收敛,引入mixup延缓有监督分类头对噪声标签的过拟合
结构相似度约束
和之前的方法不同,这里舍去了co-teaching系列方法中的交替更新和多网络协同学习,仅使用一个encoder,通过约束自监督和有监督两个任务的信息最大化来保证网络的稳健。这里的maximize the agreement实现为两个任务得到的表示应该存在结构约束。