#今日论文推荐#ICLR 2022最佳论文:基于对比消歧的偏标签学习
现代深度神经网络的训练通常需要大量有标签的数据(labeled data),这给训练数据的收集带来了巨大的困难。这是因为给现实世界中的数据打标签 (data annotation) 会存在标签模糊 (label ambiguity) 和噪声的影响。
如图 1 所示,对于给图片打标签的人 (human annotator) 来说,将阿拉斯加雪撬犬这个这个正确的标签从它的候选标签集 {哈士奇犬、阿拉斯加犬、萨摩耶犬} 中选出来是很困难的,因为这几种犬类长得非常相似。标签模糊性 (label ambiguity) 的问题在许多应用中普遍存在,但经常被忽视。这就突显出了偏标签学习 (partial label learning PLL) 的重要性。
在 PLL 中,每个训练数据都会有一组候选标签集 (candidate labels),而不是一个人工标注的"正确"标签 (ground-truth label)。这与有监督学习不同,在有监督学习 (supervised learning) 下,每个训练数据都必须选择一个"正确"标签。所以,由于 PLL 问题的打标签成本相对较低,在各种应用下都被认为是更常见且实用的。
具体来说,PLL 问题的定义如下:令 为输入空间(input space), 为输出的标签空间(output label space)。我们考虑一个训练数据集 ,其中每个元组 (tuple) 都包括一张图像 (image) 和一个候选标签集 (candidate label set) 。与监督学习 (supervised learning) 相同,PLL 的目标是获得一个映射函数,该函数可以根据输入预测出相应的一个正确标签 (true label)。与监督学习不同的是,PLL 在标签空间 (label space) 有更多的不确定性。PLL 的一个基本假设是,一张图像的正确标签 (ground-truth label) 隐藏在其的候选标签集中 ,且在训练时对模型 (learner) 是不可见的 (invisible)。因此,与拥有显式正确标签的有监督学习相比,PLL 的训练过程会受到固有的 (inherent) 标签模糊性的影响。
论文题目:PiCO: Contrastive Label Disambiguation for Partial Label Learning
详细解读:https://www.aminer.cn/research_report/62eb31be7cb68b460ffb3983https://www.aminer.cn/research_report/62eb31be7cb68b460ffb3983
AMiner链接:https://www.aminer.cn/?f=cs