论文《Semi-Supervised Semantic Image Segmentation with Self-correcting Networks》阅读笔记

盘点关于CVPR2020关于图像分割的论文

  1. Semi-Supervised Semantic Image Segmentation with Self-correcting Networks

    论文地址:https://arxiv.org/abs/1811.07073
     

  2. Deep Snake for Real-Time Instance Segmentation

    论文地址:https://arxiv.org/abs/2001.01629
     

  3. CenterMask : Real-Time Anchor-Free Instance Segmentation

    论文地址:https://arxiv.org/abs/1911.06667

    代码:https://github.com/youngwanLEE/CenterMask
     

  4. SketchGCN: Semantic Sketch Segmentation with Graph Convolutional Networks

    论文地址:https://arxiv.org/abs/2003.00678
     

  5. PolarMask: Single Shot Instance Segmentation with Polar Representation

    论文地址:https://arxiv.org/abs/1909.13226

    代码:https://github.com/xieenze/PolarMask
     

  6. xMUDA: Cross-Modal Unsupervised Domain Adaptation for 3D Semantic Segmentation

    论文地址:https://arxiv.org/abs/1911.12676
     

  7. BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation

    论文地址:https://arxiv.org/abs/2001.00309
     

  8. Enhancing Generic Segmentation with Learned Region Representations

    论文地址:https://arxiv.org/abs/1911.08564

 

==========================================================================================

好了下面进入正题……

主要思想

带标签的boundingbox的在小数据集上的应用,分割模型具有概率性,以适应辅助分割模型的不确定性。自校正分割模型,基于当前对象的概率模板提升弱监督标签。

self-correction mechnism有两个思路:一是使用的函数将辅助预测(辅助预测不清楚的可以参考:https://www.researchgate.net/publication/319702011_Hybrid_Loss_Guided_Convolutional_Networks_for_Whole_Heart_Parsing)和模型预测线性地组合在一起,最小化加权的KL散度。但这种方式要求在模型训练的过程中达到权重自适应的效果。

使用boundingbox的方式可以被称作robust learning,因为在训练前减少了大部分无关的或者噪声标签。在这种情况下,一个通用的简化假设将输出标签上的噪声调制为与输入无关。

在半监督方面的创新点:(1)用辅助CNN提取概率标签的方法代替人工标注的方法(2)使用自校正模型来校正辅助CNN的输出和分割CNN的辅助输出的不一致性。

网络结构

1.三个模型:(1)The Primary segmentation model 生成对象语义分割结果(2)The Ancillary segmentation model 输出带有boundingbox的分割结果,这是由一个weak set训练而来的(3)The Self-correction模块校正辅助分割模块和weak set上的主要模型。

接下来一一介绍这三个模型

2. The Ancillary segmentation model

在boudingbox中给出每个像素的标签就可实现全监督训练该模型,并且可以将其用作W中图像的训练信号。在inferrence阶段,图像及其边界框都被馈送到网络以获得panc(y | x( w),b(w)),分割标签分布。

在设计辅助模型时的主要观察结果是,基于编码器/解码器的分割网络通常依赖于从图像分类模型初始化的编码器。通常,这可以通过迁移大型图像分类数据集中的与训练模型来提高分割效果。 为了保持相同的优势,作者使用并行边界框编码器网络扩展了基于编码器-解码器的分割模型,该网络以不同比例嵌入边界框信息。经解码激活函数输出的boundingbox相当于一个注意力图,并且不同规模的特征图进行了融合。

 

3.No Self-Correction

训练主模型的最简单方法是,在全监督的集合F上使用ground truth标签,在弱集合W上使用辅助模型生成的标签,对其进行训练,以进行预测。对于这种“无自校正”模型, 图1中的自我校正模块仅复制由辅助分割模型做出的预测。

上述优化函数第一项交叉熵损失以one-hot 真实标签作为优化目标,第二项是以panc为目标的软概率标签的交叉熵。注意,由θ参数化的辅助模型是固定的。我们称此方法为无自校正模型,因为它直接依赖于辅助模型来训练W中的示例的主要模型。

 

4. Linear Self-Correction

无自校正模型是直接从辅助模型中输出的预测结果,用的弱数据集,准确性无法保证;而自校正模型是在两个模型上运行,用主模型的输出结果校正辅助模型的结果。使用KL散度的线性组合来推断缺失标签的分布,以解决一般分类问题。(本人理解的是,KL散度用于衡量两个概率之间的分布差异,一个是辅助模型,其中条件多了一个boundingbox,另一个就是主模型)

线性自校正模型的缺点是,超参数需要进行微调。

 

5.卷积自校正网络Convolutional Self-Correction

将主模型和辅助模型concat后进行卷积,因为qconv子网络是被随机初始化的。这里作者用到了一个trick:在阶段1中只使用一半F的数据,如果使用所有F来训练panc(y | x,b)模型,它将训练以在该集合上几乎完美地预测分割mask,因此,随后的卷积自校正网络只会学会依赖panc(y | x,b)。 为了克服此训练问题,F的后半部分被单独拿出来,以帮助自校正网络学习如何组合panc(y | x,b)和p(y | x)。

 

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Semi-supervised classification with graph convolutional networks (GCNs) is a method for predicting labels for nodes in a graph. GCNs are a type of neural network that operates on graph-structured data, where each node in the graph represents an entity (such as a person, a product, or a webpage) and edges represent relationships between entities. The semi-supervised classification problem arises when we have a graph where only a small subset of nodes have labels, and we want to predict the labels of the remaining nodes. GCNs can be used to solve this problem by learning to propagate information through the graph, using the labeled nodes as anchors. The key idea behind GCNs is to use a graph convolution operation to aggregate information from a node's neighbors, and then use this aggregated information to update the node's representation. This operation is then repeated over multiple layers, allowing the network to capture increasingly complex relationships between nodes. To train a GCN for semi-supervised classification, we use a combination of labeled and unlabeled nodes as input, and optimize a loss function that encourages the network to correctly predict the labels of the labeled nodes while also encouraging the network to produce smooth predictions across the graph. Overall, semi-supervised classification with GCNs is a powerful and flexible method for predicting labels on graph-structured data, and has been successfully applied to a wide range of applications including social network analysis, drug discovery, and recommendation systems.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值