gcn语义分割_弱监督语义分割论文阅读(一)

GraphNet: Learning Image Pseudo Annotations for Weakly-Supervised Semantic Segmentation(2018 ACM MM)

一.总览

该文章利用bboxingScribble 作为先验,接着对图片提取卷积层的特征作为像素embedding超分辨的区域。

最后利用GraphNet提取得到相应的类别标签,而后利用可置信的交叉熵进行更新。

4eb477d896eaffba46444cb5cfc001d4.png

二.主要创新点

GraphNet,文章引用了图卷积网络的变种模式,该地方引用自[6][23],将其应用于语义分割网络,通过合理设计图像像素点之间的关系,回归出了较为良好的语义分割结果。

构建Graph,基于位置信息CNN Feature Embedding两方面考虑设计,即临近的像素点往往是相似的,而相距较远的相似点不做考虑;另一方面,计算两个像素点之间的欧氏距离,并用Embedding的维数做约束。综合得到两个像素点间的相似度。

构建GCN(Graph Convolutional network),构建两层的图卷积模型,共回归出C+1类的类别,(C为数据集目标类别总数目)

三.一些细节

该文章所使用的框架为Deeplab-vgg16,所使用的feature embedding 取自vgg16网络的pool5层。

四.结果

VOC2012数据集

首先是在完全监督下Deeplab-vgg16能达到71.5%的miou。在本文的方法下,scibble监督下能达到68.9%的结果,即接近完全监督的结果,还是比较可观的。

五.主观评价

该文章所使用的弱监督信息还是比较多的,能否延展到image-level的信息,只引用图片的类别信息,而得到较好的结果,是接下来的工作。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值