SINet: 使用空间压缩模块和信息遮挡编码器的极轻量人像分割模型

  人像分割任务作为许多任务的一个中间阶段,对实时性要求极高,并且当前缺乏大规模的人像分割数据集,为此论文提出SiNet模型和用于进行数据扩充的简单方法。SINet中的空间压缩模块使用多尺度感受也来获取图像中不同尺寸的一致性信息,信息遮挡编码器则在不破坏全局一致性的前提下回复局部空间信息。该模型能够实现精度较高速度极快的人像分割,并且这种极轻量化的分割网络也在其他任务中给了我们应用的启发。

论文地址

工程地址

  SINet包含空间压缩模块和信息遮挡编码器,前者通过使用多种尺寸的感受野信息来保持空间一致性,并且压缩特征图分辨率来消除多分支结构带来的高延迟;后者根据小分辨率特征图的置信图来提取大分辨率特征图上的必要信息

1. 信息遮挡编码器

  编解码结构是语义分割模型中的常见结构,编码器用于提取输入图片的语义信息,解码器用于捕获位置信息并还原特征图尺寸(通常借助双线性插值上采样或者转置卷积);通常情况解码器还会接收编码器模块的高分辨率的特征图来进行逐元素的操作,但是这样的操作会加入已经被编码器移除的局部信息从而对最终的结果产生一定的误导,为此论文提出了一个信息遮挡模块。模型根据低分辨率的特征图来屏蔽高分辨率特征图中已经被以高置信度分割出的区域而仅仅筛选出置信度不高的区域参与解码过程。
在这里插入图片描述
  SINet的整个过程如上图所示,其中包含了这个信息遮挡操作的具体做法,这能够保证低置信度区域能够在高分辨率特征图上得到更多信息并且不损害予以信息。下图所示是一个应用信息遮挡操作的特征图,可以看到边界部分置信度不高。
在这里插入图片描述

2. 空间压缩模块

  多分支结构的优点在于以较少的参数量获得较高的准确度,但是分支越多模型延迟越高,空间压缩模块通过下面的结构来解决这一问题。在这里插入图片描述
  S2-Block本质上一个先压缩在解压的操作,通过使用平均池化调整感受也并且降低时延。S2-Module首先通过一个 1 × 1 1\times 1 1×1的点卷积来减半特征图尺寸并使用分组点卷积进行通过混洗,然后通过两个并行的S2-Block后再进行特征图融合,结合一个残差结构并通过PRelu,得到最终的输出结果。

  S2-Block使用平均池化而非空洞卷积来调整感受野的原因有两个:1)空洞卷积的网格效应和时延;2)多分支结构对GPU并行计算并不友好。

3. SINet的网络架构

在这里插入图片描述
  文章在训练模型的时候使用了Lovasz损失,这个损失不但用于主分割流程,还用于边界位置辅助分割网络(使用二进制掩码的形态学腐蚀和膨胀的差作为分割结果的边缘),最终损失为:
在这里插入图片描述

3.数据扩充方法

  从通用数据集上跳出包含人像的数据和分割结果;使用DeepLabV3+通用目标分割网络再在人像数据上微调,用于产生人像分割的掩码。(这种方法有什么好特意说的,我也没想明白哈哈~)

4.实验结果

  EG1800数据集:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210114145544773.png
在这里插入图片描述


欢迎关注 深度学习与数学   [获取免费的大数据、AI等相关的学习资源、经典和最新的深度学习相关的论文研读,算法和其他互联网技能的学习,概率论、线性代数等高等数学知识的回顾]
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 1. DeepLab v3:https://github.com/tensorflow/models/tree/master/research/deeplab 2. Mask R-CNN:https://github.com/matterport/Mask_RCNN 3. U-Net:https://github.com/zhixuhao/unet 4. PSPNet:https://github.com/hszhao/PSPNet 5. Fast R-CNN:https://github.com/rbgirshick/fast-rcnn 6. FCN:https://github.com/shelhamer/fcn.berkeleyvision.org 7. SegNet:https://github.com/alexgkendall/SegNet-Tutorial 8. YOLOv3:https://github.com/pjreddie/darknet 9. Mask R-CNN:https://github.com/matterport/Mask_RCNN 10. ENet:https://github.com/timo saarikoski/ENet-real-time-semantic-segmentation 11. ICNet:https://github.com/hszhao/ICNet 12. DenseASPP:https://github.com/lxy5513/DenseASPP 13. RefineNet:https://github.com/guosheng/refinenet 14. DeepLab v2:https://bitbucket.org/aquariusjay/deeplab-v2 15. FCIS:https://github.com/msracver/FCIS 16. GAN-based methods:https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix 17. DeepLab v1:https://bitbucket.org/aquariusjay/deeplab-v1 18. BiSeNet:https://github.com/CoinCheung/BiSeNet 19. CGNet:https://github.com/liyunsheng13/CGNet 20. DANet:https://github.com/junfu1115/DANet ### 回答2: 以下是20个比较流行的图像实例分割模型的源码地址: 1. Mask R-CNN:https://github.com/matterport/Mask_RCNN 2. DeepLab:https://github.com/tensorflow/models/tree/master/research/deeplab 3. FCN:https://github.com/shelhamer/fcn.berkeleyvision.org 4. PSPNet:https://github.com/hszhao/PSPNet 5. UNet:https://github.com/milesial/Pytorch-UNet 6. ICNet:https://github.com/hszhao/ICNet 7. SharpMask:https://github.com/facebookresearch/deepmask 8. FastFCN:https://github.com/wuhuikai/FastFCN 9. RefineNet:https://github.com/DrSleep/refinenet 10. Attention U-Net:https://github.com/ozan-oktay/Attention-Gated-Networks 11. BiSeNet:https://github.com/CoinCheung/BiSeNet 12. SINet:https://github.com/JiawangBian/SINet 13. HRNet:https://github.com/HRNet/HRNet-Semantic-Segmentation 14. OhemEdgeDetection:https://github.com/akanazawa/ohem/ohem/edge_detection 15. DEXTR:https://github.com/scaelles/DEXTR-PyTorch 16. SIPMask:https://github.com/DrSleep/SIPMask 17. SETR:https://github.com/dvittr/SETRe 18. CutMix:https://github.com/clovaai/CutMix-PyTorch 19. Mask-X-RCNN:https://github.com/Joker316701882/Mask-X-RCNN 20. U-Shaped Pyramid Networks:https://github.com/definedge/U-2-Net 这些模型涵盖了当前比较热门和有效的图像实例分割算法,你可以从中选择适合你的需求和技术栈的源码进行参考和使用。 ### 回答3: 以下是20个比较流行的图像实例分割模型源码地址: 1. Mask R-CNN: https://github.com/matterport/Mask_RCNN 2. DeepLab: https://github.com/tensorflow/models/tree/master/research/deeplab 3. FCN (Fully Convolutional Networks): https://github.com/shelhamer/fcn.berkeleyvision.org 4. UNet: https://github.com/milesial/Pytorch-UNet 5. PSPNet (Pyramid Scene Parsing Network): https://github.com/hszhao/PSPNet 6. U-Net++: https://github.com/MrGiovanni/UNetPlusPlus 7. HRNet (High-Resolution Networks): https://github.com/HRNet/HRNet-Semantic-Segmentation 8. BiseNet (BiSeNet: Bilateral Segmentation Network): https://github.com/CoinCheung/BiSeNet 9. DANet (Dual Attention Network): https://github.com/junjun-jiang/DANet-pytorch 10. DFANet (Deep Feature Aggregation Network): https://github.com/yilunzhang/DFANet 11. PointRend: https://github.com/facebookresearch/detectron2/tree/main/projects/PointRend 12. Attention UNet: https://github.com/liuzechun/Attention_UNet 13. LightNet: https://github.com/ansleliu/LightNet 14. MaskX-RCNN: https://github.com/liuzechun/MaskX 15. PolarMask: https://github.com/xieenze/PolarMask 16. PolyTransform: https://github.com/google-research/google-research/tree/master/polyrnn-pp 17. FCIS (Fully Convolutional Instance Segmentation): https://github.com/msracver/FCIS 18. CGNet (Context Guided Network): https://github.com/wuhuikai/CGNet 19. ShaResNet: https://github.com/Orcuslc/ShaResNet 20. OCNet (Object Context Network): https://github.com/PkuRainBow/OCNet

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值