语义分割 学习篇

事先声明:

本文用于个人自学复习,无其他想法,参考来自Jayden yang

原文链接:

Jayden yang的博客-CSDN博客_语义分割

一、评价指标:

1.平均 IOU(Intersection Over Union,交并比) 关于预测框和标注框的

2.pixcal-accuracy (PA,像素精度):基于像素的精度计算是评估指标中最为基本也最为简单的指标,从字面上理解就可以知道,PA是指预测正确的像素占总像素的比例.

二、部分模型介绍(按照论文发表时间顺序)

FCN网络  开天辟地之作!!!

 Fully Convolutional Networks for Semantic Segmentationicon-default.png?t=M4ADhttps://arxiv.org/abs/1411.4038
UNet网络

U-Net: Convolutional Networks for Biomedical Image Segmentation (2015/5/18)icon-default.png?t=M4ADhttps://arxiv.org/abs/1505.04597v1主要贡献:利用较少的数据集 来有效处理大尺寸图片。

特点:网络结构是U字型的  很有特色。


SegNet网络

SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentationicon-default.png?t=M4ADhttps://arxiv.org/abs/1511.00561主要贡献:使用最大池化指数转移至解码器,改善了分割分辨率。


空洞卷积(Dilated Convolution)

Multi-Scale Context Aggregation by Dilated Convolutionsicon-default.png?t=M4ADhttps://arxiv.org/abs/1511.07122主要贡献:空洞卷积是一种可用于密集预测的卷积层,能在不降低空间维度的前提下增大相应感受野指数。


Deeplab(V1 V2)

Deeplab v1:Semantic Image Segmentation with Deep Convolutional Nets and Fully Connected CRFs(2014/12/22)icon-default.png?t=M4ADhttps://arxiv.org/abs/1412.7062Deeplab v2:DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs(2016/6/2)icon-default.png?t=M4ADhttps://arxiv.org/abs/1606.00915主要贡献:使用了空洞卷积、提出了在空间维度上实现金字塔型的空洞池化atrous spatial pyramid pooling(ASPP);

RefineNet
RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation(2016/11/20)icon-default.png?t=M4ADhttps://arxiv.org/abs/1611.06612主要贡献:在高分辨率预测的计算研究下,DeepLab中使用的空洞卷积计算成本高,故使用RefineNet模块,其作用是能通过对较低分辨率特征进行上采样来融合多分辨率特征。


PSPNet
PSPNet: Pyramid Scene Parsing Networkicon-default.png?t=M4ADhttps://arxiv.org/abs/1612.01105主要贡献:使用空洞卷积改善残差结构,添加了一个金字塔池化模块来聚合背景信息;另外新增了附加损失auxiliary loss起到监督作用。


大内核(Large Kernel Matters) Large Kernel Matters - Improve Semantic Segmentation by Global Convolutional Network(2017/3/8)icon-default.png?t=M4ADhttps://arxiv.org/abs/1703.02719主要贡献:提出了一种带有大维度卷积核的编解码结构网络。


Deeplab v3

DeepLab v3:Rethinking Atrous Convolution for Semantic Image Segmentation(2017/6/17)icon-default.png?t=M4ADhttps://arxiv.org/abs/1706.05587主要贡献:在v1、v2的基础上改善了空间维度上的金字塔空洞池化方法(ASPP),并且该模块级联了多个空洞卷积结构。


EncNet

EncNet:Context Encoding for Semantic Segmentation(CVPR2018)icon-default.png?t=M4ADhttp://openaccess.thecvf.com/content_cvpr_2018/papers/Zhang_Context_Encoding_for_CVPR_2018_paper.pdf主要贡献:引入上下文编码模块(Context Encoding Module),引入全局上下文信息(global contextual information),用于捕获场景的上下文语义并选择性的突出与类别相关的特征图。与此同时,结合现先进的扩张卷积策略和多尺度策略提出了语义分割框架EncNet(Context Encoding Network)。


DenseASPP

DenseASPP for Semantic Segmentation in Street Scenes(CVPR2018)icon-default.png?t=M4ADhttp://openaccess.thecvf.com/content_cvpr_2018/papers/Yang_DenseASPP_for_Semantic_CVPR_2018_paper.pdf主要贡献:在ASPP基础上提出密集连接扩张空间金字塔池,能够生成覆盖非常大范围的接受野特征、能够以非常密集的方式生成特征。


Deeplab v3+
Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation(CVPR2018)icon-default.png?t=M4ADhttps://arxiv.org/pdf/1802.02611.pdf主要贡献:网络中使用了两种类型的神经网络,空间金字塔模块以及encoder-decoder结构。前者能够在不同分辨率下以池化操作获得丰富的上下文信息,后者能够逐渐获得清晰的物体边界。


DFANet 深度特征聚合网络​​​​​​

主要贡献:实时和底运算量的语义分割上的新记录。深度可分卷积被证明是实时推理中最有效的操作之一。


DANetDANet:Dual Attention Network for Scene Segmentation(CVPR2019)icon-default.png?t=M4ADhttps://arxiv.org/pdf/1809.02983.pdf主要贡献:提出了一种具有自我关注机制的新型双注意网络(DANet),以增强场景分割的特征表示的判别能力。

有好多好多:
Auto_Deeplab
APCNet
CANet

。。。。。。。。。。。。。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值