全网 | 深度学习语义分割算法(精选15篇)

太多的公众号每天的文章是否让你眼花缭乱?刷了好多文章,发现大都是转来转去?浪费了时间又浪费了感情。

今天我为大家从全网公众号里精选了深度学习语义分割算法的相关文章11篇。其中包括综述,FCN, Seg Net, U-Net, DeepLab, PSP Net, Refine Net, FastFCN, CCNet, GSCNN, RGBD, ENet, DRN, ConvCRF以及超前沿的4篇文章。

在计算机视觉领域,有一个方向是语义分割,一般是针对图像进行像素级分类。具体而言,语义图像分割就是将每个像素都标注上其对应的类别。由于所有的像素都要考虑到,因此语义图像分割任务也被视为是稠密预测的一种。

1. 综述:

从常见模型到分割效果提升,基于深度学习的语义分割全解!

该文章从应用领域出发,结合深度学习中常用目标检测算法框架,全面系统的描述了基于深度学习的常见的目标检测算法。

2. FCN:

FCN-语义分割深度模型的先驱

作为第一个成功将深度学习应用到目标检测上的算法。现在主流的的Fast R-CNN、Faster R-CNN 全部都是建立在R-CNN基础上的,所以要学目标检测算法,还是有必要了解一下R-CNN的实现原理的。

3. Seg Net:

SegNet:图片的语义分割网络

解决之前深度神经网络的一个大难题,即输入数据的维度一定要固定,SPP-Net网络架构在目标分类,目标检测方面取得了很好的成绩,那它到底有什么技巧,有什么新的创新思维呢?

4. U-Net:

语义分割网络经典:unet

unet建立在FCN的网络架构上,作者在网络框架上改进,使其能够使用很少的训练图像就得到很精确的分割结果, unet采用多个skip-connection将底层的feature和高层的feature concat。

5. DeepLab:

语义分割丨DeepLab系列总结「v1、v2、v3、v3+」

DeepLab是谷歌使用tensorflow基于CNN开发的语义分割模型,至今已更新4个版本。最新版本是DeepLabv3+,在此模型中进一步将深度可分离卷积应用到孔空间金字塔池化和解码器模块,从而形成更快,更强大的语义分割编码器-解码器网络。

6. PSP Net:

PSPNet ——语义分割及场景分析

通过使用金字塔池化模块(Pyramid Pooling Module),在整合基于不同区域的上下文后,PSPNet在效果上超过了FCN、DeepLab和DilatedNet等时下最佳的方法。

7.Refine Net:

新开源!实时语义分割算法Light-Weight RefineNet

RefineNet使用经典的编码器-解码器架构,CLF为3*3卷积,卷积核个数为语义类的个数,编码器的骨干网可以是任意图像分类特征提取网络,重点是解码器部分含有RCU、CRP、FUSION三种重要结构。

8. FastFCN:

最新论文阅读:FastFCN: 重新思考语义分割模型主干网络中的扩张卷积

本文提出了一种计算效率高的联合上采样模块 JPU(Joint Pyramid Upsampling),以替代主干网络中耗时又耗内存时间和内存的扩张卷积(dilated convolutions)。

9.CCNet:

ICCV2019 | 语义分割新网络:CCNet,现已开源!

模型的流程就是将输入图像讲过一个预训练的模型中,在这个模型中作者采用的是ResNet101作为骨干部分,并去除最后的两层下采样层,将之后的卷积核换成扩张卷积核,最终得到了输入图像的特征表示X,然后对这个特征进行一个降维操作,以减少十字交叉注意力模块的计算复杂度,最终得到了...

10. GSCNN:

语义分割:GSCNN提高边缘和小目标的分割性能

相比于传统的分割模型,GSCNN主要加入了一个单独的分支用来学习边缘信息,称之为形状流。这一结构改进使得分割模型能够更好的预测边缘信息,显著的提升了小物体和细物体的检测效果。

11. RGBD:

ICIP 2019 开源论文 | 基于注意力网络的RGBD图像语义分割方法

通过利用图像深度信息,获得更好的语义分割效果,在包含 40 个类别的复杂室内场景通用数据集  NYUDv2 上取得了 SOTA 效果,mIoU 达到了 48.3%,论文主要的贡献在于注意力辅助模块和三平行分支的网络架构。

12. ENet:

ENet —一种针对实时语义分割的深度神经架构

ENet(高效神经网络)提供了实时按像素进行语义分割的能力。ENet的速度提高了18倍,FLOP要求减少了75倍,参数减少了79倍,并且为现有模型提供了类似或更好的精度。在CamVid,CityScapes和SUN数据集上测试。

13. DRN:

DRN - 扩张残留网络(图像分类和语义分割)

通过扩张卷积可以增加感受野,用于替换卷积网络中的下采样层,维持图像原有的空间分辨率的同时,保持后续神经元的感受野的分辨率,并使得模型转移到需要详细场景理解的下游应用程序。扩展卷积不仅扩大输出特征图的分辨率还不会减少单个神经元的感受野。证明DRN在图像分类任务中由于未使用扩张的模型,且不增加模型的深度与复杂性!在ImageNet中表现优于其他的分类模型!

14. ConvCRF:

学界 | ConvCRF:一种结合条件随机场与CNN的高效语义分割方法

通过将条件独立性这一强假设添加到现有的全连接条件随机场(FullCRF)框架中 。这使得我们可以将大部分推断重新表达为可以在 GPU 上高效实现的卷积操作,我们称之为卷积条件随机场(ConvCRF)。

15. 超前沿:

送上4篇实时语义分割最新论文(MSFNet/LiteSeg/FDDWNet/RGPNet)

本文将聚焦图像分割的子领域语义分割(Semantic Segmentation)中的子方向:轻量级/实时语义分割。本文分享的实时语义分割论文主要是指 FPS > 30,论文发布时间段:2019年11月7日-2019年12月17日

推荐:

全网 | 深度学习目标检测算法(精选12篇)

全网 | 机器视觉特征点提取及模板匹配(精选11篇)

不转发置顶点赞,还等什么呢?

  • 0
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值