《Dense Residual Network for Retinal Vessel Segmentation》

数据集:IOSTAR,RC-SLO,都要使用Scanning Laser Ophthalmoscopy(SLO)技术采集。
深度密集残差网络——DRNet

一、介绍

结合了(U-Net,ResNet,DenseNet)的优点
数据集过少——引入残差结构学习更过复杂的特征
跳层结构——解决空间信息丢失
密集连接——最大化的重新利用特征图

二、分割算法

2.1、Double Residual Block(DRB)

包含两个残差单元,所以称为Double Residual Block(DBR)
在这里插入图片描述
相比于现有的消除过拟合的方法,本文充分利用有限的注释数据来训练更深的网络来提取更复杂的特征图。
但是如果仅仅是增加网络的层数可能会导致梯度消失从而妨碍训练(解决方法: 构建一个残差学习块(batch normalization,Relu activation,3×3 convolutional layer, DropBlock)

2.2、DRB特征图的自适应聚合( Zhen, M.; Wang, J.; Zhou, L.; Fang, T.; and Quan, L. 2019.Learning fully dense neural networks for image semantic segmentation. AAAI Conference on Artificial Intelligence.)

在这里插入图片描述
FCN和U-Net是通过直接相加或连接操作来重新利用之前的特征图。
本文使用自适应聚合的结构来密集连接前面的DRB生成的特征图。
由于输入特征图的分辨率和特征通道数可能不同,所以使用一个压缩层(DropBlock,1×1卷积),除了一个已经被压缩过的直接连接(黑色箭头)。
为了让特征图分辨率相同,使用最大池化操作来下采样,使用转置卷积来上采样。

2.3、DropBlock( G. Ghiasi, T.-Y. Lin, and Q. V. Le. DropBlock: A regularization method for convolutional networks. In Neural Information Processing Systems, 2018.)

由于激活单元之间的相关性,Drop往往使用在全连接层而不是卷积层,然而本文使用的全卷积网络结构,甚至没有dropout,输入的语义信息任然可以被传送到后面的层,导致网络出现过拟合。(解决方法: DropBlock,与dropout不同的是,DropBlock随机丢弃连续的区域而不是随机丢弃独立的单元,这个特点使得DropBlock更好地丢弃结构化的语义信息,防止过拟合。

2.4、Dense Residual Network

在这里插入图片描述

三、实验和结论

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值