【医疗图像分割】【MICAI RETOUCH CHALLENGE 2017】 Simultaneous Detection and Quantification of Retinal Fluid wi

        

前言:今天我们要解读的这篇文章,是深度卷积神经网络在医学图像上的应用,关于计算机CV应用于Medical这个领域已经有长达几十年的历史了。MICAI也算是这方面的顶会了,retouch challenger也是2017年MICAI的workshop,https://retouch.grand-challenge.org/ 。当然这个数据集目前也是下载不到了,如果有小伙伴能够弄到这个数据集,不知道能否分享一份给我,谢谢!

简单介绍下数据和任务

                                                                    

         数据也就长这样,是 retinal OCT(Optical Coherence Tomography )影像,这个其实是3D影像,一片一片的输出。这个数据集提供了70 OCT volumes。主要任务是进行分割,并且给出检测结果(多分类结果的打分)。

        主要有以下几大类 intaretinal fluid (IRF), subretinal fluid (SRF), and pigment epithelial detachment (PED) 具体说明可以看维基百科:http://www.itk.org/Wiki/MetaIO

                                         

         文章中有这么句话:“Prior published work dealing with simultaneous detection and segmentation of IRF, SRF, and PED in OCT images of the human retina can be found in [4,5].”从这话的意思来看,2017年还是比较少有同时做这两个任务的文章的,好像!

                        

本文的主要工作内容

         总述:这篇文章,利用CNN去对每一个volume的每一个slice进行预测,预测之前会对图像进行进行一定的预处理,然后把预测结果整合起来得到3D的结果,以及detection结果。

         图像预处理:

                1、用3D的高斯核去处理整个3D的volume。这样的话,就相当于得到了连续的3D volume。

                2、从第一步得到的3D volume 以及提供的标准的数据中进行采样。

                3、对数值进行转换,变成能用8-bits编码存的普通图像数据。

                4、把提取的slice 进行resize 到“ standard size”,标准数据和高斯得到的,采用了不同降采样方法

                5、文中有一句话说“Heidelberg slices were the smallest in the data set ”,我猜测是因为数据集产生自不同的“机器”,这一款机器给出的图像最小!把这个的尺寸定义为“标准尺寸 (512x496)”

                6、In particular, the cropping is to the 512x256 rectangle with the highest intensity sum. This method was validated
to always capture the full retina.这里是对眼底区域进行剪裁,从而使得输入图像中的背景区域最小

                7、means /std

          数据增广:

                 1、数据增广让把数据扩充到了原始的45倍

                 2、旋转增广,2度为增量,从-8度到8度

                 3、 warp 文章特意采用了特殊的warp

                       

                  这里定义了warp变换的公式。

         

      网络结构:

             1、基于ResNet、并且有着很多的“skip”结构,输入图像总共会经历三次降采样 1/8,总共有43个卷积层,其中有34个卷积层在encoder部分,最后3个卷积层只有4个卷积核。之所以设计了3层,4个卷积核的,为了表现出“强度倍增”,慢慢优化每一类的结果。

             2、all encoder convolution layers were initialized according to the Xavier scheme, while decoder layers were initialized to zeros instead.我也不知道这是个什么规则~~~~,为什么要这么做?请大佬指点一二。。。

            3、

            

            上图是 encoder 和decoder的基本单元。

       

            这是最后的模块,总共3个卷积层,每个都只有4个卷积核。

       后处理:

               1、Central to the post-processing is the graph-cut algorithm,这是后处理的核心算法,依据这两篇论文,We utilized a MATLAB wrapper [3] of the Boykov-Kolmogorov graph cut implementation

                  

              

               2、还有一些其他后处理,还需要学习一会。。。

 

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 19
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 19
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值