[深度学习从入门到女装]Anatomical Priors in Convolutional Networks for Unsupervised Biomedical Segmentation

论文地址:Anatomical Priors in Convolutional Networks for Unsupervised Biomedical Segmentation

 

这是CVPR2018上的一篇无监督医学图像分割的论文

改方法分为两步,首先使用unpaired的分割图进行auto-encoding variational CNN的训练来得到解刨学上先验知识,然后在使用encoder-decoder CNN来进行图像的分割

目前比较流行的医学图像分割的模型例如U-Net基本上都是使用encoder-down sampling和decoder-up sampling然后使用skip connection进行多分辨率特征的融合,这些方法太依赖于大量标注好的数据,在无监督学习上很难使用,并且缺少解刨学的先验知识,只是单纯是使用标注的图像进行学习

Generative Model

生成模型如上,s为anatomical segmentation map,x为图像强度,x满足在s上的正太分布,z是latent variable
representing,其中x是我们已经得到的可以观察的样本

把z建模成均值为0,协方差为1的正太分布

把s建模为z上的先验分布

其中是在体素j上标签为l的可能性

最后,x通过来生成,在每个体素j上进行正态分布的采样

最后对于给定的一个图像x,为了获得分割图s,使用MAP(maximum a posteriori,最大后验估计)估计

 

Learning

为了得到我们需要先得到z,但是估计是非常困难的,无法使用EM(Expectation Maximization)算法

因此使用了和《Auto-encoding variational bayes》同样的方法,使用来近似,使用KL散度来衡量两个分布之间的距离

从上式我们得到

因为KL散度和z都是非负的,所以第二项是variational lower bound

Auto-Encoding Anatomical Prior

训练过程:

输入s(分割好的MRI),使用loss:

其中的loss应用在网络的中间段,也就是encoder输出的p(z|s)的高斯参数

应用在最后的输出上,也就是decoder输出的\widehat{s},进行dense的loss

supervised Learning

当我们有pair的数据(x,s)的时候,可以直接使用自编码进行有监督学习

可以看到进行学习的时候,decoder是直接从之前Auto-Encoding Anatomical Prior的decoder直接transfer过来的

训练过程:

输入x(需要分割的MRI),输出s(该分割网络得到的分割图)

loss:

其中的loss应用在网络的中间段,也就是encoder输出的p(z|x)的高斯参数

应用在最后的输出上,也就是decoder输出的\hat{s},进行dense的loss

Unsupervised Learning

当我们没有pair的数据(x,s)的时候,只能使用自编码进行无监督学习

可以看到进行学习的时候,decoder是直接从之前Auto-Encoding Anatomical Prior的decoder直接transfer过来的

训练过程:

输入x(需要分割的MRI),输出s(该分割网络得到的分割图),因为是无监督学习,没有pair的(x,s),所以最后又对s进行的一次转换为x,来进行loss

其中的loss应用在网络的中间段,也就是encoder输出的p(z|x)的高斯参数

应用在最后的输出上,也就是decoder输出的s进行转换得到的\hat{x},进行dense的loss

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值