[论文笔记]基于互信息的医学图像配准综述

原文 : Mutual-Information-Based Registration of Medical Images: A Survey [1]
2003年的综述类文章,目前已有3200+引用,经典文章,值得一读。

一、香农熵(Shannon entropy)

H = ∑ i p i log ⁡ 1 p i = − ∑ i p i log ⁡ p i H=\sum_{i}{p_i\log{\dfrac{1}{p_i}}=-\sum_i{p_i\log{p_i}}} H=ipilogpi1=ipilogpi

  事件发生的概率越小,提供的信息越多。熵值可以从三个角度进行阐释,1、事件提供的信息;2、事件发生的不确定性;3、事件的概率分布的分散程度
图像的熵值计算过程:先统计整幅图像中灰度值的分布,求出每个灰度值的概率,再用上式来计算香农熵。

二、互信息(Mutual information,MI)

  互信息最早于上世纪90年代早期用于图像配准。主要基于这样的假设:同一区域相似组织在不同图像下的灰度值是对应的(可能不同)。理想情况下,同一区域的所有对应点的灰度值之比变化很小,因此完成配准只需要最小化该比值的方差。

2.1 联合直方图(Joint Histogram)

joint histogram is essentially the same as a normal 1D histogram but the first dimension logs intensities for the first image and the second dimension logs intensities for the second image. This is very similar to what is commonly referred to as a co-occurrence matrix.
https://stackoverflow.com/questions/23691398/mutual-information-and-joint-entropy-of-two-images-matlab

  如下图所示为图像A与图像B的联合直方图,越亮的点(x,y)表示A中像素为x且B中对应像素为y的点的个数越多。图(a)亮点呈现一条明亮的对角线,表明两幅图正确配准。(b)(c) (d)亮点越来越分散,对应配准情况也越来越差。

在这里插入图片描述

  联合直方图中亮点的分散程度可以明显地表现出图像的配准情况。我们可以用熵(前文提到,熵可以表现概率分布的分散程度)来定量化这一分散程度,即实现用熵衡量图像的配准情况。联合分布的香农熵公式如下:
− ∑ i , j p ( i , j ) log ⁡ p ( i , j ) -\sum_{i,j}{p(i,j)\log{p(i,j)}} i,jp(i,j)logp(i,j)

最小化该式,即可实现图像配准。

2.2 互信息的定义

  互信息定义为:
I ( A , B ) = H ( B ) − H ( B ∣ A ) I(A,B)=H(B)-H(B|A) I(A,B)=H(B)

  • 2
    点赞
  • 53
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值