原文 : Mutual-Information-Based Registration of Medical Images: A Survey [1]
2003年的综述类文章,目前已有3200+引用,经典文章,值得一读。
一、香农熵(Shannon entropy)
H = ∑ i p i log 1 p i = − ∑ i p i log p i H=\sum_{i}{p_i\log{\dfrac{1}{p_i}}=-\sum_i{p_i\log{p_i}}} H=i∑pilogpi1=−i∑pilogpi
事件发生的概率越小,提供的信息越多。熵值可以从三个角度进行阐释,1、事件提供的信息;2、事件发生的不确定性;3、事件的概率分布的分散程度。
图像的熵值计算过程:先统计整幅图像中灰度值的分布,求出每个灰度值的概率,再用上式来计算香农熵。
二、互信息(Mutual information,MI)
互信息最早于上世纪90年代早期用于图像配准。主要基于这样的假设:同一区域相似组织在不同图像下的灰度值是对应的(可能不同)。理想情况下,同一区域的所有对应点的灰度值之比变化很小,因此完成配准只需要最小化该比值的方差。
2.1 联合直方图(Joint Histogram)
joint histogram is essentially the same as a normal 1D histogram but the first dimension logs intensities for the first image and the second dimension logs intensities for the second image. This is very similar to what is commonly referred to as a co-occurrence matrix.
https://stackoverflow.com/questions/23691398/mutual-information-and-joint-entropy-of-two-images-matlab
如下图所示为图像A与图像B的联合直方图,越亮的点(x,y)表示A中像素为x且B中对应像素为y的点的个数越多。图(a)亮点呈现一条明亮的对角线,表明两幅图正确配准。(b)(c) (d)亮点越来越分散,对应配准情况也越来越差。
联合直方图中亮点的分散程度可以明显地表现出图像的配准情况。我们可以用熵(前文提到,熵可以表现概率分布的分散程度)来定量化这一分散程度,即实现用熵衡量图像的配准情况。联合分布的香农熵公式如下:
− ∑ i , j p ( i , j ) log p ( i , j ) -\sum_{i,j}{p(i,j)\log{p(i,j)}} −i,j∑p(i,j)logp(i,j)
最小化该式,即可实现图像配准。
2.2 互信息的定义
互信息定义为:
I ( A , B ) = H ( B ) − H ( B ∣ A ) I(A,B)=H(B)-H(B|A) I(A,B)=H(B)−