信息熵(entropy)以及图像信息熵的理解

关于信息熵,参考以下博文内容进行了理解:

https://blog.csdn.net/saltriver/article/details/53056816

https://y1ran.blog.csdn.net/article/details/80559531

https://blog.csdn.net/daoqinglin/article/details/6906413

http://www.360doc.com/content/13/1122/11/10724725_331249748.shtml

一、如何理解信息熵

 信息熵简单理解就是一种数学期望:信息熵就是平均而言发生一个事件我们得到的信息量大小。所以数学上,信息熵其实是信息量的期望

利用信息论中信息熵概念,求出任意一个离散信源的熵(平均自信息量)。自信息是一个随机变量,它是指某一信源发出某一消息所含有的信息量。一条信息的信息量和它的不确定性有着直接的关系。所发出的消息不同,它们所含有的信息量也就不同。任何一个消息的自信息量都代表不了信源所包含的平均自信息量。不能作为整个信源的信息测度,因此定义自信息量的数学期望为信源的平均自信息量:

  

信息熵的意义:信源的信息熵H是从整个信源的统计特性来考虑的。它是从平均意义上来表征信源的总体特性的。对于某特定的信源,其信息熵只有一个。不同的信源因统计特性不同,其熵也不同。信息熵一般用符号H表示,单位是比特。变量的不确定性越大,熵也就越大。

二、图像的信息熵以及求解代码

参考博客

https://blog.csdn.net/marleylee/article/details/78813630

1、一维熵

图像熵是一种特征的统计形式,它反映了图像中平均信息量的多少。图像的一维熵表示图像中灰度分布的聚集特征所包含的信息量,令Pi 表示图像中灰度值为i的像素所占的比例,则定义灰度图像的一元灰度熵为:

 其中Pi是某个灰度在该图像中出现的概率,可由灰度直方图获得。

2、二维熵

图像的一维熵可以表示图像灰度分布的聚集特征,却不能反映图像灰度分布的空间特征,为了表征这种空间特征,可以在一维熵的基础上引入能够反映灰度分布空间特征的特征量来组成图像的二维熵。选择图像的邻域灰度均值作为灰度分布的空间特征量,与图像的像素灰度组成特征二元组,记为( i, j ),其中i 表示像素的灰度值(0 <= i <= 255),j 表示邻域灰度均值(0 <= j <= 255):

                                     

上式能反应某像素位置上的灰度值与其周围像素灰度分布的综合特征,其中f(i, j)为特征二元组(i, j)出现的频数,N 为图像的尺度。

3.二维图像求信息熵的代码

 

function [res] = ImgEntropy(I)
%求图像熵值
%传入一张彩色图片的矩阵
%输出图片的图像熵值

I_gray = rgb2gray(I);
[ROW,COL] = size(I_gray);


%%
%新建一个size =256的矩阵,用于统计256个灰度值的出现次数
temp = zeros(256);
for i= 1:ROW

for j = 1:COL
%统计当前灰度出现的次数
temp(I_gray(i,j)+1)= temp(I_gray(i,j)+1)+1;

end
end

%%

res = 0.0 ; 
for  i = 1:256
%计算当前灰度值出现的概率
temp(i) = temp(i)/(ROW*COL);

%如果当前灰度值出现的次数不为0
if temp(i)~=0.0

res = res - temp(i) * (log(temp(i)) / log(2.0));
end
end
disp(res);
end


 

 

  • 9
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 在Matlab中,可以使用Entropy函数来计算信息熵图像熵。 信息熵是用来度量信源的不确定性的一种方法。对于一个离散信源,其信息熵可以通过以下公式来计算: H(X) = -Σ(p(x)log₂p(x)) 其中,H(X)表示信源X的信息熵,p(x)表示信源X输出为x的概率。 在Matlab中,可以通过定义概率分布数组并使用Entropy函数来计算信息熵。例如,假设信源X的输出为{0,1,2},对应的概率分布为{0.2,0.3,0.5},可以使用以下代码计算信息熵: p = [0.2,0.3,0.5]; entropy = -sum(p.*log2(p)) 图像熵是对图像中像素值的分布进行度量的一种方法。对于一幅灰度图像图像熵可以表示为: H(I) = -Σ(p(i)log₂p(i)) 其中,H(I)表示图像I的图像熵,p(i)表示图像I中像素值为i的概率。 在Matlab中,可以使用imhist函数计算图像的直方图,并使用Entropy函数来计算图像熵。例如,假设图像为I,可以使用以下代码计算图像熵: histogram = imhist(I); total_pixels = numel(I); p = histogram/total_pixels; entropy = -sum(p.*log2(p)) 使用以上的方法,可以在Matlab中方便地计算信息熵图像熵。 ### 回答2: 在MATLAB中,信息熵图像熵是两个常用的计算方法,用于衡量数据的不确定性和图像的复杂度。下面分别介绍这两种计算方法。 信息熵是一种衡量数据不确定性的度量方式,可以用于评估信号、数据等的平均信息量。在MATLAB中,可以使用entropy函数计算信号的信息熵。此函数接受一个向量或矩阵作为输入,并返回其信息熵值。 例如,我们可以使用如下代码计算一个信号的信息熵: ```matlab x = [1 1 1 1 2 2 2 3 3 4]; entropy_x = entropy(x); disp(entropy_x); ``` 在以上代码中,我们定义了一个信号x,然后使用entropy函数计算其信息熵,并将结果输出。以上代码运行后,会输出结果为1.8464。 图像熵是一种衡量图像复杂度的度量方式,可以用于评估图像的信息含量和纹理复杂度。在MATLAB中,可以使用graycomatrix和entropy函数计算图像的熵。graycomatrix函数用于计算图像的灰度共生矩阵,然后entropy函数用于计算灰度共生矩阵的熵值。 例如,我们可以使用如下代码计算一幅图像的熵: ```matlab img = imread('image.jpg'); gray_img = rgb2gray(img); glcm = graycomatrix(gray_img); entropy_img = entropy(glcm); disp(entropy_img); ``` 在以上代码中,我们首先读取了一幅图像,然后使用rgb2gray函数将图像转换为灰度图像。接下来,使用graycomatrix函数计算图像的灰度共生矩阵glcm,最后使用entropy函数计算灰度共生矩阵的熵值。以上代码运行后,会输出图像的熵值。 综上所述,在MATLAB中可以使用entropy函数计算信号的信息熵,使用entropy函数结合graycomatrix函数计算图像的熵。这些函数可以帮助我们量化信号和图像的不确定性和复杂度。 ### 回答3: Matlab是一种常用的科学计算软件,也可用于计算信息熵图像熵。 信息熵是一种衡量信息不确定性的指标。在Matlab中,我们可以使用entropymc函数来计算信息熵。该函数首先将数据按照其统计分布进行离散化,然后根据计算公式计算信息熵。计算结果越大,表示数据的不确定性越高。 对于图像熵的计算,首先需要将图像转化为灰度图像。在Matlab中,我们可以使用rgb2gray函数将彩色图像转化为灰度图像。然后,可以使用imhist函数计算灰度图像的直方图。直方图表示了不同灰度级的像素的分布情况。最后,根据直方图计算图像熵。图像熵越大,表示图像的灰度级分布越均匀,图像越丰富多样。 在计算信息熵图像熵时,需要注意数据的离散化和概率的估计。Matlab提供了丰富的处理函数和工具箱,可以帮助我们进行相关计算,并得到准确和可靠的结果。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值