【Python中计算两张图像的相似度】计算两幅图像的相似度(PSNR、SSIM、MSE、余弦相似度、MD5、直方图、互信息、Hash)& 代码实现

MSE(Mean Squared Error)均方误差

MSE公式 

MSE 计算模型的预测 Ŷ 与真实标签 Y 的接近程度。公式表示为:

 

对于两个m×n的单通道图像I和K,它们的均方误差可定义为:

优点:MSE的函数曲线光滑、连续,处处可导,便于使用梯度下降算法,是一种常用的损失函数。而且,随着误差的减小,梯度也在减小,这有利于收敛,即使使用固定的学习速率,也能较快的收敛到最小值。

缺点:当真实值y和预测值f(x)的差值大于1时,会放大误差;而当差值小于1时,则会缩小误差,这是平方运算决定的。MSE对于较大的误差(>1)给予较大的惩罚,较小的误差(<1)给予较小的惩罚。也就是说,对离群点比较敏感,受其影响较大。

代码实现


   
   
  1. # MSE
  2. # 方法一:自定义函数
  3. import numpy as np
  4. def MSE( img1,img2):
  5. mse = np.mean( (img1 - img2) ** 2 )
  6. return mse
  7. # 方法二:调用库函数
  8. # 老版本的scikit-image,加载SSIM、PSNR、MSE的方式:
  9. from skimage.measure import compare_mse as mse
  10. # 新版本的scikit-image,加载方式:
  11. from skimage.metrics import mean_squared_error as mse

PSNR(Peak Signal-to-Noise Ratio)峰值信噪比

 PSNR(Peak Signal to Noise Ratio),峰值信噪比,是一种评价图像的客观标准。,应用场景有很多。它具有局性,PSNR是“Peak Signal to Noise Ratio”的缩写。peak的中文意思是顶点。而ratio的意思是比率或比列的。整个意思就是到达噪音比率的顶点信号,psnr一般是用于最大值信号和背景噪音之间的一个工程项目。通常在经过影像压缩之后,通常输出的影像都会在某种程度与原始影像不同。为了衡量经过处理后的影像品质,通常会参考PSNR值来衡量某个处理程序能否令人满意。它是原图像与被处理图 像之间的均方误差相对于(2n-1)2的对数值(信号最大值的平方,n是每个采样值的比特数),它的单位是dB。

PSNR是最普遍和使用最为广泛的一种图像客观评价指标,然而它是基于对应像素点间的误差,即 基于误差敏感的图像质量评价。由于并未考虑到人眼的视觉特性(人眼对空间频率较低的对比差异敏感度较高,人眼对亮度对比差异的敏感度较色度高,人眼对一个 区域的感知结果会受到其周围邻近区域的影响等),因而经常出现评价结果与人的主观感觉不一致的情况。

PSNR公式

PSNR是通过MSE得出来的,公式如下: 

 其中,MAXI是表示图像点颜色的最大数值,如果每个采样点用 8 位表示,那么就是 255。

 所以MSE越小,则PSNR越大;所以PSNR越大,代表着图像质量越好。一般来说,

  • PSNR高于40dB说明图像质量极好(即非常接近原始图像);
  • 在30—40dB通常表示图像质量是好的(即失真可以察觉但可以接受);
  • 在20—30dB说明图像质量差;
  • 最后,PSNR低于20dB图像不可接受。

代码实现


   
   
  1. # PSNR
  2. # 方法一:自定义函数
  3. import numpy
  4. import math
  5. def psnr( img1, img2):
  6. mse = numpy.mean( (img1 - img2) ** 2 )
  7. if mse == 0:
  8. return 100
  9. PIXEL_MAX = 255.0
  10. return 20 * math.log10(PIXEL_MAX / math.sqrt(mse))
  11. # 方法二:调用库函数
  12. # 老版本的scikit-image,加载SSIM、PSNR、MSE的方式:
  13. from skimage.measure import compare_ssim as ssim
  14. from skimage.measure import compare_psnr as psnr
  15. from skimage.measure import compare_mse as mse
  16. # 新版本的scikit-image,加载方式:
  17. from skimage.metrics import structural_similarity as ssim
  18. from skimage.metrics import peak_signal_noise_ratio as psnr
  19. from skimage.metrics import mean_squared_error as mse

SSIM(structural similarity)结构相似性

SSIM(structural similarity),结构相似性,是一种衡量两幅图像相似度的指标。

SSIM算法主要用于检测两张相同尺寸的图像的相似度、或者检测图像的失真程度。

SSIM公式基于样本x和y之间的三个比较衡量:亮度 (luminance)、对比度 (contrast) 和结构 (structure)。

SSIM公式

 常数𝑪𝟏, 𝑪𝟐, 𝑪𝟑是为了避免当分母为 0 时造成的不稳定问题。
𝝁𝒙为均值, 𝝈𝒙 为方差, 𝝈𝒙𝒚 表示协方差。

 

 

SSIM取值范围为[0,1],值越大表示输出图像和无失真图像的差距越小,即图像质量越好。

缺点:结构相似性指标有其限制,对于影像出现位移、缩放、旋转(皆属于非结构性的失真)的情况无法有效的运作。

代码实现


   
   
  1. # SSIM
  2. # https://github.com/scikit-image/scikit-image/blob/v0.21.0/skimage/metrics/_structural_similarity.py
  3. # 方法一:自定义函数
  4. import numpy as np
  5. def ssim( y_true , y_pred):
  6. u_true = np.mean(y_true)
  7. u_pred = np.mean(y_pred)
  8. var_true = np.var(y_true)
  9. var_pred = np.var(y_pred)
  10. std_true = np.sqrt(var_true)
  11. std_pred = np.sqrt(var_pred)
  12. R = 255
  13. c1 = np.square( 0.01*R)
  14. c2 = np.square( 0.03*R)
  15. ssim = ( 2 * u_true * u_pred + c1) * ( 2 * std_pred * std_true + c2)
  16. denom = (u_true ** 2 + u_pred ** 2 + c1) * (var_pred + var_true + c2)
  17. return ssim / denom
  18. # 方法二:调用库函数
  19. # 老版本的scikit-image,加载SSIM、PSNR、MSE的方式:
  20. from skimage.measure import compare_ssim as ssim
  21. from skimage.measure import compare_psnr as psnr
  22. from skimage.measure import compare_mse as mse
  23. # 新版本的scikit-image,加载方式:
  24. from skimage.metrics import structural_similarity as ssim
  25. from skimage.metrics import peak_signal_noise_ratio as psnr
  26. from skimage.metrics import mean_squared_error as mse

函数 structural_similarity

   
   
  1. def structural_similarity( *, im1, im2,
  2. win_size=None, gradient=False, data_range=None,
  3. multichannel=False, gaussian_weights=False,
  4. full=False, **kwargs)

处理RGB等多通道图像或划分为多块时

上述原始计算方式仅法针对单通道灰度图,

求RGB图或多通道图时,PSNR有三种方式,其他类似:

  • 分别计算 RGB 三个通道的 PSNR,然后取平均值。
  • 计算 RGB 三通道的 MSE ,然后再除以 3 。
  • 将图片转化为 YCbCr 格式,然后只计算 Y 分量也就是亮度分量的 PSNR。

分为多块时,在实际应用中,可以利用滑动窗将图像分块,令分块总数为N,考虑到窗口形状对分块的影响,采用高斯加权计算每一窗口的均值、方差以及协方差,然后计算对应块的结构相似度SSIM,最后将平均值作为两图像的结构相似性度量,即平均结构相似性SSIM。  

例:计算两个RGB图像的MSE(均方误差): 

  1. ‎从红色通道开始‎;
  2. ‎计算两个图像的红色通道中每个像素的灰度值之间的差异(所有像素位置的(redA(0,0)-redB(0,0)等);
  3. ‎对每个像素的差异进行平方  (redA(0,0)-redB(0,0)^2;
  4. ‎计算红色通道中所有像素的平方差之和‎;
  5. ‎对绿色和蓝色通道重复上述操作‎;
  6. ‎将 3 个通道的总和相加并除以 3,即 (红色通道和+绿色通道和+蓝色通道和)/ 3‎;
  7. ‎除以图像面积(宽度高度)‎‎以形成平均值或平均值,即(红和+绿和+蓝和)/(3* 宽度*高度)‎‎= MSE‎。
     

余弦相似度

把图片表示成一个向量,通过计算向量之间的余弦距离来表征两张图片的相似度。

余弦相似度算法:一个向量空间中两个向量夹角间的余弦值作为衡量两个个体之间差异的大小,余弦值接近1,夹角趋于0,表明两个向量越相似,余弦值接近于0,夹角趋于90度,表明两个向量越不相似。 

余弦公式 

二维空间余弦函数

多维空间余弦函数

代码实现

图片相似度计算方法总结 - 知乎 (zhihu.com)


   
   
  1. # -*- coding: utf-8 -*-
  2. # !/usr/bin/env python
  3. # 余弦相似度计算
  4. from PIL import Image
  5. from numpy import average, dot, linalg
  6. # 对图片进行统一化处理
  7. def get_thum( image, size=(64, 64), greyscale=False):
  8. # 利用image对图像大小重新设置, Image.ANTIALIAS为高质量的
  9. image = image.resize(size, Image.ANTIALIAS)
  10. if greyscale:
  11. # 将图片转换为L模式,其为灰度图,其每个像素用8个bit表示
  12. image = image.convert( 'L')
  13. return image
  14. # 计算图片的余弦距离
  15. def image_similarity_vectors_via_numpy( image1, image2):
  16. image1 = get_thum(image1)
  17. image2 = get_thum(image2)
  18. images = [image1, image2]
  19. vectors = []
  20. norms = []
  21. for image in images:
  22. vector = []
  23. for pixel_tuple in image.getdata():
  24. vector.append(average(pixel_tuple))
  25. vectors.append(vector)
  26. # linalg=linear(线性)+algebra(代数),norm则表示范数
  27. # 求图片的范数
  28. norms.append(linalg.norm(vector, 2))
  29. a, b = vectors
  30. a_norm, b_norm = norms
  31. # dot返回的是点积,对二维数组(矩阵)进行计算
  32. res = dot(a / a_norm, b / b_norm)
  33. return res
  34. image1 = Image. open( '010.jpg')
  35. image2 = Image. open( '011.jpg')
  36. cosin = image_similarity_vectors_via_numpy(image1, image2)
  37. print( '图片余弦相似度', cosin)

哈希相似度 Hash

图片相相似度计算(Hash、SSIM、compareHist)_南苏月的博客-CSDN博客_图像相似度计算公式

哈希算法-图片相似度计算_chenghaoy的博客-CSDN博客_均值哈希算法相似度

实现图片相似度比较的hash算法有三种:均值哈希算法(AHash),差值哈希算法(DHash),感知哈希算法 (PHash)。

  • aHash:平均值哈希。速度比较快,但是常常不太精确。
  • pHash:感知哈希。精确度比较高,但是速度方面较差一些。
  • dHash:差异值哈希。精确度较高,且速度也非常快。

哈希不是以严格的方式计算Hash值,而是以更加相对的方式计算哈希值,因为“相似”与否,就是一种相对的判定。值哈希算法差值哈希算法感知哈希算法都是值越小,相似度越高,取值为0-64,即汉明距离中,64位的hash值有多少不同。三直方图单通道直方图的值为0-1,值越大,相似度越高。

均值哈希算法(AHash)

一张图片就是一个二维信号,它包含了不同频率的成分。亮度变化小的区域是低频成分,它描述大范围的信息。而亮度变化剧烈的区域(比如物体的边缘)就是高频的成分,它描述具体的细节。或者说高频可以提供图片详细的信息,而低频可以提供一个框架。 而一张大的,详细的图片有很高的频率,而小图片缺乏图像细节,所以都是低频的。所以我们平时的下采样,也就是缩小图片的过程,实际上是损失高频信息的过程。均值哈希算法就是利用图片的低频信息。
具体步骤

  1. 缩小尺寸:将图片缩小到8x8的尺寸,总共64个像素。这一步的作用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异。
  2. 简化色彩:将缩小后的图片,转为64级灰度。也就是说,所有像素点总共只有64种颜色。
  3. 计算平均值:计算所有64个像素的灰度平均值
  4. 比较像素的灰度:将每个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0。
  5. 计算哈希值:将上一步的比较结果,组合在一起,就构成了一个64位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证所有图片都采用同样次序就行了。

最后得到两张图片的指纹信息后,计算两组64位数据的汉明距离,即对比数据不同的位数,不同位数越少,表明图片的相似度越大。
分析: 均值哈希算法计算速度快,不受图片尺寸大小的影响,但是缺点就是对均值敏感,例如对图像进行伽马校正或直方图均衡就会影响均值,从而影响最终的hash值。

感知哈希算法 (PHash)

感知哈希算法是一个比均值哈希算法更为健壮的一种算法,与均值哈希算法的区别在于感知哈希算法是通过DCT(离散余弦变换)来获取图片的低频信息。
离散余弦变换(DCT)是种图像压缩算法,它将图像从像素域变换到频率域。然后一般图像都存在很多冗余和相关性的,所以转换到频率域之后,只有很少的一部分频率分量的系数才不为0,大部分系数都为0(或者说接近于0)。经过DCT变换后的系数矩阵从左上角到右下角频率越来越高,因此图片的能量主要保留在左上角的低频系数上了。
具体步骤

  1. 缩小尺寸:pHash以小图片开始,但图片大于8x8,32x32是最好的。这样做的目的是简化了DCT的计算,而不是减小频率。
  2. 简化色彩:将图片转化成灰度图像,进一步简化计算量。
  3. 计算DCT:计算图片的DCT变换,得到32x32的DCT系数矩阵。
  4. 缩小DCT:虽然DCT的结果是32x32大小的矩阵,但我们只要保留左上角的8x8的矩阵,这部分呈现了图片中的最低频率。
  5. 计算平均值:如同均值哈希一样,计算DCT的均值。
  6. 计算hash值:这是最主要的一步,根据8x8的DCT矩阵,设置0或1的64位的hash值,大于等于DCT均值的设为”1”,小于DCT均值的设为“0”。组合在一起,就构成了一个64位的整数,这就是这张图片的指纹。

分析: 结果并不能告诉我们真实性的低频率,只能粗略地告诉我们相对于平均值频率的相对比例。只要图片的整体结构保持不变,hash结果值就不变。能够避免伽马校正或颜色直方图被调整带来的影响。对于变形程度在25%以内的图片也能精准识别。

差值哈希算法(DHash)

比pHash,dHash的速度要快的多,相比aHash,dHash在效率几乎相同的情况下的效果要更好,它是基于渐变实现的。
主要步骤:

  1. 缩小尺寸:收缩到8x9(高x宽)的大小,一遍它有72的像素点
  2. 转化为灰度图:把缩放后的图片转化为256阶的灰度图。
  3. 计算差异值:dHash算法工作在相邻像素之间,这样每行9个像素之间产生了8个不同的差异,一共8行,则产生了64个差异值
  4. 获得指纹:如果左边的像素比右边的更亮,则记录为1,否则为0.

代码实现


   
   
  1. import cv2
  2. import numpy as np
  3. #感知哈希算法
  4. def pHash( image):
  5. image = cv2.resize(image,( 32, 32), interpolation=cv2.INTER_CUBIC)
  6. image = cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)
  7. # cv2.imshow('image', image)
  8. # cv2.waitKey(0)
  9. # cv2.destroyAllWindows()
  10. # 将灰度图转为浮点型,再进行dct变换
  11. dct = cv2.dct(np.float32(image))
  12. # print(dct)
  13. # 取左上角的8*8,这些代表图片的最低频率
  14. # 这个操作等价于c++中利用opencv实现的掩码操作
  15. # 在python中进行掩码操作,可以直接这样取出图像矩阵的某一部分
  16. dct_roi = dct[ 0: 8, 0: 8]
  17. avreage = np.mean(dct_roi)
  18. hash = []
  19. for i in range(dct_roi.shape[ 0]):
  20. for j in range(dct_roi.shape[ 1]):
  21. if dct_roi[i,j] > avreage:
  22. hash.append( 1)
  23. else:
  24. hash.append( 0)
  25. return hash
  26. #均值哈希算法
  27. def aHash( image):
  28. #缩放为8*8
  29. image=cv2.resize(image,( 8, 8),interpolation=cv2.INTER_CUBIC)
  30. #转换为灰度图
  31. image=cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)
  32. avreage = np.mean(image)
  33. hash = []
  34. for i in range(image.shape[ 0]):
  35. for j in range(image.shape[ 1]):
  36. if image[i,j] > avreage:
  37. hash.append( 1)
  38. else:
  39. hash.append( 0)
  40. return hash
  41. #差值感知算法
  42. def dHash( image):
  43. #缩放9*8
  44. image=cv2.resize(image,( 9, 8),interpolation=cv2.INTER_CUBIC)
  45. #转换灰度图
  46. image=cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)
  47. # print(image.shape)
  48. hash=[]
  49. #每行前一个像素大于后一个像素为1,相反为0,生成哈希
  50. for i in range( 8):
  51. for j in range( 8):
  52. if image[i,j]>image[i,j+ 1]:
  53. hash.append( 1)
  54. else:
  55. hash.append( 0)
  56. return hash
  57. #计算汉明距离
  58. def Hamming_distance( hash1,hash2):
  59. num = 0
  60. for index in range( len(hash1)):
  61. if hash1[index] != hash2[index]:
  62. num += 1
  63. return num
  64. if __name__ == "__main__":
  65. image_file1 = './data/cartoon1.jpg'
  66. image_file2 = './data/cartoon3.jpg'
  67. img1 = cv2.imread(image_file1)
  68. img2 = cv2.imread(image_file2)
  69. hash1 = pHash(img1)
  70. hash2 = pHash(img2)
  71. dist = Hamming_distance(hash1, hash2)
  72. #将距离转化为相似度
  73. similarity = 1 - dist * 1.0 / 64
  74. print(dist)
  75. print(similarity)

直方图距离

图片的相似度--直方图距离 - 知乎 (zhihu.com)

直方图距离描述

方法描述:按照某种距离度量的标准对两幅图像的直方图进行相似度的测量。

图像直方图丰富的图像细节信息,反映了图像像素点的概率分布情况,统计每一个像素点强度值具有的像素个数。

  • 优点:计算量比较小。
  • 缺点: 直方图反应的是图像灰度值得概率分布,并没有图像的空间位置信息在里面,因此,会出现误判;比如纹理结构相同,但明暗不同的图像,应该相似度很高,但实际结果是相似度很低,而纹理结构不同,但明暗相近的图像,相似度却很高。

计算步骤:

  1. 将图片resize,得到相同大小的图片;
  2. 将图片灰度,灰度后图片的像素在[0-255]之间;
  3. 计算图片的直方图数据,统计相同像素点的概率分布;
  4. 根据相关性计算公式,计算两个图片直方图的相关性。

代码实现


   
   
  1. import cv2
  2. def calculate( image1, image2):
  3. # 灰度直方图算法
  4. # 计算单通道的直方图的相似值
  5. hist1 = cv2.calcHist([image1], [ 0], None, [ 256], [ 0.0, 255.0])
  6. hist2 = cv2.calcHist([image2], [ 0], None, [ 256], [ 0.0, 255.0])
  7. # 计算直方图的重合度
  8. degree = 0
  9. for i in range( len(hist1)):
  10. if hist1[i] != hist2[i]:
  11. degree = degree + ( 1 - abs(hist1[i] - hist2[i]) / max(hist1[i], hist2[i]))
  12. else:
  13. degree = degree + 1
  14. degree = degree / len(hist1)
  15. return degree
  16. def classify_hist_with_split( image1, image2, size=(256, 256)):
  17. # RGB每个通道的直方图相似度
  18. # 将图像resize后,分离为RGB三个通道,再计算每个通道的相似值
  19. image1 = cv2.resize(image1, size)
  20. image2 = cv2.resize(image2, size)
  21. sub_image1 = cv2.split(image1)
  22. sub_image2 = cv2.split(image2)
  23. sub_data = 0
  24. for im1, im2 in zip(sub_image1, sub_image2):
  25. sub_data += calculate(im1, im2)
  26. sub_data = sub_data / 3
  27. return sub_data

互信息(Mutual Information)

归一化互信息(NMI)评价指标_易_的博客-CSDN博客_nmi指标

信息熵、相对熵、互信息 

信息熵:对信息进行量化度量。可以理解为某种特定信息的出现概率。

相对熵:(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence,KL散度)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量 。在在信息理论中,相对熵等价于两个概率分布的信息熵(Shannon entropy)的差值。

互信息:(Mutual Information)是信息论里一种有用的信息度量,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不肯定性。

归一化互信息:将互信息放在[0,1]之间,容易评价算法的好坏。 

 代码实现


   
   
  1. from sklearn import metrics as mr
  2. img1 = cv2.imread( '1.png')
  3. img2 = cv2.imread( '2.png')
  4. img2 = cv2.resize(img2, (img1.shape[ 1], img1.shape[ 0])
  5. nmi = mr.normalized_mutual_info_score(img1.reshape(- 1), img2.reshape(- 1))

像素匹配 pixelmatch

GitHub - whtsky/pixelmatch-py: A fast pixel-level image comparison library, originally created to compare screenshots in tests.

利用像素之间的匹配来计算相似度 


   
   
  1. # https://github.com/whtsky/pixelmatch-py
  2. # 第一步:
  3. pip install pixelmatch
  4. # 第二步:
  5. from PIL import Image
  6. from pixelmatch.contrib.PIL import pixelmatch
  7. img_a = Image. open( "a.png")
  8. img_b = Image. open( "b.png")
  9. img_diff = Image.new( "RGBA", img_a.size)
  10. # note how there is no need to specify dimensions
  11. mismatch = pixelmatch(img_a, img_b, img_diff, includeAA= True)
  12. img_diff.save( "diff.png")

举例1——使用四种方法计算图片相似度:MD5、直方图、PSNR、SSIM

有史以来最全的图像相似度算法_小殊小殊的博客-CSDN博客_图片相似度

使用四种方法计算图片相似度:MD5(粗暴的md5比较,判断是否完全相同)、直方图、PSNR、SSIM。


   
   
  1. import numpy as np
  2. from PIL import Image
  3. from skimage.metrics import structural_similarity
  4. import cv2
  5. import os
  6. import hashlib
  7. import math
  8. '''
  9. 粗暴的md5比较 返回是否完全相同
  10. '''
  11. def md5_similarity( img1_path, img2_path):
  12. file1 = open(img1_path, "rb")
  13. file2 = open(img2_path, "rb")
  14. md = hashlib.md5()
  15. md.update(file1.read())
  16. res1 = md.hexdigest()
  17. md = hashlib.md5()
  18. md.update(file2.read())
  19. res2 = md.hexdigest()
  20. return res1 == res2
  21. def normalize( data):
  22. return data / np. sum(data)
  23. '''
  24. 直方图相似度
  25. 相关性比较 cv2.HISTCMP_CORREL:值越大,相似度越高
  26. 相交性比较 cv2.HISTCMP_INTERSECT:值越大,相似度越高
  27. 卡方比较 cv2.HISTCMP_CHISQR:值越小,相似度越高
  28. 巴氏距离比较 cv2.HISTCMP_BHATTACHARYYA:值越小,相似度越高
  29. '''
  30. def hist_similarity( img1, img2, hist_size=256):
  31. imghistb1 = cv2.calcHist([img1], [ 0], None, [hist_size], [ 0, 256])
  32. imghistg1 = cv2.calcHist([img1], [ 1], None, [hist_size], [ 0, 256])
  33. imghistr1 = cv2.calcHist([img1], [ 2], None, [hist_size], [ 0, 256])
  34. imghistb2 = cv2.calcHist([img2], [ 0], None, [hist_size], [ 0, 256])
  35. imghistg2 = cv2.calcHist([img2], [ 1], None, [hist_size], [ 0, 256])
  36. imghistr2 = cv2.calcHist([img2], [ 2], None, [hist_size], [ 0, 256])
  37. distanceb = cv2.compareHist(normalize(imghistb1), normalize(imghistb2), cv2.HISTCMP_CORREL)
  38. distanceg = cv2.compareHist(normalize(imghistg1), normalize(imghistg2), cv2.HISTCMP_CORREL)
  39. distancer = cv2.compareHist(normalize(imghistr1), normalize(imghistr2), cv2.HISTCMP_CORREL)
  40. meandistance = np.mean([distanceb, distanceg, distancer])
  41. return meandistance
  42. def PSNR( img1, img2):
  43. mse = np.mean((img1/ 255. - img2/ 255.) ** 2)
  44. if mse == 0:
  45. return 100
  46. PIXEL_MAX = 1
  47. return 20 * math.log10(PIXEL_MAX / math.sqrt(mse))
  48. def SSIM( img1, img2):
  49. gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
  50. gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
  51. # 计算两个灰度图像之间的结构相似度
  52. score, diff = structural_similarity(gray1, gray2, win_size= 101, full= True)
  53. # diff = (diff * 255).astype("uint8")
  54. # print("SSIM:{}".format(score))
  55. return score, diff
  56. def ssim( img1, img2):
  57. u_true = np.mean(img1)
  58. u_pred = np.mean(img2)
  59. var_true = np.var(img1)
  60. var_pred = np.var(img2)
  61. std_true = np.sqrt(var_true)
  62. std_pred = np.sqrt(var_pred)
  63. c1 = np.square( 0.01* 7)
  64. c2 = np.square( 0.03* 7)
  65. ssim = ( 2 * u_true * u_pred + c1) * ( 2 * std_pred * std_true + c2)
  66. denom = (u_true ** 2 + u_pred ** 2 + c1) * (var_pred + var_true + c2)
  67. return ssim/denom
  68. def MSE( img1,img2):
  69. mse = np.mean( (img1 - img2) ** 2 )
  70. return mse
  71. if __name__ == '__main__':
  72. img1_path = '1_08.jpg'
  73. img2_path = '2_08.jpg'
  74. img1 = cv2.imread(img1_path)
  75. img2 = cv2.imread(img2_path)
  76. # 1.粗暴的md5比较 返回是否完全相同
  77. print( 'md5_similarity:', md5_similarity(img1_path, img2_path))
  78. # 2.直方图相似度
  79. print( 'hist_similarity:', hist_similarity(img1, img2))
  80. # 3.PSNR
  81. print( 'PSNR:', PSNR(img1, img2))
  82. # 4.SSIM
  83. print( '灰度图SSIM:', SSIM(img1, img2)[ 0])
  84. print( 'RGB图_ssim:', ssim(img1, img2))
  85. print( 'RGB图_structural_similarity:', structural_similarity(img1,img2, multichannel= True))
  86. # 5.MSE
  87. print( 'MSE:', MSE(img1, img2))

效果展示:

两图

   
   
  1. md5_similarity: False
  2. hist_similarity: 0.1344447074377748
  3. PSNR: 12.980832701995697
  4. 灰度图SSIM: 0.5966066785284522
  5. RGB图_ssim: 0.9917382398395064
  6. RGB图_structural_similarity: 0.525279441002218
  7. MSE: 86.05895699395074

举例2——批量计算PSNR、SSIM、MSE


   
   
  1. import os
  2. import numpy as np
  3. from glob import glob
  4. import cv2
  5. from skimage.measure import compare_mse,compare_ssim,compare_psnr
  6. def read_img( path):
  7. return cv2.imread(path,cv2.IMREAD_GRAYSCALE)
  8. def mse( tf_img1, tf_img2):
  9. return compare_mse(tf_img1,tf_img2)
  10. def psnr( tf_img1, tf_img2):
  11. return compare_psnr(tf_img1,tf_img2)
  12. def ssim( tf_img1, tf_img2):
  13. return compare_ssim(tf_img1,tf_img2)
  14. def main():
  15. WSI_MASK_PATH1 = 'E:/test/A/'
  16. WSI_MASK_PATH2 = 'E:/test/B/'
  17. path_real = glob(os.path.join(WSI_MASK_PATH1, '*.jpg'))
  18. path_fake = glob(os.path.join(WSI_MASK_PATH2, '*.jpg'))
  19. list_psnr = []
  20. list_ssim = []
  21. list_mse = []
  22. for i in range( len(path_real)):
  23. t1 = read_img(path_real[i])
  24. t2 = read_img(path_fake[i])
  25. result1 = np.zeros(t1.shape,dtype=np.float32)
  26. result2 = np.zeros(t2.shape,dtype=np.float32)
  27. cv2.normalize(t1,result1,alpha= 0,beta= 1,norm_type=cv2.NORM_MINMAX,dtype=cv2.CV_32F)
  28. cv2.normalize(t2,result2,alpha= 0,beta= 1,norm_type=cv2.NORM_MINMAX,dtype=cv2.CV_32F)
  29. mse_num = mse(result1, result2)
  30. psnr_num = psnr(result1, result2)
  31. ssim_num = ssim(result1, result2)
  32. list_psnr.append(psnr_num)
  33. list_ssim.append(ssim_num)
  34. list_mse.append(mse_num)
  35. #输出每张图像的指标:
  36. print( "{}/". format(i+ 1)+ "{}:". format( len(path_real)))
  37. str = "\\"
  38. print( "image:"+path_real[i][(path_real[i].index( str)+ 1):])
  39. print( "PSNR:", psnr_num)
  40. print( "SSIM:", ssim_num)
  41. print( "MSE:",mse_num)
  42. #输出平均指标:
  43. print( "平均PSNR:", np.mean(list_psnr)) # ,list_psnr)
  44. print( "平均SSIM:", np.mean(list_ssim)) # ,list_ssim)
  45. print( "平均MSE:", np.mean(list_mse)) # ,list_mse)
  46. if __name__ == '__main__':
  47. main()

举例3——计算Y通道或RGB通道的PSNR和SSIM

 Python计算Y通道或者RGB通道的PSNR_SSIM_未知量0520的博客-CSDN博客_folder_gt 

  • 添加:PSNR/SSIM计算结果,保存文件(txt),便于后期导入excel列表分析。
  • 代码介绍:PSNR_SSIM效果和matlab计算的结果一致(本人没有验证)。
  • 代码功能,能够计算图像的Y_channel 或者RGB_channel状态下的PSNR_SSIM结果
  • 用法:将真实图片,生成图片分别放入两个文件夹,代码中有选择两种方式(only_Y, RGB),切换注释相应的代码行即可。
  • 注意:安装相应的代码库。

   
   
  1. '''
  2. calculate the PSNR and SSIM.
  3. same as MATLAB's results
  4. https://blog.csdn.net/qq_45041702/article/details/120997743
  5. '''
  6. import os
  7. import math
  8. import numpy as np
  9. import cv2
  10. import glob
  11. import os
  12. def main():
  13. # Configurations
  14. # GT - Ground-truth;
  15. # Gen: Generated / Restored / Recovered images
  16. folder_GT = '/content/drive/MyDrive/Experiment/codes/26_PSNR_SSIM/All/groud_truth_png'
  17. folder_Gen = '/content/drive/MyDrive/Experiment/codes/26_PSNR_SSIM/All/1_ESPCN_png'
  18. #save the psnr and ssim score by txt
  19. PS_path = '/content/drive/MyDrive/Experiment/codes/26_PSNR_SSIM/Score'
  20. if not os.path.exists(PS_path):
  21. print( 'NO_path to sava the NIQE_Score,Making....')
  22. os.makedirs(PS_path)
  23. else:
  24. print( "The NIQE_Score_path has existed")
  25. PS_txt = open(PS_path + '/score1.txt', 'a' )
  26. crop_border = 4 # same with scale
  27. suffix = '' # suffix for Gen images
  28. test_Y = False # True: test Y channel only; False: test RGB channels
  29. PSNR_all = []
  30. SSIM_all = []
  31. img_list = sorted(glob.glob(folder_GT + '/*'))
  32. if test_Y:
  33. print( 'Testing Y channel.')
  34. else:
  35. print( 'Testing RGB channels.')
  36. for i, img_path in enumerate(img_list):
  37. base_name = os.path.splitext(os.path.basename(img_path))[ 0]
  38. print(base_name)
  39. im_GT = cv2.imread(img_path) / 255.
  40. #不同格式图像
  41. # im_Gen = cv2.imread(os.path.join(folder_Gen, base_name + suffix + '.tif')) / 255.
  42. im_Gen = cv2.imread(os.path.join(folder_Gen, base_name + suffix + '.png')) / 255.
  43. if test_Y and im_GT.shape[ 2] == 3: # evaluate on Y channel in YCbCr color space
  44. im_GT_in = bgr2ycbcr(im_GT)
  45. im_Gen_in = bgr2ycbcr(im_Gen)
  46. else:
  47. im_GT_in = im_GT
  48. im_Gen_in = im_Gen
  49. # crop borders
  50. if crop_border == 0:
  51. cropped_GT = im_GT_in
  52. cropped_Gen = im_Gen_in
  53. else:
  54. if im_GT_in.ndim == 3:
  55. cropped_GT = im_GT_in[crop_border:-crop_border, crop_border:-crop_border, :]
  56. cropped_Gen = im_Gen_in[crop_border:-crop_border, crop_border:-crop_border, :]
  57. elif im_GT_in.ndim == 2:
  58. cropped_GT = im_GT_in[crop_border:-crop_border, crop_border:-crop_border]
  59. cropped_Gen = im_Gen_in[crop_border:-crop_border, crop_border:-crop_border]
  60. else:
  61. raise ValueError( 'Wrong image dimension: {}. Should be 2 or 3.'. format(im_GT_in.ndim))
  62. #不同通道数(Y通道和RGB三个通道),需要更改
  63. # calculate PSNR and SSIM
  64. # PSNR = calculate_psnr(cropped_GT * 255, cropped_Gen * 255)
  65. PSNR = calculate_rgb_psnr(cropped_GT * 255, cropped_Gen * 255)
  66. SSIM = calculate_ssim(cropped_GT * 255, cropped_Gen * 255)
  67. print( '{:3d} - {:25}. \tPSNR: {:.4f} dB, \tSSIM: {:.4f}'. format(
  68. i + 1, base_name, PSNR, SSIM))
  69. PSNR_all.append(PSNR)
  70. SSIM_all.append(SSIM)
  71. single_info = '[{}],PSNR(dB),{:.4f}, SSIM,{:.4f}'
  72. PS_txt.write(single_info. format(base_name,PSNR,SSIM))
  73. PS_txt.write( "\n")
  74. Mean_format = 'Mean_PSNR: {:.4f}, Mean_SSIM: {:.4f}'
  75. Mean_PSNR = sum(PSNR_all) / len(PSNR_all)
  76. Mean_SSIM = sum(SSIM_all) / len(SSIM_all)
  77. print(Mean_format. format(Mean_PSNR,Mean_SSIM))
  78. PS_txt.write(Mean_format. format(Mean_PSNR,Mean_SSIM))
  79. PS_txt.write( '\n')
  80. def calculate_psnr( img1, img2):
  81. # img1 and img2 have range [0, 255]
  82. img1 = img1.astype(np.float64)
  83. img2 = img2.astype(np.float64)
  84. mse = np.mean((img1 - img2)** 2)
  85. if mse == 0:
  86. return float( 'inf')
  87. return 20 * math.log10( 255.0 / math.sqrt(mse))
  88. def calculate_rgb_psnr( img1, img2):
  89. """calculate psnr among rgb channel, img1 and img2 have range [0, 255]
  90. """
  91. n_channels = np.ndim(img1)
  92. sum_psnr = 0
  93. for i in range(n_channels):
  94. this_psnr = calculate_psnr(img1[:,:,i], img2[:,:,i])
  95. sum_psnr += this_psnr
  96. return sum_psnr/n_channels
  97. def ssim( img1, img2):
  98. C1 = ( 0.01 * 255)** 2
  99. C2 = ( 0.03 * 255)** 2
  100. img1 = img1.astype(np.float64)
  101. img2 = img2.astype(np.float64)
  102. kernel = cv2.getGaussianKernel( 11, 1.5)
  103. window = np.outer(kernel, kernel.transpose())
  104. mu1 = cv2.filter2D(img1, - 1, window)[ 5:- 5, 5:- 5] # valid
  105. mu2 = cv2.filter2D(img2, - 1, window)[ 5:- 5, 5:- 5]
  106. mu1_sq = mu1** 2
  107. mu2_sq = mu2** 2
  108. mu1_mu2 = mu1 * mu2
  109. sigma1_sq = cv2.filter2D(img1** 2, - 1, window)[ 5:- 5, 5:- 5] - mu1_sq
  110. sigma2_sq = cv2.filter2D(img2** 2, - 1, window)[ 5:- 5, 5:- 5] - mu2_sq
  111. sigma12 = cv2.filter2D(img1 * img2, - 1, window)[ 5:- 5, 5:- 5] - mu1_mu2
  112. ssim_map = (( 2 * mu1_mu2 + C1) * ( 2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) *
  113. (sigma1_sq + sigma2_sq + C2))
  114. return ssim_map.mean()
  115. def calculate_ssim( img1, img2):
  116. '''calculate SSIM
  117. the same outputs as MATLAB's
  118. img1, img2: [0, 255]
  119. '''
  120. if not img1.shape == img2.shape:
  121. raise ValueError( 'Input images must have the same dimensions.')
  122. if img1.ndim == 2:
  123. return ssim(img1, img2)
  124. elif img1.ndim == 3:
  125. if img1.shape[ 2] == 3:
  126. ssims = []
  127. for i in range(img1.shape[ 2]):
  128. ssims.append(ssim(img1[..., i], img2[..., i]))
  129. return np.array(ssims).mean()
  130. elif img1.shape[ 2] == 1:
  131. return ssim(np.squeeze(img1), np.squeeze(img2))
  132. else:
  133. raise ValueError( 'Wrong input image dimensions.')
  134. def bgr2ycbcr( img, only_y=True):
  135. '''same as matlab rgb2ycbcr
  136. only_y: only return Y channel
  137. Input:
  138. uint8, [0, 255]
  139. float, [0, 1]
  140. '''
  141. in_img_type = img.dtype
  142. img.astype(np.float32)
  143. if in_img_type != np.uint8:
  144. img *= 255.
  145. # convert
  146. if only_y:
  147. rlt = np.dot(img, [ 24.966, 128.553, 65.481]) / 255.0 + 16.0
  148. else:
  149. rlt = np.matmul(img, [[ 24.966, 112.0, - 18.214], [ 128.553, - 74.203, - 93.786],
  150. [ 65.481, - 37.797, 112.0]]) / 255.0 + [ 16, 128, 128]
  151. if in_img_type == np.uint8:
  152. rlt = rlt. round()
  153. else:
  154. rlt /= 255.
  155. return rlt.astype(in_img_type)
  156. if __name__ == '__main__':
  157. main()

结果展示: 

举例4——调用SSIM算法,结合opencv阈值分割和轮廓提取,找两图差异

SSIM---结构相似性算法(OpenCV+Python)_hedgehog__的博客-CSDN博客_python 结构相似性 通过调用skimage.metrics包下的SSIM算法,结合OpenCV的阈值分割及轮廓提取算法,找出两幅图像的差异。


   
   
  1. # https://blog.csdn.net/hedgehog__/article/details/107257755
  2. import cv2
  3. import imutils
  4. from skimage.metrics import structural_similarity
  5. import time
  6. from skimage import filters, img_as_ubyte
  7. import numpy as np
  8. start = time.time()
  9. # 读入图像,转为灰度图像
  10. src = cv2.imread( 'C:/Users/Hedgehog/Desktop/right.jpg')
  11. img = cv2.imread( 'C:/Users/Hedgehog/Desktop/left.jpg')
  12. grayA = cv2.cvtColor(src, cv2.COLOR_BGR2GRAY)
  13. grayB = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
  14. # 计算两个灰度图像之间的结构相似度
  15. (score, diff) = structural_similarity(grayA, grayB, win_size= 101, full= True)
  16. diff = (diff * 255).astype( "uint8")
  17. cv2.namedWindow( "diff", cv2.WINDOW_NORMAL)
  18. cv2.imshow( "diff", diff)
  19. print( "SSIM:{}". format(score))
  20. # 找到不同的轮廓以致于可以在表示为 '不同'的区域放置矩形
  21. # 全局自适应阈值分割(二值化),返回值有两个,第一个是阈值,第二个是二值图像
  22. dst = cv2.threshold(diff, 0, 255, cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)[ 1]
  23. cv2.namedWindow( "threshold", cv2.WINDOW_NORMAL)
  24. cv2.imshow( 'threshold', dst)
  25. # findContours找轮廓,返回值有两个,第一个是轮廓信息,第二个是轮廓的层次信息(“树”状拓扑结构)
  26. # cv2.RETR_EXTERNAL:只检测最外层轮廓
  27. # cv2.CHAIN_APPROX_SIMPLE:压缩水平方向、垂直方向和对角线方向的元素,保留该方向的终点坐标,如矩形的轮廓可用4个角点表示
  28. contours, hierarchy = cv2.findContours(dst.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
  29. print(contours)
  30. newimg = np.zeros(dst.shape, np.uint8) # 定义一个和图像分割处理后相同大小的黑色图
  31. # drawContours画轮廓,将找到的轮廓信息画出来
  32. cv2.drawContours(newimg, contours, - 1, ( 255, 255, 255), 1)
  33. cv2.namedWindow( "contours", cv2.WINDOW_NORMAL)
  34. cv2.imshow( 'contours', newimg)
  35. # cnts = cnts[0] if imutils.is_cv3() else cnts[0] 取findContours函数的第一个返回值,即取轮廓信息
  36. # 找到一系列区域,在区域周围放置矩形
  37. for c in contours:
  38. (x, y, w, h) = cv2.boundingRect(c) # boundingRect函数:计算轮廓的垂直边界最小矩形,矩形是与图像上下边界平行的
  39. cv2.rectangle(src, (x, y), (x + w, y + h), ( 0, 255, 0), 2) # rectangle函数:使用对角线的两点pt1,pt2画一个矩形轮廓
  40. cv2.rectangle(img, (x, y), (x + w, y + h), ( 0, 255, 0), 2) # 画矩形的图, pt1, pt2,(对角线两点的坐标), 矩形边框的颜色,矩形边框的粗细
  41. end = time.time()
  42. print(end - start)
  43. # 用cv2.imshow 展现最终对比之后的图片
  44. cv2.namedWindow( "right", cv2.WINDOW_NORMAL)
  45. cv2.imshow( 'right', src)
  46. cv2.namedWindow( "left", cv2.WINDOW_NORMAL)
  47. cv2.imshow( 'left', img)
  48. cv2.waitKey( 0)
  49. cv2.destroyAllWindows()

效果展示:

参考博客

计算两幅图像的相似度总结_JerrySing的博客-CSDN博客_compare_ssim

Python计算图片之间的相似度_~小疯子~的博客-CSDN博客_python 识别图片相似度

有史以来最全的图像相似度算法_小殊小殊的博客-CSDN博客_图片相似度

(超详细)实现计算图片相似度MSE和PSNR_Natuki丶的博客-CSDN博客_计算psnr和mse

Python批量计算PSNR、SSIM、MSE_杨杨杨Garrick的博客-CSDN博客

图像质量评价指标MSE/PSNR/SSIM_秋天的从从的博客-CSDN博客_图像mse

图片相相似度计算(Hash、SSIM、compareHist)_南苏月的博客-CSDN博客_图像相似度计算公式

【OpenCV-Python】:图像PSNR、SSIM、MSE计算_米开朗琪罗~的博客-CSDN博客_图像的mse计算

Python计算Y通道或者RGB通道的PSNR_SSIM_未知量0520的博客-CSDN博客_folder_gt

scikit-image 0.18.0版本计算PSNR、SSIM、MSE(Python代码)_YZBshanshan的博客-CSDN博客_scikit-image版本

图像质量评估中的PSNR和SSIM的定义,公式和含义_·如烟·的博客-CSDN博客_psnr定义

【基础知识】图像去噪评估—PSNR和SSIM - 梁君牧 - 博客园 (cnblogs.com)

SSIM---结构相似性算法(OpenCV+Python)_hedgehog__的博客-CSDN博客_python 结构相似性

图片相似度计算方法总结 - 知乎 (zhihu.com)

相似度计算方法(三) 余弦相似度_潘永青的博客-CSDN博客_余弦相似度

图片的相似度--直方图距离 - 知乎 (zhihu.com)

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: PSNR(Peak Signal-to-Noise Ratio)和SSIM(Structural Similarity Index)是用来衡量两幅图像之间相似度的指标。 PSNR是使用峰值信噪比来度量图像质量的一种方法。它使用均方误差(MSE)来衡量两幅图像之间的差异,MSE越小代表图像之间的差异越小,相似度越高。PSNR计算公式为: PSNR = 10 * log10((255^2) / MSE) 其255是像素值的最大可能值,MSE两幅图像像素之间差值的平方和的平均值。 SSIM是一种结构相似性指数,它不仅考虑了亮度的差异,还考虑了对比度和结构的差异。SSIM计算公式为: SSIM = (2 * μx * μy + c1) * (2 * σxy + c2) / ((μx^2 + μy^2 + c1) * (σx^2 + σy^2 + c2)) 其μx和μy分别是两幅图像的平均值,σx^2和σy^2分别是两幅图像的方差,σxy是两幅图像的协方差,c1和c2是预定义的常数,用来避免分母为零的情况。 在MATLAB,可以使用相关函数来计算PSNRSSIM。比如,使用函数`imread`读取两幅图像,然后使用函数`imresize`来确保图像的大小一致,再使用函数`psnr`来计算PSNR,使用函数`ssim`来计算SSIM。 示例代码如下: ```matlab image1 = imread('image1.jpg'); image2 = imread('image2.jpg'); image1 = imresize(image1, size(image2)); % 确保图像大小一致 psnrValue = psnr(image1, image2); ssimValue = ssim(image1, image2); ``` 以上代码读取了两幅图像,并将它们的大小调整为一致,然后分别计算PSNRSSIM的值。 希望以上内容对您有所帮助。 ### 回答2: 图像相似度PSNR(Peak Signal-to-Noise Ratio)和SSIM(Structural Similarity Index)是常用于评估图像质量的指标,用于度量两幅图像之间的相似程度。以下是使用Matlab实现这两种相似度指标的方法: 1. PSNR实现PSNR是通过比较原始图像和重建图像的均方误差来评估图像质量的。在Matlab,可以使用以下代码计算PSNR: ```matlab % 读取原始图像和重建图像 originalImage = imread('原始图像路径'); reconstructedImage = imread('重建图像路径'); % 计算MSE(均方误差) mse = sum(sum((double(originalImage) - double(reconstructedImage)).^2)) / (numel(originalImage)); % 计算PSNR psnr = 10 * log10((255^2) / mse); ``` 2. SSIM实现SSIM通过比较原始图像和重建图像的亮度、对比度和结构相似性来评估图像质量的。在Matlab,可以使用以下代码计算SSIM: ```matlab % 读取原始图像和重建图像 originalImage = imread('原始图像路径'); reconstructedImage = imread('重建图像路径'); % 计算SSIM [ssimValue, ~] = ssim(originalImage, reconstructedImage); ``` 需要注意的是,上述代码图像路径需要根据实际情况进行修改,同时保证原始图像和重建图像具有相同的大小。 这样就可以使用Matlab来实现图像相似度PSNRSSIM的计算了。 ### 回答3: 图像相似度是用来衡量两幅图像之间的相似程度的一种指标。PSNR(Peak Signal-to-Noise Ratio)和SSIM(Structural Similarity Index)是常用的图像相似度评价方法。在Matlab,可以通过以下步骤实现这两种方法的计算。 首先,对于PSNR,可以通过以下几个步骤实现: 1. 使用imread函数读取待比较的两幅图像,分别命名为img1和img2。 2. 使用im2double函数将图像转换为double类型的数据,并将像素值缩放到0-1范围内。 3. 计算两幅图像的均方误差(MSE),可以通过以下代码实现mse = sum(sum((img1 - img2).^2)) / numel(img1); 其,.^2表示对每个元素进行平方运算,numel函数用于计算图像的像素总数。 4. 计算PSNR值,使用以下代码实现psnr = 10 * log10(1^2 / mse); 其,1表示图像的最大像素值。 其次,对于SSIM,可以通过以下几个步骤实现: 1. 使用ssim函数计算两幅图像SSIM指数,可以通过以下代码实现ssim_val = ssim(img1, img2); 其,img1和img2为待比较的两幅图像。 2. 处理ssim_val的输出结果。 通过以上步骤,我们可以得到两幅图像之间的PSNRSSIM值。这些值越高,表示两幅图像相似度越高。需要注意的是,这两种方法都只能用于评价图像在感知上的相似度,并不能完全代替人眼对图像的主观判断。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值