NeRF 模型评价指标PSNR,MS-SSIM, LPIPS 详解和python实现

PSNR: 

PSNR(Peak Signal-to-Noise Ratio,峰值信噪比)是一种常用于衡量图像或视频质量的指标。它用于比较原始图像与经过处理或压缩后的图像之间的差异。PSNR通过计算原始图像与重建图像之间的均方误差(Mean Squared Error,MSE)来量化它们之间的差异。 PSNR的计算公式如下:

其中,MAX表示像素值的最大可能取值(例如,对于8位图像,MAX为255),MSE是原始图像与重建图像之间的均方误差

 PSNR的值越高,表示图像的质量与原始图像的相似度越高。常见的PSNR范围通常在20到50之间,数值越高表示图像质量越好。然而,PSNR作为一种图像质量评估指标也有其局限性。

它主要关注均方误差,忽略了人眼对于不同频率成分的敏感度差异以及感知失真的影响。因此,在某些情况下,PSNR可能不能准确地反映人类感知到的图像质量差异。

在实际应用中,除了PSNR,还有其他更全面和准确的图像质量评估指标,例如结构相似性指标(Structural Similarity Index,SSIM)、感知质量评估指标(Perceptual Quality Assessment,如VIF、MSSSIM)等,这些指标综合考虑了人眼感知和图像结构信息,能够提供更全面的图像质量评估。

 PSNR代码:


   
   
  1. from PIL import Image
  2. import numpy as np
  3. img1 = np.array(Image. open( 'original.jpg')).astype(np.float64)
  4. img2 = np.array(Image. open( 'compress.jpg')).astype(np.float64)
  5. def psnr( img1, img2):
  6. mse = np.mean((img1-img2)** 2)
  7. if mse == 0:
  8. return float( 'inf')
  9. else:
  10. return 20*np.log10( 255/np.sqrt(mse))
  11. if __name__ == "__main__":
  12. print(psnr(img1, img2))

或者


   
   
  1. from skimage.metrics import peak_signal_noise_ratio as psnr
  2. from PIL import Image
  3. import numpy as np
  4. img1 = np.array(Image. open( 'original.jpg'))
  5. img2 = np.array(Image. open( 'compress.jpg'))
  6. if __name__ == "__main__":
  7. print(psnr(img1, img2))

意义:
PSNR接近 50dB ,代表压缩后的图像仅有些许非常小的误差。
PSNR大于 30dB ,人眼很难查觉压缩后和原始影像的差异。
PSNR介于 20dB 到 30dB 之间,人眼就可以察觉出图像的差异。
PSNR介于 10dB 到 20dB 之间,人眼还是可以用肉眼看出这个图像原始的结构,且直观上会判断两张图像不存在很大的差异。
PSNR低于 10dB,人类很难用肉眼去判断两个图像是否为相同,一个图像是否为另一个图像的压缩结果。

MS-SSIM: 

MS-SSIM(Multi-Scale Structural Similarity Index)是一种用于评估图像质量的指标,它是结构相似性指数(SSIM)在多个尺度上的扩展。

SSIM是一种衡量两幅图像相似性的指标,它考虑了图像的亮度、对比度和结构等方面。而MS-SSIM在SSIM的基础上引入了多个尺度,以更好地捕捉图像的细节信息。

具体而言,MS-SSIM的计算过程如下:

  1. 将原始图像和重建图像划分为不同尺度的子图像。

  2. 对每个尺度的子图像计算SSIM指数。

  3. 对每个尺度的SSIM指数进行加权平均,得到最终的MS-SSIM值。

MS-SSIM的值范围在0到1之间,数值越接近1表示重建图像与原始图像的相似度越高,图像质量越好。

相比于PSNR,MS-SSIM考虑了图像的结构信息,能够更好地反映人眼对图像质量的感知。它在评估图像质量方面具有更高的准确性和敏感性。

需要注意的是,MS-SSIM计算复杂度相对较高,因为它需要对图像进行多尺度的分解和计算。然而,由于其良好的性能,在图像压缩、图像处理等领域得到广泛应用,并且被认为是一种较为可靠的图像质量评估指标。

MS-SSIM代码实现:


   
   
  1. import cv2
  2. import numpy as np
  3. def ms_ssim( img1, img2):
  4. # 转换为灰度图像
  5. img1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
  6. img2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
  7. # 计算MS-SSIM
  8. weights = np.array([ 0.0448, 0.2856, 0.3001, 0.2363, 0.1333]) # 不同尺度的权重
  9. levels = weights.size
  10. mssim = np.zeros(levels)
  11. mcs = np.zeros(levels)
  12. for i in range(levels):
  13. ssim_map, cs_map = ssim(img1, img2)
  14. mssim[i] = np.mean(ssim_map)
  15. mcs[i] = np.mean(cs_map)
  16. img1 = cv2.resize(img1, (img1.shape[ 1] // 2, img1.shape[ 0] // 2), interpolation=cv2.INTER_LINEAR)
  17. img2 = cv2.resize(img2, (img2.shape[ 1] // 2, img2.shape[ 0] // 2), interpolation=cv2.INTER_LINEAR)
  18. # 整体MS-SSIM计算
  19. overall_mssim = np.prod(mcs[:- 1] ** weights[:- 1]) * (mssim[- 1] ** weights[- 1])
  20. return overall_mssim
  21. def ssim( img1, img2, k1=0.01, k2=0.03, win_size=11, L=255):
  22. C1 = (k1 * L) ** 2
  23. C2 = (k2 * L) ** 2
  24. # 计算均值和方差
  25. mu1 = cv2.GaussianBlur(img1, (win_size, win_size), 1.5)
  26. mu2 = cv2.GaussianBlur(img2, (win_size, win_size), 1.5)
  27. mu1_sq = mu1 ** 2
  28. mu2_sq = mu2 ** 2
  29. mu1_mu2 = mu1 * mu2
  30. sigma1_sq = cv2.GaussianBlur(img1 * img1, (win_size, win_size), 1.5) - mu1_sq
  31. sigma2_sq = cv2.GaussianBlur(img2 * img2, (win_size, win_size), 1.5) - mu2_sq
  32. sigma12 = cv2.GaussianBlur(img1 * img2, (win_size, win_size), 1.5) - mu1_mu2
  33. # 计算相似性度量
  34. ssim_map = (( 2 * mu1_mu2 + C1) * ( 2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2))
  35. cs_map = ( 2 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2)
  36. return ssim_map, cs_map
  37. # 读取图像
  38. img1 = cv2.imread( 'image1.jpg')
  39. img2 = cv2.imread( 'image2.jpg')
  40. # 计算MS-SSIM
  41. ms_ssim_score = ms_ssim(img1, img2)
  42. print( "MS-SSIM score:", ms_ssim_score)

 LPIPS: 

LPIPS(Learned Perceptual Image Patch Similarity)是一种基于学习的感知图像补丁相似性指标,用于评估图像的感知质量。

LPIPS的设计灵感来自于人眼对图像的感知,它通过学习一个神经网络模型来近似人类感知的视觉相似性。该模型使用卷积神经网络(CNN)对图像的局部补丁进行特征提取,并计算补丁之间的相似性得分。

具体而言,LPIPS的计算过程如下:

  1. 使用预训练的CNN模型(通常是基于深度学习的图像分类模型)提取原始图像和重建图像的特征表示。

  2. 将提取的特征表示作为输入,通过一个距离度量函数计算图像之间的相似性得分。

  3. 相似性得分表示图像之间在感知上的差异,数值越小表示图像之间的感知差异越小,图像质量越好。

LPIPS的得分范围通常是0到1之间,数值越小表示图像的感知质量越高。

与传统的图像质量评估指标(如PSNR和SSIM)相比,LPIPS更加注重于人眼感知的因素,能够更好地捕捉到图像之间的感知差异。它在图像生成、图像编辑等任务中被广泛应用,特别适用于需要考虑感知质量的场景。

需要注意的是,LPIPS是一种基于学习的指标,它的性能受到所使用的CNN模型和训练数据的影响。因此,在使用LPIPS进行图像质量评估时,需要使用与训练模型相似的数据集和预训练模型,以保证评估结果的准确性和可靠性。

 LPIPS代码实现:


   
   
  1. import torch
  2. import torchvision.transforms as transforms
  3. from PIL import Image
  4. from models import dist_model
  5. # 加载预训练的LPIPS模型
  6. model = dist_model.DistModel()
  7. model.initialize(model= 'net-lin', net= 'alex', use_gpu= True)
  8. # 图像预处理
  9. preprocess = transforms.Compose([
  10. transforms.Resize(( 256, 256)),
  11. transforms.ToTensor()
  12. ])
  13. # 加载图像并进行预处理
  14. image1 = Image. open( 'image1.jpg').convert( 'RGB')
  15. image2 = Image. open( 'image2.jpg').convert( 'RGB')
  16. image1 = preprocess(image1).unsqueeze( 0)
  17. image2 = preprocess(image2).unsqueeze( 0)
  18. # 将图像转换为PyTorch张量并计算LPIPS
  19. with torch.no_grad():
  20. lpips_score = model.forward(image1, image2).item()
  21. print( "LPIPS score:", lpips_score)
  PSNR,MS-SSIM, LPIPS三者对比:

PSNR(Peak Signal-to-Noise Ratio):PSNR是一种常用的图像质量评估指标,用于衡量原始图像与重建图像之间的差异。它通过计算均方误差(MSE)来量化两个图像之间的差异,数值越高表示图像质量越好。

MS-SSIM(Multi-Scale Structural Similarity Index):MS-SSIM是一种结构相似性指标,它在计算图像相似性时考虑了多个尺度的信息。与传统的结构相似性指标(SSIM)相比,MS-SSIM将图像分解成多个尺度,并在每个尺度上计算结构相似性指标,最后取平均值作为最终的相似性评估。MS-SSIM相较于PSNR更能反映人眼对于图像感知的差异。

LPIPS(Learned Perceptual Image Patch Similarity):LPIPS是一种学习的感知图像补丁相似性指标,它通过训练神经网络来学习图像补丁之间的感知相似性。LPIPS考虑了人眼对于图像感知的敏感性,通过计算图像补丁之间的感知距离来评估图像质量。与传统的结构相似性指标(如SSIM)相比,LPIPS在学习感知距离时更加准确和全面。

这些指标在图像质量评估中都有广泛的应用。PSNR主要用于衡量图像的重建误差,而MS-SSIM和LPIPS更加关注人眼对图像感知的差异。在实际应用中,不同的指标可以结合使用,以综合评估图像质量。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值