基于深度神经网络的图像噪声分类与去噪

本篇博文主要介绍对不同类型的图像噪声进行分类和去噪。

发表论文

The classification and denoising of image noise based on deep neural networks (SCI)

项目简介

现有的去噪方法取决于噪声类型的信息,通常由专家分类。换句话说,那些方法没有应用计算方法来对图像噪声类型进行预分类。此外,这些方法假设图像的噪声类型是像高斯噪声那样的单类噪声类型,这限制了实际应用中去噪方法的选择和能力。
与现有方法不同,我们采用一种新框架,不仅可以对单一类型噪声进行分类和去噪,而且可以根据实际需要对混合类型的噪声进行分类和去噪

我们的方法和现有方法对比
在这里插入图片描述

数据集

  1. Mnist:Subset(10000张)
  2. cifar10:Subset(10000张)
  3. BSD500:Fullset(500张)

方法

设计一个包含2个网络的框架:噪声分类网络去噪网络

  1. 噪音分类网络:对图像所包含的噪声类型进行识别分类
  2. 去噪网络:根据噪声分类网络判别的噪声类型选择相应的去噪模型去除噪声,进而得到干净图像

总体框架图如下所示
在这里插入图片描述

项目实现过程

数据预处理

针对原始BSD500数据集,对其进行灰度转换,得到它的灰度图。
对于Mnist(gray)Cifar10(RGB)BSD500(Gray&RGB)这4个数据集,在每个数据集上添加Gaussian、Salt、Speckle、Poisson噪音(可以组合),最终得到

  1. 单类噪音数据集4类:Ga,Sa,Sp ,Po
  2. 两类噪音数据集6类:Ga&Sa,Ga&Sp,Ga&Po,Sa&Sp,Sa&Po,Sp&Po
  3. 多类噪音数据集5类(3和4):Ga&Sa&Sp,Ga&Sa&Po,Ga&Sp&Po,Sa&Sp&Po, Ga&Sa&Sp&Po
  4. 混合噪音数据集共15类:综合上述1,2,3

数据预处理流程如下所示
在这里插入图片描述

噪声分类网络

网络模型
在这里插入图片描述

详细参数
在这里插入图片描述
利用Mnist和Cifar10的噪音数据集,对比几个分类网络,筛选出噪音识别准确率最高的网络(Our)。
在这里插入图片描述

为了和去噪网络的数据集匹配,将BSD的混合噪音也输入了我们设计的CNN网络,训练了一个分类模型。结果如下:
在这里插入图片描述

去噪网络设计

在这里插入图片描述

去噪网络主要由三种类型的层组成,如上图所示,由三种不同的颜色表示

  1. 在第一层,我们使用96个尺寸的3×3×c滤波器进行卷积并生成96个特征图,我们在输入到下一层时使用整流线性单元的变量LReLU 来实现非线性。 这里,c表示训练图像的通道数,c表示灰度1,c表示彩色图3。
  2. 从第2层到第(d-1)层,使用96个尺寸为3×3×96的滤波器 并且还使用了LReLU,并在卷积层和LReLU层之间进行了批量归一化操作,从而可以提高训练速度并加快收敛过程。
  3. 对于最后一层,它使用大小为3×3×96的c滤波器重建输出。 它还删除了所有下采样层,因为这会大大降低我们模型的去噪效果。

把BSD500的8种单类噪音(Gray和RGB各4种)数据输入设计的去噪网络,得到了8个单类噪声去噪模型。

测试

  1. 如果图片被分类网络识别出仅包含单类噪声,就选择相应的单类去噪模型去除噪声
  2. 如果图片被分类网络识别出包含多种噪声,根据所包含的噪声类型,依次选择多个单类去噪模型去除噪声

去噪结果分析

去噪好坏的评价标准

  1. PSNR(Peak Signal to Noise Ratio)峰值信噪比
    在这里插入图片描述

其中,MSE表示当前图像X和参考图像Y的均方误差(Mean Square Error),H、W分别为图像的高度和宽度;n为每像素的比特数,一般取8,即像素灰阶数为256.。PSNR的单位是dB数值越大表示失真越小越好。PSNR是最普遍和使用最为广泛的一种图像客观评价指标,然而它是基于对应像素点间的误差,即基于误差敏感的图像质量评价。由于并未考虑到人眼的视觉特性(人眼对空间频率较低的对比差异敏感度较高,人眼对亮度对比差异的敏感度较色度高,人眼对一个区域的感知结果会受到其周围邻近区域的影响等),因而经常出现评价结果与人的主观感觉不一致的情况。为此我们还引入了下面一个评价指标

  1. SSIM(structural similarity)结构相似性。它分别从亮度、对比度、结构三方面度量图像相似性。
    在这里插入图片描述

其中 μ X \mu_X μX μ Y \mu_Y μY分别表示图像 X X X Y Y Y的均值, σ X \sigma_X σX σ Y \sigma_Y σY分别表示图像 X X X Y Y Y的方差, σ X Y \sigma_{XY} σXY表示图像 X X X Y Y Y的协方差,即

在这里插入图片描述

C 1 C_1 C1 C 2 C_2 C2 C 3 C_3 C3为常数,为了避免分母为0的情况,通常取 C 1 = ( K 1 × L ) 2 C_1=(K_1 \times L)^2 C1=(K1×L)2, C 2 = ( K 2 × L ) 2 C2=(K_2 \times L)^2 C2=(K2×L)2, C 3 = C 2 / 2 C_3=C_2/2 C3=C2/2, 一般地 K 1 = 0.01 K_1=0.01 K1=0.01, K 2 = 0.03 K_2=0.03 K2=0.03, L = 255 ​ L=255​ L=255, 则

在这里插入图片描述

SSIM取值范围[0,1],值越大,表示图像失真越小越好。

算法流程

各种噪声的添加方式此处不在赘述,详细参见前文论文。下图为算法流程
在这里插入图片描述

实验结果分析

单类噪声去除

PSNR和SSIM评价数值

在这里插入图片描述

可视化对比图

在这里插入图片描述
与其它方法的对比 (高斯噪声)
在这里插入图片描述
在这里插入图片描述

Discussion:灰度图像去噪效果不错,但是彩色图像噪声除高斯外,效果不好。提出一种名为 RGBSM 的方法,即先分割(Split)彩色图像通道,用灰度去噪模型去噪,然后再进行合并(Merge)为去噪后的彩色图像。效果图如下所示
在这里插入图片描述
在这里插入图片描述
可以发现彩色图像去噪效果有了明显提升。PSNR和SSIM也有了明显提升,参见前表。

多类噪声去除

当分类模型发现图像包含多类噪声时,我们是通过多个单类去噪模型去除图像噪声,流程图如下
在这里插入图片描述

两类噪声

在这里插入图片描述
在这里插入图片描述

多类噪声
三类、四类

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

未来工作

  1. 尝试构建一种可以直接去除多类图像噪声的去噪网络,并设计更加好的优化损失函数,这样不仅能减少模型的训练时间,还能提升多类噪声去除模型的性能。
  2. 考虑将图像噪声分类网络和图像去噪网络在特征提取的卷积层部分进行融合,然后再分为两个分支,一个用于图像噪声分类识别,一个用于图像去噪,这样能大量减少模型训练的参数,并且两个网络可以一同优化训练。
  3. 使用一些对图像质量要求很高领域的数据,比如医学领域的CT图像,雷达遥感领域的SAR图像等。
  4. 尝试使用一些轻量级的网络,例如SqueezeNet、MobileNet、ShuffleNet 等来训练预测速度快且精度也不低的轻量级图像去噪模型,以满足实际应用场景中要求模型小并且前向推断速度快等实时性需求。
  • 12
    点赞
  • 76
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 18
    评论
卷积神经(Convolutional Neural Network,CNN)是一种在图像分类任务中表现出色的深度学习模型。随着技术的不断发展,卷积神经网络图像分类研究也在不断取得进展,并有以下几个展望: 1. 更高的准确率:目前的卷积神经网络已经在许多图像分类任务上取得了很好的结果,但仍然存在一些难以解决的问题。未来的研究将致力于进一步提高模型的准确率,尤其是在复杂场景下的图像分类任务。 2. 小样本学习:在实际应用中,往往会遇到样本数量有限的情况。针对小样本学习问题,未来的研究将探索如何通过更有效的数据增强技术、迁移学习和元学习等方法来提高模型在小样本上的泛化能力。 3. 可解释性和可视化:卷积神经网络通常被认为是黑盒模型,难以解释其分类决策的原因。未来的研究将致力于提高模型的可解释性,探索如何通过可视化技术和注意力机制等方法来理解模型的决策过程。 4. 多模态图像分类:除了传统的RGB图像,现实世界中还存在许多其他类型的图像,如红外图像、深度图像等。未来的研究将探索如何将多模态信息融合到卷积神经网络中,提高模型在多模态图像分类任务上的性能。 5. 鲁棒性和安全性:卷积神经网络在面对对抗性攻击和噪声等干扰时表现较差。未来的研究将致力于提高模型的鲁棒性和安全性,探索如何设计更具鲁棒性的网络结构和训练方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

bluesliuf

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值