单一图像超分辨率处理
文章平均质量分 67
单一图像超分辨率处理
Cloudeeeee
共同成长,共同进步!
展开
-
卷积神经网络基础---批量归一化(BN层、 Batch Normalization)
卷积神经网络基础---批量归一化(BN层、 Batch Normalization)1. BN层的作用2. 源码3. 在超分辨率处理过程中BN层的缺点1. BN层的作用BN层使得神经网络能够设定较高的初始学习率,加速模型收敛过程;将数据进行归一化处理,即在网络的每一层输入的时候,插入了一个归一化层,然后再进入网络的下一层。这样能提高网络的泛化能力,使得网络能够使用误差更小的L2损失函数。为什么要将数据进行归一化处理?因为一旦训练数据与测试数据的分布不同,网络的泛化能力就会大大降低;此外,一旦每原创 2021-09-09 15:01:22 · 2841 阅读 · 0 评论 -
卷积神经网络基础---卷积层Convolution
卷积神经网络基础---卷积层Convolution卷积层、卷积核与卷积操作卷积层、卷积核与卷积操作通常,在神经网络中的卷积层、卷积核指的都是同一个东西—滤波器。如下图所示是一个3x3的滤波器(卷积核)(实际上它是一个sobel算子)每一幅彩色图像实际上都是由一个二维矩阵+三个通道组成的,二维矩阵里存放着图像的灰度值,三个通道分别为R(红)、G(绿)、B(蓝)。所谓卷积层提取浅层特征,指的就是将滤波器覆盖到图像像素上进行卷积操作。如有如下的图像对它进行卷积操作,即对应元素相乘求和,然后向右滑原创 2021-09-09 11:12:38 · 309 阅读 · 0 评论 -
Unsupervised Degradation Representation Learning for Blind Super-Resolution(基于无监督退化表示学习的盲超分辨率处理)
文章目录Abstract(摘要)1. Introduction2. Related Work2.1. Single Image Super-Resolution2.2. Contrastive Learning(对比学习)Unsupervised Degradation Representation Learning for Blind Super-Resolution(基于无监督退化表示学习的盲超分辨率处理)Abstract(摘要)gap目前的SR方法大多是基于固定且已知的一种下采样方法,如双三次原创 2021-08-04 10:33:25 · 4259 阅读 · 0 评论 -
.pth文件与.state文件
文章目录1. .pth、.pt、.pkl以及.state等文件有什么区别?2. 两种不同的保存方式2.1 通过state_dict参数来保存和读取模型的权重参数2.1 通过state_dict参数来保存和读取整个模型1. .pth、.pt、.pkl以及.state等文件有什么区别?通常,在神经网络的训练过程中,会产生.pth、.pt、.pkl以及.state等文件。使用不同的后缀对于保存什么样的模型是没有影响的。在torch.save()函数中,torch只是调用了Python的pickle来完成,而且原创 2021-07-08 16:52:27 · 2394 阅读 · 0 评论 -
图像感知质量指标完全使用指南---perceptual index
图像感知质量指标—perceptual index随着单一图像超分辨率的研究的深入,单一图像超分辨率的研究分为两个分支。其中之一是以psnr与ssim值为评价标准,另一个则是以pi值为评价标准。pi值代表的是一幅图像的主观感知质量,往往pi值越高,图像看起来就更加舒服。pi值越低,则图像的感知质量越好。这与psnr值是相反的。pi值也被用于2018年的PIRM-SR大赛。通常,具有较低的pi值的同时,psnr值也会较低。如何使用?下载MATLAB代码(PIRM2018-master)将你用自己的原创 2021-07-02 16:34:23 · 5701 阅读 · 9 评论 -
超分辨率论文(state of the art)的图像评价指标psnr及pi指标
文章目录1. RCAN(面向psnr)set5(psnr)set14(psnr)2. EDSR(面向psnr)set5(psnr)set14(psnr)3. EPSR(面向pi)set5(pi)set14(pi)4. ESRGAN(面向pi)set5(psnr)set14(psnr)pi值1. RCAN(面向psnr)set5(psnr)x2:38.33x3:34.85x4:32.73x8:27.47set14(psnr)x2:34.23x3:30.76x4:28.98x8:25.4原创 2021-07-02 15:53:06 · 3403 阅读 · 0 评论