![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 85
seniusen
一个乐观的终身学习者!
展开
-
人物交互算法(HOI)学习笔记之 ——QPIC
HOI 检测,transformer原创 2022-08-27 17:52:03 · 3562 阅读 · 3 评论 -
3-D Quasi-Recurrent Neural Network for Hyperspectral Image Denoising
1. 摘要作者设计了一个 QRU3D 块来对高光谱图像进行去噪,其中的 3D 卷积负责提取空间和光谱的结构相关性,而近似循环池化函数则用来捕获光谱方向的全局相关性。此外,作者还引入了交替方向结构,以消除单向的因果关系,并且无需额外的计算成本。2. 方法介绍2.1. QRU3DQRU3D 块的结构如上图所示,包含两个主要步骤:3D 卷积和近似循环池化。其中输入 III 的大小 1...原创 2020-04-21 11:16:25 · 457 阅读 · 0 评论 -
Noise2Void - Learning Denoising from Single Noisy Images
1. 摘要Noise2Noise (N2N) 可以利用一对独立的噪声图片来训练去噪模型,在这里,作者更进一步提出了一个策略 Noise2Void (N2V) ,只利用噪声图像即可。因此 N2V 可以被应用在一些其它方法不能应用的领域,特别是生物医学图像,在这里干净或者噪声目标图像经常是不可能获取到的。2. 方法介绍噪声图像的产生 x=s+nx=s+nx=s+n,可以看作是从下面的联...原创 2020-04-21 11:04:45 · 4601 阅读 · 0 评论 -
Zero-Shot Hyperspectral Image Denoising With Separable Image Prior
1. 摘要大量的高光谱数据收集起来比较困难,所以作者提出了一种自监督策略,可以从一张退化图像构建出训练数据来训练一个去噪网络而不需要任何干净数据。另外,高光谱图像的光谱波段数一般比较多,计算负载较大,因此作者引入深度可分离卷积来实施去噪,既能捕获高光谱图像的结构先验又能减小模型复杂性。2. 方法介绍2.1. 深度可分离卷积的性能现在,我们考虑一个图像填充任务。假设 A∈{0,1}...原创 2020-04-21 10:47:15 · 397 阅读 · 0 评论 -
CondenseNet: An Efficient DenseNet using Learned Group Convolutions
1. 摘要作者提出了一个前所未有高效的新奇网络结构,称之为 CondenseNet,该结构结合了密集连接性和可学习的分组卷积模块。密集连接性有利于网络中的特征复用,而可学习的分组卷积模块则可以移除多余的特征复用之间的连接。在测试的时候,训练好的模型可以使用标准的分组卷积来实现,在实际中计算非常高效。2. 介绍和相关工作深度学习模型一般都是在多个 GPU 上进行训练,然后再在计算资源...原创 2019-12-16 10:53:27 · 790 阅读 · 0 评论 -
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design
1. 摘要最近,神经网络的架构设计都是基于计算复杂度的间接度量,比如 FLOPs。然而,直接的度量比如运行速度,其实也会依赖于内存访问和平台特性等其它因素。因此本文建议直接在目标平台上用直接度量进行测试。基于一系列控制条件实验,作者提出了设计高效网络结构的一些实用指导思想,并据此提出了一个称之为 ShuffleNet V2 的新结构。2. 介绍为了衡量计算复杂度,一个广泛采用的度量...原创 2019-12-16 10:51:42 · 270 阅读 · 0 评论 -
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices
1. 摘要作者介绍了一种计算非常高效的 CNN 结构称之为 ShuffleNet,它是专门为计算资源非常有限的移动设备设计的。这种新的结构主要用到了两种操作:分组点卷积(pointwise group convolution )和通道打乱(channel shuffle),这可以极大降低计算代价同时保持模型的准确率。2. 介绍和相关工作经典的 Xception 和 ResNeXt ...原创 2019-12-16 10:49:57 · 387 阅读 · 0 评论 -
Searching for MobileNetV3
1. 摘要基于网络架构搜索和 NetAdapt 算法,作者提出了新一代的 MobileNets,并通过一些先进的结构对其进行了改进。作者发布了两个模型 MobileNetV3-Large 和 MobileNetV3-Small 分别应用于资源较多和较少的场景,这些模型也可以被调整并应用到目标检测和语义分割等其它领域。2. 高效的网络构建块MobileNetV1 引入了深度可分离卷积...原创 2019-12-16 10:47:58 · 346 阅读 · 0 评论 -
MobileNetV2: Inverted Residuals and Linear Bottlenecks
1. 摘要作者提出了一个新的网络架构 MobileNetV2,该架构基于反转残差结构,其中的跳跃连接位于较瘦的瓶颈层之间。中间的扩展层则利用轻量级的深度卷积来提取特征引入非线性,而且,为了维持网络的表示能力作者去除了较窄层的非线性激活函数。2. 讨论和直觉2.1. 深度可分离卷积MobileNetV2 采用和 MobileNetV1 一样 3×3 大小的深度可分离卷积,相比标准卷积可以...原创 2019-12-11 21:28:08 · 399 阅读 · 0 评论 -
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
1. 摘要作者提出了一系列应用于移动和嵌入式视觉的称之为 MobileNets 的高效模型,这些模型采用深度可分离卷积来构建轻量级网络。作者还引入了两个简单的全局超参数来有效地权衡时延和准确率,以便于网络设计者针对自己任务的限制来选择大小合适的模型。2. 相关工作设计轻量级的高效模型大致可以分为两个方向:压缩预训练好的模型或者直接训练小的网络。针对前者,模型压缩主要是基于量化、哈...原创 2019-12-11 21:25:10 · 835 阅读 · 0 评论 -
SqueezeNet: AlexNet-level accuracy with 50x fewer parameters
1. 摘要最近关于深度卷积神经网络的研究都集中在提高准确率上,对于准确率在同一个水平的网络,更小的网络结构至少有三个优点:1. 在分布式训练的时候需要更少的跨服务器通信;2. 从云端导出新模型到自动驾驶汽车上需要更小的带宽;3. 在 FPGA 等其它硬件内存有限的情况下更容易部署。作者提出了一个称之为 SqueezeNet 的网络结构,可以达到和 Alex-Net 同等水平的准确率但参数...原创 2019-12-11 21:23:36 · 375 阅读 · 0 评论 -
CBAM: Convolutional Block Attention Module
1. 摘要作者提出了一个简单但有效的注意力模块 CBAM,给定一个中间特征图,我们沿着空间和通道两个维度依次推断出注意力权重,然后与原特征图相乘来对特征进行自适应调整。由于 CBAM 是一个轻量级的通用模块,它可以无缝地集成到任何 CNN 架构中,额外开销忽略不计,并且可以与基本 CNN 一起进行端到端的训练。在不同的分类和检测数据集上,将 CBAM 集成到不同的模型中后,模型的表...原创 2019-05-13 08:43:40 · 12684 阅读 · 6 评论 -
RCAN——Image Super-Resolution Using Very Deep Residual Channel Attention Networks
1. 摘要在图像超分辨领域,卷积神经网络的深度非常重要,但过深的网络却难以训练。低分辨率的输入以及特征包含丰富的低频信息,但却在通道间被平等对待,因此阻碍了网络的表示能力。为了解决上述问题,作者提出了一个深度残差通道注意力网络(RCAN)。特别地,作者设计了一个残差中的残差(RIR)结构来构造深层网络,每个 RIR 结构由数个残差组(RG)以及长跳跃连接(LSC)组成,每个 RG 则包含...原创 2019-05-12 11:46:28 · 2209 阅读 · 2 评论 -
Non-local Neural Networks
1. 摘要卷积和循环神经网络中的操作都是一次处理一个局部邻域,在这篇文章中,作者提出了一个非局部的操作来作为捕获远程依赖的通用模块。受计算机视觉中经典的非局部均值方法启发,我们的非局部操作计算某一位置的响应为所有位置特征的加权和。而且,这个模块可以插入到许多计算机视觉网络架构中去。2. 介绍在深度神经网络中,捕获远程依赖非常重要。卷积神经网络依靠大的感知野来对远程依赖建模,这是通过...原创 2019-05-16 10:38:48 · 414 阅读 · 0 评论 -
RAM: Residual Attention Module for Single Image Super-Resolution
1. 摘要注意力机制是深度神经网络的一个设计趋势,其在各种计算机视觉任务中都表现突出。但是,应用到图像超分辨领域的注意力模型大都没有考虑超分辨和其它高层计算机视觉问题的天然不同。作者提出了一个新的注意力模型,由针对 SR 问题优化的新的通道和空间注意力机制以及将这两者结合起来的融合机制组成。基于此,作者设计了一个残差注意力模块(RAM)以及用来超分辨的 SRRAM 网络。2. 介绍...原创 2019-05-15 10:20:46 · 1302 阅读 · 0 评论 -
CSAR——Channel-wise and Spatial Feature Modulation Network for Single Image Super-Resolution
1. 摘要CNN 中的特征包含着不同类型的信息,它们对图像重建的贡献也不一样。然而,现在的大多数 CNN 模型却缺少对不同信息的辨别能力,因此也就限制了模型的表示容量。另一方面,随着网络的加深,来自前面层的长期信息很容易在后面的层被削弱甚至消失,这显然不利于图像的超分辨。作者提出了一个通道和空间特征调制(CSFM)网络,其中一系列特征调制记忆(FMM)模块级联在一起来将低分辨率特征...原创 2019-05-13 19:46:17 · 3081 阅读 · 5 评论 -
How Does Batch Normalization Help Optimization?
1. 摘要BN 是一个广泛应用的用于快速稳定地训练深度神经网络的技术,但是我们对其有效性的真正原因仍然所知甚少。输入分布的稳定性和 BN 的成功之间关系很小,BN 对训练过程更根本的影响是:它让优化更加平滑。这种平滑让梯度更加可预测更加稳定,从而加速训练。2. BN 和 internal covariate shift在原始论文 Batch Normalization: Accel...原创 2019-04-30 12:14:30 · 450 阅读 · 0 评论 -
Toward Convolutional Blind Denoising of Real Photographs
本文提出了一个针对真实图像的盲卷积去噪网络,增强了深度去噪模型的鲁棒性和实用性。摘要作者提出了一个 CBD-Net,由噪声估计子网络和去噪子网络两部分组成。作者设计了一个更加真实的噪声模型,同时考虑了信号依赖的噪声和相机内部处理的噪声。基于真实噪声模型合成的图片和真实的噪声图片被联合在一起对网络进行训练。噪声模型除了高斯噪声,真实的图片噪声更加复杂,并且是信...原创 2018-10-23 14:41:38 · 1543 阅读 · 0 评论 -
超光谱图像去噪基准
根据是否联合利用超光谱图像的空间和光谱信息,高光谱图像去噪技术可以分为两类。第一类就是将传统 2-D 图像去噪的方法直接应用到超光谱图像的每个频带上去,称为逐带去噪。第二类就是联合利用空间和光谱信息来进行去噪,称为联合去噪,这又可以大致分为基于变换域的方法和基于空间域的方法。除此之外,由于深度理论的兴起,最近也出现了一些基于深度学习的超光谱图像去噪方法。逐带去噪[BM3D] Image De...原创 2018-11-24 16:45:53 · 1261 阅读 · 0 评论 -
图像质量评价指标之 PSNR 和 SSIM
1. PSNR (Peak Signal-to-Noise Ratio) 峰值信噪比给定一个大小为 m×nm×nm×n 的干净图像 III 和噪声图像 KKK,均方误差 (MSE)(MSE)(MSE) 定义为:MSE=1mn∑i=0m−1∑j=0n−1[I(i,j)−K(i,j)]2MSE = \frac{1}{mn}\sum_{i=0}^{m-1}\sum_{j=0}^{n-1}[I(i, ...原创 2018-11-24 16:50:08 · 4218 阅读 · 0 评论 -
如何正确地给图像添加高斯噪声
高斯噪声是一个均值为 0 方差为 σn2\sigma_n^2σn2 的正态分布,是一个加性噪声。但要正确地给图片添加高斯噪声,还要取决于程序中读入图片的数据格式。如果图片的数据格式为 uint8,也即数据的范围为 [0, 255],那么直接生成对应方差的噪声,然后加到图片上去。# clean_image uint8 (128, 128)noise_image = clean_image +...原创 2018-11-25 21:37:53 · 10787 阅读 · 5 评论 -
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
###1. 摘要训练深层的神经网络非常困难,因为在训练的过程中,随着前面层数参数的改变,每层输入的分布也会随之改变。这需要我们设置较小的学习率并且谨慎地对参数进行初始化,因此训练过程比较缓慢。作者将这种现象称之为 internal covariate shift,通过对每层的输入进行归一化来解决这个问题。引入 BN 后,我们可以不用太在意参数的初始化,同时使用更大的学习率,而且也...原创 2019-03-28 20:53:35 · 2523 阅读 · 1 评论 -
PReLU——Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification
1. 摘要在 ReLUReLUReLU 的基础上作者提出了 PReLUPReLUPReLU,在几乎没有增加额外参数的前提下既可以提升模型的拟合能力,又能减小过拟合风险。针对 ReLU/PReLUReLU/PReLUReLU/PReLU 的矫正非线性,作者设计了一个鲁棒的的参数初始化方法。2. 介绍在过去几年,随着更强大网络模型的构建和有效防止过拟合策略的设计,我们在视觉识别任务上取...原创 2019-04-16 15:51:53 · 1443 阅读 · 0 评论 -
Inception——Going deeper with convolutions
1. 摘要作者提出了一个代号为 Inception 的卷积神经网络架构,这也是作者在 2014 年 ImageNet 大规模视觉识别挑战赛中用于分类和检测的新技术。通过精心的设计,该架构提高了网络内计算资源的利用率,因而允许在增加网络的深度和宽度的同时保持计算预算不变。在作者提交的 ILSVRC14 中使用的一个特定的模型称为 GoogLeNet ,一个 22 层深的网络,在分类和...原创 2019-04-21 23:09:20 · 271 阅读 · 0 评论 -
AlexNet——ImageNet Classification with Deep Convolutional Neural Networks
1. 摘要本文的模型采用了 5 层的卷积,一些层后面还紧跟着最大池化层,和 3 层的全连接,最后是一个 1000 维的 softmax 来进行分类。为了减少过拟合,在全连接层采取了 dropout,实验结果证明非常有效。2. 数据集ImageNet 数据集包含了超过 15,000,000 大约 22,000 类标记好的高分辨率图片,ILSVRC 包含 ImageNet 中 1000...原创 2019-04-17 10:09:12 · 211 阅读 · 0 评论 -
ResNet——Deep Residual Learning for Image Recognition
1. 摘要更深的神经网络通常更难训练,作者提出了一个残差学习的框架,使得比过去深许多的的网络训连起来也很容易。在 ImageNet 数据集上,作者设计的网络达到了 152 层,是 VGG-19 的 8 倍,但却有着更低的复杂性。通过集成学习模型最终取得了 3.57% 的错误率,获得了 ILSVRC 2015 比赛的第一名。表示的深度对于许多视觉识别任务而言至关重要,仅仅由于特别深的...原创 2019-04-22 13:23:20 · 625 阅读 · 0 评论 -
Xavier——Understanding the difficulty of training deep feedforward neural networks
1. 摘要本文尝试解释为什么在深度的神经网络中随机初始化会让梯度下降表现很差,并且在此基础上来帮助设计更好的算法。作者发现 sigmoid 函数不适合深度网络,在这种情况下,随机初始化参数会让较深的隐藏层陷入到饱和区域。作者提出了一个新的参数初始化方法,称之为 Xavier 初始化,来帮助深度网络更快地收敛。2. 激活函数的作用以及训练过程中的饱和现象2.1. 三种激活函数...原创 2019-04-18 10:31:43 · 190 阅读 · 0 评论 -
ReLU——Deep Sparse Rectifier Neural Networks
1. 摘要ReLU 相比 Tanh 能产生相同或者更好的性能,而且能产生真零的稀疏表示,非常适合自然就稀疏的数据。采用 ReLU 后,在大量的有标签数据下,有没有无监督预训练模型取得的最好效果是一样的,这可以被看做是训练深层有监督网络的一个新的里程碑。2. 背景2.1. 神经元科学的观察对脑能量消耗的研究表明,神经元以稀疏和分布的方式编码信息,同时活跃的神经元的百分比估计在 1%...原创 2019-04-19 16:37:28 · 4547 阅读 · 0 评论 -
VGG——Very deep convolutional networks for large-scale image recognition
1. 摘要在使用非常小(3×3)的卷积核情况下,作者对逐渐增加网络的深度进行了全面的评估,通过设置网络层数达 16-19 层,最终效果取得了显著提升。2. 介绍近来,卷积神经网络在大规模图像识别领域取得了巨大的成功,这一方面归功于大规模公开数据的出现,另一方面则是计算能力的提升。在 AlexNet 的基础上大家进行了很多的尝试来进行改进,一条线是在卷积层利用更小的感知窗口和更小的步长,另...原创 2019-04-20 12:16:28 · 406 阅读 · 0 评论 -
DenseNet——Densely Connected Convolutional Networks
1. 摘要传统的 L 层神经网络只有 L 个连接,DenseNet 的结构则有 L(L+1)/2 个连接,每一层都和前面的所有层进行连接,所以称之为密集连接的网络。针对每一层网络,其前面所有层的特征图被当作它的输入,这一层的输出则作为其后面所有层的输入。DenseNet 有许多优点:消除了梯度消失问题、加强了特征传播、鼓励特征复用并且大大减少了参数的数量。2. 介绍随着卷积神...原创 2019-04-29 21:32:30 · 441 阅读 · 0 评论 -
论文学习笔记之——基于深度卷积神经网络和跳跃连接的图像去噪和超分辨
Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections作者:Xiao-Jiao Mao、Chunhua Shen等 本文提出了一个深度的全卷积编码-解码框架来解决去噪和超分辨之类的图像修复问题。网络由多层的卷积和反卷积组成,学习一个从...原创 2018-05-19 22:12:16 · 13188 阅读 · 0 评论