卷积神经网络
文章平均质量分 87
没有头发的小白
这个作者很懒,什么都没留下…
展开
-
Improving Convolutional Networks with Self-Calibrated Convolutions
用自校准卷积改进卷积网络摘要引言相关工作结构设计本文的方法自校准卷积)文章与代码摘要中枢神经系统的最新进展主要致力于设计更复杂的体系结构,以增强其表征学习能力。本文考虑在不调整模型结构的情况下,改进神经网络的基本卷积特征变换过程。为此,我们提出了一种新的自校准卷积,它通过内部通信明确扩展了每个卷积层的视野,从而丰富了输出特性。特别是,与使用小核(例如3 × 3)融合空间和通道信息的标准卷积不同,我们的自校准卷积通过新颖的自校准操作自适应地在每个空间位置周围建立远程空间和通道间依赖性。因此,它可以通原创 2021-07-08 19:23:43 · 442 阅读 · 0 评论 -
GhostNet: More Features from Cheap Operations
GhostNet:廉价运营带来更多功能摘要引言更多特征的幽灵模块文章和代码摘要由于内存和计算资源有限,在嵌入式设备上部署卷积神经网络非常困难。特征图中的冗余是那些成功的中枢神经系统的一个重要特征,但在神经结构设计中很少被研究。本文提出了一种新的Ghost模块,通过廉价的操作生成更多的特征图。基于一组内在特征图,我们以低廉的成本应用一系列线性变换来生成许多幽灵特征图,这些幽灵特征图可以充分揭示内在特征背后的信息。所提出的Ghost模块可以作为即插即用组件来升级现有的卷积神经网络。Ghost瓶颈旨在堆叠G原创 2021-07-08 18:22:09 · 707 阅读 · 0 评论 -
Dynamic Convolution: Attention over Convolution Kernels
动态卷积:关注卷积核摘要引言动态卷积神经网络摘要轻量级卷积神经网络性能下降,因为它们的低计算预算限制了卷积神经网络的深度(卷积层数)和宽度(信道数),导致有限的表示能力。为了解决这个问题,我们提出了动态卷积,一种在不增加网络深度或宽度的情况下增加模型复杂性的新设计。动态卷积不是每层使用一个卷积核,而是基于它们的关注度动态聚合多个并行卷积核,这些关注度与输入相关。组装多个内核不仅由于内核尺寸小而在计算上高效,而且由于这些内核通过注意力以非线性方式聚集,因此具有更大的表示能力。通过对最先进的架构mobil原创 2021-07-08 11:42:33 · 419 阅读 · 0 评论 -
CondConv: Conditionally Parameterized Convolutions for Efficient Inference
用于有效推断的条件参数化卷积摘要引言相关工作条件参数化卷积结论文章与代码摘要卷积层是现代深度神经网络的基本构件之一。一个基本假设是,卷积核应该为数据集中的所有示例共享。我们提出了条件参数化卷积,它为每个例子学习专门的卷积核。用CondConv替换正常卷积使我们能够增加网络的大小和容量,同时保持高效的推断。我们证明,在分类和检测任务上,使用CondConv缩放网络可以改善几种现有卷积神经网络架构的性能和推断成本权衡。引言我们提出了条件参数化卷积,通过计算卷积核作为输入的函数来挑战静态卷积核的范式。原创 2021-07-07 19:41:27 · 1340 阅读 · 0 评论 -
HetConv: Heterogeneous Kernel-Based Convolutions for Deep CNNs
基于异构核的深层卷积神经网络摘要引言相关工作高效卷积滤波器模型压缩提出的方法程序文章与代码每秒浮点计算(floating-point operations per second)FLOPs摘要我们提出了一种新颖的深度学习架构,其中卷积运算利用了异构核。与标准卷积运算相比,所提出的基于异构核的卷积减少了计算量和参数数量,同时仍然保持了表示效率。为了展示我们提出的卷积的有效性,我们在标准卷积神经网络(CNN)架构上展示了大量的实验结果,如VGG [31]和ResNet[8]。我们发现,在用我们提出的H原创 2021-07-07 11:00:18 · 455 阅读 · 0 评论