![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
经典模型
weixin_37958272
这个作者很懒,什么都没留下…
展开
-
EfficientNetV2 Smaller Models and Faster Training
EfficientNetV2: Smaller Models and Faster Traininghttps://arxiv.org/pdf/2104.00298.pdf本文介绍了一种新的卷积网络族EfficientNetV2,它具有比以往的模型更快的训练速度和更好的参数效率。为了开发这些模型,我们结合使用training-aware神经结构搜索和缩放,共同优化训练速度和参数效率。该模型在搜索空间中加入了新的操作,如fusion - mbconv。我们的实验表明,effecentnetv2模型的训练速原创 2021-12-13 16:18:46 · 2239 阅读 · 0 评论 -
VAE
https://spaces.ac.cn/archives/5253https://zhuanlan.zhihu.com/p/25429082https://zhuanlan.zhihu.com/p/25429486转载 2021-04-19 17:35:28 · 45 阅读 · 0 评论 -
深度学习之GRU网络
深度学习之GRU网络转载 2020-11-16 11:07:59 · 112 阅读 · 0 评论 -
SPP
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition扩展阅读:SPP(Spatial Pyramid Pooling)详解SPP现有的深度卷积神经网络(CNNs)需要一个固定尺寸(如224x224)的输入图像。这种要求是 “人为的”,可能会降低任意大小/尺度的图像或子图像的识别精度。在这项工作中,我们为网络配备了另一种池化策略,即 “空间金字塔池化”,以消除上述要求。新的网络结构,称为SPP-net,翻译 2020-08-11 17:29:53 · 1799 阅读 · 0 评论 -
CSPNET
CSPNET: A NEW BACKBONE THAT CAN ENHANCE LEARNINGCAPABILITY OF CNN神经网络已经使最先进的方法在计算机视觉任务上取得了令人难以置信的结果,如物体检测。然而,这种成功很大程度上依赖于昂贵的计算资源,这阻碍了拥有廉价设备的人欣赏先进技术。在本文中,我们提出了跨阶段部分网络(Cross Stage Partial Network,CSPNet),从网络架构的角度来缓解之前的作品需要大量推理计算的问题。我们将该问题归结为网络优化中重复的梯度信息。**翻译 2020-08-11 00:06:17 · 1943 阅读 · 0 评论 -
CBAM
CBAM我们提出了卷积块注意力模块(CBAM),这是一个简单而有效的前馈卷积神经网络的注意力模块。给定一个中间特征图,我们的模块沿着通道和空间两个独立的维度依次推导注意力图,然后将注意力图乘以输入的特征图,进行自适应的特征细化。由于CBAM是一个轻量级的通用模块,它可以无缝集成到任何CNN架构中,开销可以忽略不计,并且可以和基础CNN一起进行端到端训练。我们通过在ImageNet-1K、MS COCO检测和VOC 2007检测数据集上的大量实验来验证我们的CBAM。我们的实验表明,各种模型在分类和检测性能翻译 2020-08-10 16:28:28 · 5126 阅读 · 0 评论 -
Deformable ConvNets v2
Deformable ConvNets v2可变形卷积网络的优越性能源于其对物体几何变化的适应能力。通过对其自适应行为的研究,我们发现虽然对其神经特征的空间支持比常规的转换更符合对象结构,但这种支持可能会远远超出感兴趣的区域,导致特征受到不相关图像内容的影响。为了解决这个问题,我们再次提出了一种可变形的ConvNets,通过增强建模能力和更强的训练来提高其聚焦于相关图像区域的能力。通过更全面地整合网络内的可变形卷积,并引入modulation mechanism,扩大了变形建模的范围,增强了建模能力。为了翻译 2020-08-04 15:18:52 · 899 阅读 · 0 评论 -
Deformable Convolutional Networks
Deformable Convolutional Networks卷积神经网络(CNN)由于其构建模块中固定的几何结构,其本质上仅限于建模几何变换。在这项工作中,我们引入了两个新的模块来增强CNN的变换建模能力,即可变形卷积和可变形RoI池化。两者都是基于用额外的偏移量来增强模块中的空间采样位置,并从目标任务中学习偏移量的想法,而不需要额外的监督。新的模块可以很容易地替换现有CNN中的普通对应模块,并且可以很容易地通过标准的反向传播进行端到端训练,从而产生可变形的卷积网络。大量的实验验证了我们方法的性能。翻译 2020-08-03 16:54:22 · 360 阅读 · 0 评论 -
残差网络
残差网络转载 2020-07-22 16:14:05 · 103 阅读 · 0 评论 -
DLA
DLA视觉识别需要丰富的表现形式,从低到高,从小到大,从细到粗的分辨率。即使在一个卷积网络中,一个单独的层是不够的:复合和聚合这些表示可以改进对what and where的推断。架构方面的工作正在探索网络主干的许多方面,设计更深层或更广的架构,但如何最好地聚合整个网络中的层和块值得进一步关注。虽然已经加入了skip connections来结合层,但这些连接本身就很 “浅”,只能通过简单的一步操作来融合.我们用更深的聚合来增强标准架构,以更好地融合各层信息。我们的深层聚合结构对特征层次进行迭代和分层合并翻译 2020-07-22 15:49:39 · 2185 阅读 · 0 评论 -
理解LSTM
理解LSTM循环神经网络(Recurrent Neural Networks)人对一个问题的思考不会完全从头开始。比如你在阅读本片文章的时,你会根据之前理解过的信息来理解下面看到的文字。在理解当前文字的时候,你并不会忘记之前看过的文字,从头思考当前文字的含义。传统的神经网络并不能做到这一点,这是在对这种序列信息(如语音)进行预测时的一个缺点。比如你想对电影中的每个片段去做事件分类,传统的神经网络是很难通过利用前面的事件信息来对后面事件进行分类。而循环神经网络(下面简称RNNs)可以通过不停的将信息循转载 2020-07-08 15:05:21 · 280 阅读 · 0 评论 -
SKnet
SKNET那些在同一层中具有多尺度信息的模型,如InceptionNets,有一个内在的机制,可以根据输入的内容调整下一个卷积层中神经元的RF大小,因为下一个卷积层会线性地聚合来自不同分支的多尺度信息。但这种线性聚合方式可能不足以为神经元提供强大的适应能力。在本文中,我们提出了一种非线性方法来聚合来自多个kernels 的信息,以实现神经元的自适应RF大小。我们介绍了一种 “选择性内核”(Selective Kernel)卷积,它由三个运算符组成:Split、Fuse和Select。Split算子产生的翻译 2020-07-07 18:22:55 · 457 阅读 · 0 评论 -
SENet
SENet在本文中,我们研究了网络设计的另一个方面——通道之间的关系。我们引入了一个新的架构单元,我们称之为Squeeze-and-Excitation(SE)块,目的是通过显式模拟其卷积特征通道之间的相互依赖关系来提高网络产生的representations的质量。为此,我们提出一种机制,允许网络执行特征重新校准,通过这种机制,它可以学习使用全局信息,有选择地强调有用的特征,并抑制不太有用的特征。SE构件的结构如图1所示。对于任意给定的变换 FtrF_{tr}Ftr(如卷积) 将输入X映射到特征翻译 2020-07-07 18:21:54 · 201 阅读 · 0 评论 -
Network In Network
Network In Network我们提出了一种新的深度网络结构,称为“网络中的网络”(NIN),以提高模型在接受域内对局部补丁(local patches)的可分辨性。传统的卷积层使用线性滤波器和非线性激活函数来扫描输入。相反,我们用更复杂的结构来构建微型神经网络来提取感受野中的数据。我们用一个多层感知器(一个有效的函数逼近器)来实例化微神经网络。通过将微网络以与CNN相似的方式滑动到输入端来获得特征映射,然后将其输入下一层。深度NIN可以通过堆叠上述结构的多个来实现。通过微网络增强的局部建模,我们能翻译 2020-07-07 18:17:29 · 277 阅读 · 0 评论