经典论文阅读
文章平均质量分 92
主要以翻译论文和精读论文为主,做记载学习笔记使用
麻花地
这个作者很懒,什么都没留下…
展开
-
华为诺亚实验室VanillaNet学习笔记
基础模型的核心理念是“多而不同”,计算机视觉和自然语言处理领域的惊人成功就是例证。然而,优化的挑战和变压器模型固有的复杂性要求范式向简单性转变。在这项研究中,我们介绍了VanillaNet,一个包含优雅设计的神经网络架构。通过避免高深度、快捷方式和复杂的操作(如自我关注),vanillanet令人耳目一新的简洁却非常强大。每一层都被精心制作得紧凑而直接,非线性激活函数在训练后被修剪以恢复原始结构。VanillaNet克服了固有复杂性的挑战,使其成为资源受限环境的理想选择。原创 2023-05-28 12:54:56 · 1572 阅读 · 0 评论 -
EdgeYOLO学习笔记
本文基于最先进的YOLO框架,提出了一种高效、低复杂度、无锚的目标检测器,该检测器可以在边缘计算平台上实时实现。为了有效抑制训练过程中的过拟合,我们开发了一种增强的数据增强方法,并设计了混合随机损失函数来提高小目标的检测精度。在FCOS的启发下,提出了一种更轻、更高效的解耦磁头,在不损失精度的情况下提高了推理速度。原创 2023-03-05 14:09:33 · 1212 阅读 · 3 评论 -
Skip-Attention学习笔记
这项工作旨在提高视觉变换器(ViT)的效率。虽然ViT在每一层中都使用计算成本高昂的自我关注操作,但我们发现这些操作在各层之间高度相关——这是一种关键的冗余,会导致不必要的计算。基于这一观察,我们提出了SKIPAT,这是一种重用来自前一层的自我注意力计算来近似一个或多个后续层的注意力的方法。为了确保跨层重用自我关注块不会降低性能,我们引入了一个简单的参数函数,该函数在计算速度更快的同时,性能优于基线变换器。原创 2023-02-07 12:20:06 · 1679 阅读 · 2 评论 -
MAE-DET学习笔记
在对象检测中,检测主干消耗了整个推理成本的一半以上。最近的研究试图通过借助神经架构搜索(NAS)优化主干架构来降低这一成本。然而,现有的用于对象检测的NAS方法需要数百到数千GPU小时的搜索,这使得它们在快节奏的研究和开发中不切实际。在这项工作中,我们提出了一种新的zero-shotNAS方法来解决这个问题。所提出的方法名为MAE-DET,通过最大熵原理自动设计有效的检测主干,而无需训练网络参数,将架构设计成本降低到几乎零,同时提供最先进的(SOTA)性能。原创 2023-02-06 22:05:00 · 1448 阅读 · 1 评论 -
ConvNeXt V2学习笔记
在改进的架构和更好的表示学习框架的推动下,视觉识别领域在21世纪20年代初实现了快速现代化和性能提升。例如,以ConvNeXt[52]为代表的现代ConvNets在各种场景中都表现出了强大的性能。虽然这些模型最初是为使用ImageNet标签的监督学习而设计的,但它们也可能受益于自监督学习技术,如蒙面自编码器(MAE)[31]。然而,我们发现,简单地结合这两种方法会导致性能不佳。在本文中,我们提出了一个全卷积掩码自编码器框架和一个新的全局响应归一化(GRN)层。原创 2023-01-05 20:50:16 · 6766 阅读 · 3 评论 -
私密 糖网 3D-Unet知识点记录
3d Unet Diagnosis and referral in retinal disease(3D Unet眼底病变诊断和分级)we apply a novel deep learning architecture to a clinically heterogeneous set of three-dimensional optical coherence tomography (OCT) scans from patients referred to a major eye hospita原创 2021-12-19 15:07:05 · 1242 阅读 · 0 评论 -
GhostNetV2学习笔记
轻量级卷积神经网络(CNNs)是专为在移动设备上具有较快推理速度的应用而设计的。卷积运算只能捕获窗口区域的局部信息,这阻碍了性能的进一步提高。在卷积中引入自我注意可以很好地捕获全局信息,但会极大地影响卷积的实际速度。在本文中,我们提出了一种硬件友好的注意机制(称为DFC注意),然后提出了一种新的移动应用的GhostNetV2架构。所提出的DFC注意结构基于全连接层,既能在普通硬件上快速执行,又能捕获远距离像素间的依赖关系。原创 2022-11-21 11:00:55 · 6351 阅读 · 10 评论 -
Deformable Attention学习笔记
Transformer 最近在各种视觉任务中表现出卓越的表现。大的(有时甚至是全局的)接受域使Transformer模型比CNN模型具有更高的表示能力。然而,单纯扩大接受野也会引起一些问题。一方面,在ViT中使用密集注意力会导致过多的内存和计算成本,特征会受到超出感兴趣区域的无关部分的影响。另一方面,PVT或Swin Transformer中采用的稀疏注意是数据不可知的,可能会限制建模远程关系的能力。为了解决这些问题,我们提出了一种新的Deformable 自注意模块,原创 2022-11-19 11:17:39 · 9913 阅读 · 0 评论 -
DEFORMABLE DETR学习笔记
DETR最近被提出,以消除在目标检测中需要许多手工设计的组件,同时展示良好的性能。但由于Transformer注意模块在处理图像特征映射时的局限性,其收敛速度慢,特征空间分辨率有限。为了缓解这些问题,我们提出了Deformable 的DETR,它的注意模块只关注参考点周围的一小部分关键采样点。Deformable 的DETR可以比DETR(特别是在小物体上)获得更好的性能,且训练时间少10倍。在COCO基准上的大量实验证明了我们方法的有效性。代码发布在。原创 2022-11-16 21:13:36 · 1519 阅读 · 0 评论 -
DETR学习笔记
我们提出了一种新的方法,将目标检测视为直接集预测问题。我们的方法简化了检测流程,有效地消除了许多手工设计的组件的需求,如非最大抑制过程或锚生成(显式编码关于任务的先验知识)。新框架的主要组成部分称为DEtection TRansformer或DETR,是基于集合的全局损耗,通过二部匹配强制进行唯一的预测,以及一个变压器编码器-解码器架构。给定一个固定的学习对象查询的小集合,DETR推理对象和全局图像上下文之间的关系,直接并行输出最终的预测集合(并行的原因是目标检测过程中没有前后顺序,同时并行可以提高速度)原创 2022-11-14 09:57:10 · 1880 阅读 · 1 评论 -
DINO学习笔记
我们提出了DINO(DETR with Improved deNoising anchOr boxes),一种先进的端到端对象检测器。DINO采用对比的去噪训练方法、混合查询选择方法进行锚点初始化和两次前瞻的盒子预测方法,在性能和效率上都优于以往的类detrr模型。DINO在具有ResNet-50骨干和多尺度特征的COCO上实现了12 epochs 49.4AP和24 epochs 51.3AP,与之前最好的类detr模型DN-DETR相比,分别获得了+6.0AP和+2.7AP的显著改进。原创 2022-11-13 09:54:04 · 6368 阅读 · 0 评论 -
Fast-ParC学习笔记
近年来,T型变压器模型在各个领域都取得了长足的进步。在计算机视觉领域,视觉变压器(ViTs)也成为卷积神经网络(ConvNets)的有力替代品,但由于卷积神经网络和视觉变压器都有各自的优点,所以它们无法取代卷积神经网络。例如,vit善于利用注意机制提取全局特征,而ConvNets则因其强烈的归纳偏差而更有效地建模局部关系。一个自然产生的想法是结合ConvNets和vit的优点来设计新的结构。本文提出了一种新的基本神经网络算子——位置感知圆卷积(ParC)及其加速版Fast-ParC。原创 2022-11-09 11:17:25 · 1640 阅读 · 0 评论 -
ssFPN学习笔记
特征金字塔网络(FPN)是目标检测模型中考虑目标不同尺度的重要模块。然而,在小物体上的平均精度(AP)相对低于在中型和大型物体上的AP。原因是CNN更深的一层作为特征提取层会造成信息丢失。提出了一种新的FPN尺度序列(S2S^2S2)特征提取方法,以增强小目标的特征信息。我们将FPN结构视为尺度空间,在FPN的水平轴上通过三维卷积提取尺度序列(S2S^2S2)特征。它基本上是一个比例不变的特征,建立在小物体的高分辨率金字塔特征图上。此外,所提出的S2S^2S2。原创 2022-11-06 20:46:39 · 1576 阅读 · 3 评论 -
Neurocomputing投稿记录
Neurocomputing投稿记录原创 2022-11-03 10:24:00 · 21116 阅读 · 122 评论 -
Hydra Attention学习笔记
虽然transformers已经开始在视觉领域的许多任务中占据主导地位,但将它们应用于大型图像在计算上仍然很困难。一个很大的原因是,自我注意力随标记的数量成二次增长,而标记的数量又随图像的大小成二次增长。对于较大的图像(例如,1080p),网络中超过60%的计算都花在创建和应用注意矩阵上。我们通过引入Hydra Attention向解决这个问题迈出了一步,它是视觉transformers(ViTs)的一种非常高效的注意操作。原创 2022-10-24 11:07:24 · 1316 阅读 · 0 评论 -
目标检测SSD学习笔记
我们提出了一种使用单一深度神经网络来检测图像中的对象的方法。我们的方法,命名为SSD,将边界框的输出空间离散化为一组默认框,每个特征地图位置具有不同的纵横比和比例。在预测时,网络为每个默认框中每个对象类别的存在生成分数,并对框进行调整以更好地匹配对象形状。此外,该网络结合了来自不同分辨率的多个特征地图的预测,以自然地处理各种尺寸的物体。相对于需要对象提议的方法,SSD是简单的,因为它完全消除了提议生成和随后的像素或特征重采样阶段,并且将所有计算封装在单个网络中。原创 2022-10-15 19:27:05 · 920 阅读 · 0 评论 -
YOLO系列算法学习
更换骨干网络Darknet结构(分类和检测结构)旷世研究院新作对于两种网络怎么选择?对于小分辨率,640x640大小,二者都可以进行尝试,如果是大分辨率图像最好使用V5,因为yolox在官方仓库中为提供大分辨率的检测。原创 2022-10-15 09:58:38 · 1627 阅读 · 1 评论 -
FPN特征金字塔结构学习笔记
特征金字塔是识别系统中的基本组件,用于检测不同尺度的对象。但最近的深度学习对象检测器已经避免了金字塔表示,部分原因是它们是计算和内存密集型的。在本文中,我们利用深度卷积网络固有的多尺度金字塔层次结构来构造具有边际额外成本的特征金字塔。开发了一种具有横向连接的自顶向下架构,用于在所有尺度上构建高级语义特征图。这种被称为特征金字塔网络(FPN)的体系结构在几个应用中作为通用特征提取器显示出显著的改进。原创 2022-10-03 22:36:08 · 1965 阅读 · 0 评论 -
基于机器视觉的图像处理缺陷检测方法论文学习
机器视觉系统用于工业生产领域,以快速、完美和高精度生产产品。这些系统允许用户进行高度精确的非接触式测量,并且可以检测生产过程中的缺陷。本文提出了一种基于机器视觉的印刷电路板非接触缺陷检测算法。在这种检测和控制PCB上的孔的方法中,首先从系统中获取参考图像,并对该图像应用特征提取过程。在这种实时工作方法中,参考图像与输入的测试图像相匹配,PCB上缺失的孔被精确地检测出来。此外,在实验研究中已经确定误差量小于2μM\mu MμM。原创 2022-08-22 16:15:24 · 3164 阅读 · 3 评论 -
AdaptFormer学习笔记
尽管预训练的视觉转换器(ViT)在计算机视觉方面取得了巨大的成功,但使ViT适应各种图像和视频任务是具有挑战性的,因为它具有繁重的计算和存储负担,其中每个模型需要独立和全面地微调以适应不同的任务,这限制了它在不同领域的可移植性。为了应对这一挑战,我们提出了一种有效的自适应方法,即AdaptFormer,它可以有效地将预训练的ViTs适应到许多不同的图像和视频任务中。它拥有比现有技术更吸引人的几个优点。...原创 2022-08-06 11:41:46 · 1184 阅读 · 0 评论 -
EdgeNeXt轻量化学习笔记
为了追求不断提高的精度,通常需要开发大型和复杂的神经网络。这种模型需要很高的计算资源,因此不能部署在边缘设备上。由于资源高效的通用网络在多个应用领域都很有用,因此构建资源高效的通用网络具有很大的意义。在这项工作中,我们努力有效地结合CNN和Transformer模型的优势,并提出了一种新的高效混合架构EdgeNeXt。特别是在EdgeNeXt中,我们引入了分割深度转置注意(SDTA)编码器,该编码器将输入张量分割为多个信道组,并利用深度卷积和跨信道维度的自我注意来隐式增加接收场并编码多尺度特征。......原创 2022-08-05 11:27:42 · 2258 阅读 · 0 评论 -
MetaFormer/PoolFormer学习笔记及代码
变形金刚在计算机视觉任务中显示出巨大的潜力。人们普遍认为,他们基于注意力的模块对他们的能力贡献最大。然而,最近的研究表明,Transformers中基于注意力的模块可以被空间MLP所取代,得到的模型仍然表现良好。基于这一观察**,我们假设变压器的一般架构,而不是特定的令牌混频器模块,对模型的性能更为重要**。为了验证这一点,我们故意用令人尴尬的简单空间池算子替换Transformers中的注意力模块,以仅进行基本令牌混合。.........原创 2022-08-03 10:30:02 · 1777 阅读 · 0 评论 -
EfficientFormer学习笔记
视觉变换器(ViT)在计算机视觉任务方面取得了快速进展,在各种基准上取得了有希望的结果。然而,由于大量的参数和模型设计,例如注意机制,基于ViT的模型通常比轻量级卷积网络慢数倍。因此,为实时应用部署ViT尤其具有挑战性,尤其是在资源受限的硬件上,如移动设备上。最近的研究试图通过网络架构搜索或与MobileNet块的混合设计来降低ViT的计算复杂度,但推理速度仍然不令人满意。这就引出了一个重要的问题**变压器能否像MobileNet一样快速运行,同时获得高性能?代码和型号将在https。......原创 2022-08-02 15:57:13 · 2019 阅读 · 0 评论 -
Next-ViT学习笔记
由于复杂的注意力机制和模型设计,大多数现有的视觉变换器(VIT)在现实的工业部署场景(例如TensorRT和CoreML)中的性能不如卷积神经网络(CNN)。视觉神经网络的设计能否像CNN一样快速推断,并像VIT一样强大?最近的工作试图设计CNN-Transformer混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。为此,我们提出了一种新一代视觉Transformer,用于在现实工业场景中高效部署,即Next-ViT,从延迟/准确性权衡的角度来看,它在CNN和ViT中占主导地位。。...原创 2022-08-01 11:38:46 · 3154 阅读 · 1 评论 -
RepOptimizer学习笔记
神经网络中设计良好的结构反映了纳入模型的先验知识。然而,虽然不同的模型具有不同的先验,但我们习惯于使用模型无关优化器(例如SGD)对其进行训练。在本文中,我们提出了一种新的范式,将特定于模型的先验知识合并到优化器中,并使用它们来训练通用(简单)模型。作为实现,我们提出了一种新的方法,通过根据一组特定于模型的超参数修改梯度来添加先验知识,称为梯度重新参数化,优化器称为重新优化器。...原创 2022-07-29 10:50:30 · 1003 阅读 · 0 评论 -
CBAM学习笔记
我们提出了卷积块注意模块(CBAM),这是一种用于前馈卷积神经网络的简单而有效的注意模块。给定一个中间特征图,我们的模块沿两个独立的维度(通道和空间)顺序推断注意力图,然后将注意力图乘以输入特征图以进行自适应特征细化。由于CBAM是一个轻量级的通用模块,它可以无缝集成到任何CNN架构中,开销可以忽略不计,并且可以与基础CNN一起进行端到端的培训。我们通过在ImageNet-1K、MSCOCO检测和VOC2007检测数据集上的大量实验来验证我们的CBAM。...原创 2022-07-27 09:37:08 · 1863 阅读 · 0 评论 -
MobileVIT学习笔记
轻型卷积神经网络(CNN)实际上是用于移动视觉任务的。他们的空间归纳偏差允许他们在不同的视觉任务中以较少的参数学习表征。然而,这些网络在空间上是局部的。为了学习全局表示,采用了基于自注意力的视觉变换器(VIT)。与CNN不同,VIT是重量级的。在本文中,我们提出了以下问题是否有可能结合CNN和ViTs的优势,为移动视觉任务构建一个重量轻、延迟低的网络?为此,我们介绍了MobileViT,一种用于移动设备的轻型通用视觉transformers。...原创 2022-07-26 17:47:29 · 1615 阅读 · 0 评论 -
EPSANet学习笔记
EPSANet: An Efficient Pyramid Squeeze Attention Block on Convolutional Neural Network最近,研究表明,在深度卷积神经网络中嵌入注意力模块可以有效提高其性能。在这项工作中,提出了一种新的轻量级和有效的注意力方法,称为金字塔挤压注意力(PSA)模块。通过在ResNet的瓶颈块中用PSA模块替换3x3卷积,获得了一种新的表示块,称为有效金字塔挤压注意力(EPSA)。EPSA块可以很容易地作为即插即用组件添加到成熟的主干网络中,并且原创 2022-07-11 11:44:44 · 3311 阅读 · 0 评论 -
韩松老师模型压缩--三步剪枝法学习笔记
Learning both Weights and Connections for Efficient Neural Networks神经网络是计算密集型和内存密集型的,因此很难在嵌入式系统上部署。此外,传统网络在训练开始前修复架构;因此,培训无法改善架构。为了解决这些局限性,我们描述了一种方法,通过只学习重要的连接,在不影响其准确性的情况下,将神经网络所需的存储和计算减少一个数量级。我们的方法使用三步方法修剪冗余连接。首先,我们训练网络以了解哪些连接是重要的。接下来,我们删减不重要的连接。最后,我们重新训原创 2022-07-07 10:33:51 · 972 阅读 · 0 评论 -
DeiT学习笔记
Training data-efficient image transformers & distillation through attention最近,纯粹基于注意力的神经网络被证明可以解决图像理解任务,例如图像分类。这些高性能的视觉transformers使用大型基础设施预先训练了数亿张图像,因此限制了其采用。在这项工作中,我们仅通过在Imagenet上进行训练来生产具有竞争力的无卷积变压器。我们用不到3天的时间在一台电脑上训练他们。我们的参考视觉transformers(86M参数)在没有外部数据的原创 2022-07-05 17:28:08 · 1317 阅读 · 0 评论 -
PVTV2--Pyramid Vision TransformerV2学习笔记
PVTv2: Improved Baselines with Pyramid Vision TransformerTransformer最近在计算机视觉方面取得了令人鼓舞的进展。在这项工作中,我们通过添加三种设计来改进原始金字塔视觉变换器(PVTv1),提出了新的基线,包括**(1)线性复杂度注意层,(2)重叠面片嵌入和(3)卷积前馈网络**。通过这些修改,PVTv2将PVTv1的计算复杂度降低为线性,并在基本视觉任务(如分类、检测和分割)上实现了显著改进。值得注意的是,拟议的PVTv2实现了与最近的工作(原创 2022-07-04 16:58:55 · 2584 阅读 · 0 评论 -
XCiT学习笔记
在自然语言处理取得巨大成功后,transformers最近在计算机视觉方面显示出了很大的前景。transformers底层的自注意力操作产生了所有令牌(即文字或图像块)之间的全局交互,并允许在卷积的局部交互之外对图像数据进行灵活建模。然而,**这种灵活性在时间和内存方面具有二次复杂性,阻碍了对长序列和高分辨率图像的应用**。我们提出了一种“transposed”版本的自注意力,它跨特征通道而不是令牌进行操作,**其中交互基于键和查询之间的互协方差矩阵**。由此产生的 cross-covariance att原创 2022-07-03 10:29:13 · 3152 阅读 · 0 评论 -
GoogLeNet(Inception V1)论文笔记及Pytorch代码解析
注: 本文仅供自己学习记录感谢良心up同济子豪兄精彩讲解【精读AI论文】GoogLeNet(Inception V1)深度学习图像分类算法_哔哩哔哩_bilibiliGoogLeNe(Inception V1)论文笔记论文概要WE NEED TO GO DEEPERInception的技术演变Inception不同于其他大型网络模型,可以方便的部署任何地方(边缘计算设备)Inception原理图将数据进行四路处理(不同尺度的卷积和一个池化),之后再汇总到cin原创 2021-12-29 09:43:38 · 3734 阅读 · 1 评论 -
MobileNet V1算法介绍记录
注:仅供自己学习记录轻量化网络从2015年开始机器的图片分类准确率超过人眼,随着逐渐发展到了2017年准确率已经很厉害,所以轻量化网络开始被关注轻量化网络是需要部署在一些硬件设备上的模型,他不仅需要考虑识别的准确率,还要考虑搭载设备的计算量和内存等,所以要尽可能的缩减网络所需要的的计算量和参数量。例如无人驾驶、机器人、安防摄像头等本地边缘实时计算边缘计算是部署在本地,不需要实现连接云服务器的设备,设备在本地就要进行计算和得出结果,不需要网络延迟、网络传输,也可以做到保护个人隐私。同时边.原创 2022-01-05 21:51:15 · 1779 阅读 · 4 评论 -
MobileNet V1论文记录及pytorch代码
2017年CVPR论文在此之前深度学习领域一直在不计成本的进行精度提升,到了2017年识别精度已经很高了,这方面的提升已经很难了,所以大家开始寻找其他方向,轻量化网络就是其中一个比较热门的方向轻量化网络的优势以及应用领域可以参考另一篇博客:MobileNet V1算法介绍记录_charles_zhang_的博客-CSDN博客论文正文MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applica原创 2022-01-13 08:46:35 · 2194 阅读 · 0 评论 -
InceptionV2-V3论文精读及代码
Inception V2-V3算法前景介绍算法网络模型结构,相较V1去掉了底层的辅助分类器(因为作者发现辅助分离器对网络的加速和增强精度并没有作用),变成了一个更宽、更深、表达能力更好的网络模型V1种的Inception模块,V1的整体结构由九个这种模块堆叠而成,每个模块负责将5x5、1x1、3x3卷积和3x3最大池化叠加在一起输出(长宽相同,厚度不同),因为堆叠越来越厚,计算量激增。引入1x1卷积降维对比,堆叠的层数减少注:1x1卷积的作用参考V1论文笔记V2-V3原创 2022-03-18 11:48:06 · 5842 阅读 · 2 评论 -
知识蒸馏算法原理
知识蒸馏算法原理“蒸馏”的概念大概就是将本身不够纯净的水通过加热变成水蒸气,冷凝之后就成更纯净的水知识蒸馏同样使用这种原理,将不太纯净的“知识”通过“蒸馏”的方式获得更加有用或者纯净的“知识”体现在神经网络中如下图所示:一个大而臃肿,但知识丰富且高效的“教师网络”,通过转换精准将特定领域的知识传授给“学生网络”,让“学生网络”在某个方面做得很好,并且不那么臃肿,类似“模型压缩”为什么不直接使用教师网络?因为将算法应用在现实生活中很多设备的算力会被限制,因此需要尽可能.原创 2022-03-21 09:46:37 · 9985 阅读 · 5 评论 -
知识蒸馏(Distilling the Knowledge in a Neural Network)论文
知识蒸馏(Distilling the Knowledge in a Neural Network)三大作者深度学习教父 Geoffery Hinton谷歌灵魂人物 oriol Vinyals谷歌核心人物 Jeff DeanAbstract多模型集成能提升机器学习性能是指多个性能较差的模型集合在一起可以提升整体的性能。同样集成模型也会出现部署笨重、算力高昂的问题,无法适用多数用户进行安装,训练这些模型也需要进行大量的计算。在一号文献中提到知识蒸馏,将一个集成模型.原创 2022-03-24 08:45:50 · 1226 阅读 · 0 评论 -
AlexNet论文笔记
AlexNet论文笔记算法概述AlexNet网络可以被称为卷积神经网络的“开山之作”,精度和参数量相对后面的模型不是很优秀,但是卷积神经网络之所以可以迅速崛起,AlexNet起着至关重要的作用。深度卷积卷积神经网络卷积层,卷积过程:池化层,下采样过程:减少feature map大小,减少计算量1998年,LeCun提出的LeNet-5,可以实现数字的分类ReLU激活函数ReLU函数的优点:模型并行使用两个GPU进行模型训练,卷积层全部使用两路G原创 2022-03-27 21:41:09 · 3058 阅读 · 0 评论 -
InceptionV4 and Inception-ResNet模型介绍及实现代码
InceptionV4 and Inception-ResNet概述Inception 结构回顾GoogLeNet(Inception-V1)BN-inception(使用batch-normalization促进整个学习过程)Inception-V2 and V3堆叠三个模块为V2结合下采样模块和其他优化方法为V3Inception-V4Inception V4性能top1 和 top5 error参数量和计算效.原创 2022-03-29 23:37:01 · 2694 阅读 · 1 评论