![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 91
阿基美德
这个作者很懒,什么都没留下…
展开
-
【经典论文】Xception
Xception原论文:Xception: Deep Learning with Depthwise Separable Convolutions从Inception的角度出发,探讨了Inception和深度可分离卷积的关系,从一个全新的角度解释了深度可分离卷积。结合ResNet,提出Xception。论文主要思想在原文第3节。3 The Xception architecture 我们提出一种完全基于深度可分类卷积层的卷积神经网络架构。实际上,我们做出如下假设:卷积神经网络特征图中的跨通道相原创 2021-09-26 14:12:33 · 566 阅读 · 0 评论 -
【经典论文】ResNeXt
ResNeXt原论文:Aggregated Residual Transformations for Deep Neural Networks利用分组卷积思想改造ResNet,ResNet和Inception的结合体。论文结构:引文(介绍神经网络算法发展史,提出ResNeXt)相关工作(多分支卷积、分组卷积等)方法实现细节实验结果以第3节翻译为主。3 Method3.1 Template 架构 我们采用类似VGG/ResNets一样的高度模块化设计的网络。我们的网络由一系列r原创 2021-09-14 20:02:14 · 1385 阅读 · 0 评论 -
【目标检测】FPN
FPN原论文:Feature Pyramid Networks for Object Detection实现浅层特征和深层特征的融合。主要思想在于第3节。3 Feature Pyramid Networks 特征金字塔网络 我们的目标在于探索一个属于卷积网络的金字塔型特征层次,它拥有从低级到高级的语义特征,并构建一个具有高级语义的特征金字塔。由此产生的特征金字塔网络是通用的,在本文中,我们专注于滑动窗口提议器(区域提议网络,RPN)和基于区域的检测器(Fast R-CNN)。 我们方法的原创 2021-09-10 11:34:50 · 199 阅读 · 0 评论 -
【目标检测】R-FCN
R-FCN原论文:R-FCN:Object Detection via Region-based Fully Convolutional Networks主要解决:分类任务中位移不变性和检测任务中位移可变性之间的矛盾论文架构:引文(介绍CNN发展情况,引出分类任务和检测任务的矛盾,R-FCN用于解决这个矛盾)方法相关工作实验结论和未来期望以第二节翻译为主2 Our approachOverview. 与R-CNN相似,我们采用两阶段目标检测策略,包含:(i) 区域生成,(ii原创 2021-09-07 12:38:23 · 269 阅读 · 0 评论 -
【目标检测】SSD
SSD原论文:SSD: Single Shot MultiBox Detector多尺度特征图,大特征图提取小物体,小特征图提取大物体论文结构:引文(介绍发展史引出SSD)SSD结构实验结论相关工作(R-CNN、YOLO、OverFeat等对比介绍)结论致谢主要以第二节翻译为主2 The Single Shot Detector(SSD) 2.1节描述我们的检测器的架构,2.2节讲解相关联的训练策略,之后的第3节讲解数据集特定的模型细节和实验结论。2.1 Model原创 2021-09-02 18:01:57 · 210 阅读 · 0 评论 -
【经典论文】GoogLeNet v4
GoogLeNet v4原论文:Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning一方面引入ResNet的残差结构;一方面提出Inception v4可达到引入残差结构的效果。论文结构:引文(介绍CNN领域的大致发展,Inception的发展,以及本文提出的Inception改进架构)相关工作(简单介绍CNN经典架构和Inception架构)架构选择(即提出的改进方法)训练技术实原创 2021-09-02 17:59:15 · 353 阅读 · 0 评论 -
【经典论文】ResNet v2
ResNet v2原论文:Identity Mappings in Deep Residual Networks在ResNet v1的基础上,理论分析Residual模块及它在整体网络上的结构,并通过详细的实验来论证。论文结构:引文(介绍ResNet v1相关)Residual模块分析恒等残差连接研究激活函数研究不同数据集结果结论主要翻译第2、3节3 On the Importance of Identity Skip Connections 假设一个简单的式子,h(xl)=原创 2021-08-30 13:27:49 · 882 阅读 · 1 评论 -
经典论文之ResNet
ResNet原论文:Deep Residual Learning for Image RecognitionILSVRC2015冠军(分类、定位、检测)。通过残差块训练了152层网络。解决了退化问题(plain网络随着网络加深,错误率升高)网络加深:会出现梯度消失或梯度爆炸,这个问题可以通过正则初始化和BN来解决。退化问题:深层网络到了一定深度,准确率趋近饱和,而且继续加深会降低准确率(degradation问题)。这个问题并不是过拟合导致的(过拟合在训练集应该更好),也不是梯度消失造成的(论原创 2021-08-26 15:18:07 · 3965 阅读 · 0 评论 -
经典论文之GoogLeNet v3
GoogLeNet v3原论文:Rethinking the Inception Architecture for Computer VisionInception结构的优化。(卷积分解、正则化等)论文结构:引文(卷积网络发展)通用设计准则大卷积核的因式分解辅助分类器的作用网格尺寸减小的有效性Inception-v3通过标签平滑(Label Smoothing)的模型正则化(Model Regularization)训练方法低分辨率输入的表现实验结果和对比试验结论论文分节比原创 2021-08-24 18:44:35 · 346 阅读 · 0 评论 -
目标检测之YOLO v1
YOLO v1原论文:You only look once: Unified, real-time object detectionone-stage目标检测的开山之作。将检测任务表述成统一的、端到端的回归问题。论文结构:引文(介绍YOLO思想来源)YOLO架构与现有目标检测系统对比实验结论YOLO的实时速度优势,源码链接结论(YOLO在实时目标检测领域SOTA)主体思想在第2节,本篇以第2节翻译。2 Unified Detection 统一检测 我们将目标检测的各个模块统原创 2021-08-21 15:41:48 · 282 阅读 · 1 评论 -
目标检测之Faster R-CNN
Faster R-CNN原论文:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks将目标检测实现为端到端的框架。奠定了two-stage方法的元结构。论文架构:引文:目标检测的卷积网络发展相关工作(目标候选框、用于目标检测的深度网络)Faster R-CNN结构实验验证(VOC、COCO数据集)结论主体思想在第三部分,以第三部分翻译+理解。3 Faster R-CNN 我们原创 2021-08-18 18:58:33 · 1004 阅读 · 0 评论 -
目标检测之Fast R-CNN
Fast R-CNN原论文:Fast R-CNN通过改进加速R-CNN、SPPNet的运行论文结构:引文(介绍R-CNN、SPPNet的不足,提出Fast R-CNN来解决)Fast R-CNN架构和训练Fast R-CNN检测实验结论消融实验结论第2、3节包含结构的整体思想。2 Fast R-CNN architecture and training Fast R-CNN架构和训练 图1展示了Fast R-CNN的结构。Fast R-CNN结构将一整张图像和目标候选框集合视原创 2021-08-17 17:57:56 · 189 阅读 · 0 评论 -
经典论文之GoogLeNet v2
GoogLeNet v2原论文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift通过BN算法解决内部协变量移位问题(Internal Covariate Shift),代入GoogLeNet v1验证,形成GoogLeNet v2。主要思想在于第3节,结构在附录。3 Normalization via Mini-Batch Statistics 通过小批量统计进行归原创 2021-08-16 12:58:44 · 355 阅读 · 0 评论 -
经典论文之GoogLeNet v1
GoogLeNet v1原论文:Going Deeper with ConvolutionsILSVRC2014分类任务冠军。Inception块用于减少参数量。论文结构:引文(介绍CNN发展和GoogleNet的优势)相关工作(CNN发展历史,R-CNN发展)研究动机(要解决的问题)架构细节GoogLeNet(整体结构)训练细节分类任务结果目标检测结果结论主要翻译第3、4、5、6节,包含论文主体思想3 Motivation and High Level Considerat原创 2021-08-15 13:52:19 · 601 阅读 · 0 评论 -
目标检测之SPPNet
SPPNet原论文:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition主要贡献:解决FC层导致的需要输入固定size的图像的问题,同一张图像共享卷积进行特征提取论文结构:引文(介绍SPP之前的网络以及相比的优势)SPP的网络结构分类实验目标检测实验结论主要思想位于第2节,以第2节的翻译+理解为主。2 Deep Networks With Spatial Pyramid Poolin原创 2021-08-14 12:22:46 · 227 阅读 · 0 评论 -
目标检测之R-CNN
R-CNN原论文:Rich feature hierarchies for accurate object detection and semantic segmentation将检测任务转化为区域上的分类任务,是深度学习方法在检测任务上的试水。论文架构:引文(介绍CNN之前的一些尝试)R-CNN目标检测架构结果可视化、消融实验ILSVRC2013目标检测数据集语义分割结论主要思想为 第2节,以此作翻译+理解。2 Object detection with R-CNN 用R-CNN原创 2021-08-13 11:10:05 · 220 阅读 · 0 评论 -
经典论文之NIN
NIN原论文:Network In Network对传统卷积的特征提取方式进行了改进,提供了网络改进的新思路。论文的总结架构分为:引文(介绍CNN的发展,以及MLP应用进行特征提取)卷积神经网络(卷积层、池化层交替进行特征提取的劣势)NiN整体架构以及新方法实验验证(CIFAR-10、CIFAR-100、SVHN、MNIST数据集)结论主要思想为第三章的方法介绍,本篇文章以第3节翻译+理解为主。Network In Network 网中网该章节我们主要介绍NIN结构的核心部件:3.原创 2021-08-12 10:26:17 · 379 阅读 · 0 评论 -
经典论文之VGG
VGG原论文:Very Deep Convolutional Networks For Large-Scale Image RecognitionILSVRC2014定位任务冠军,分类任务亚军。主要思想:探索深度对性能的影响(消融实验),反复堆叠3×33\times33×3卷积。论文架构:引文(介绍CNN发展及论文组织结构)模型结构网络训练和评估结构分类实验结论主要翻译2、3节,理解VGG主体思想。2 ConvNet Configurations 卷积网络设置为了基于公平的准则来原创 2021-08-12 10:23:10 · 3770 阅读 · 0 评论 -
经典论文之OverFeat
OverFeat原论文:OverFeat: Integrated Recognition, Localization and Detection using Convolutional NetworksILSVR2013定位任务的冠军。用CNN集成了分类、定位、检测任务。主要思想在于3、4、5章,分别叙述分类、定位、检测任务的思想实现。3 Classification 分类任务我们的分类模型结构和Krizhevsky等人所提出的在ILSVRC12上使用的AlexNet类似。并且,我们在网络设计和推原创 2021-08-11 13:29:37 · 490 阅读 · 0 评论 -
经典论文之ZFNet
ZFNet原论文:Visualizing and Understanding Convolutional NetworksILSVRC 2013冠军。主要解决问题:卷积特征图的可视化这篇主要以2、3章翻译为主(方法、训练细节)Abstract 摘要Krizhevsky等人已经在ImageNet上验证了大型卷积网络模型的优良分类性能。可是,目前为止还没有对应的理论去理解它们为什么表现这么好以及为什么能提点。在这篇论文中,我们研究了这两个问题。我们引入一种新的可视化技术,能够可视化模型的中间特征层以原创 2021-08-10 13:30:04 · 247 阅读 · 0 评论 -
经典论文AlexNet翻译+理解
AlexNet论文原文:ImageNet Classification with Deep Convolutional Neural NetworksAlexNet,CNN的大火之作。ILSVR2012冠军,自此掀起CNN研究热潮。论文主要思想为三、四章,主要挑选此部分进行翻译+理解。3 The Architecture 网络结构AlexNet的网络结构如图2所示。它总共包含八层可学习的层——五层卷积层和三层全连接层。接下来,我们将介绍我们的网络结构中全新的以及未曾使用过的点子。3.1-3.4章原创 2021-08-09 11:54:00 · 978 阅读 · 0 评论 -
经典论文LeNet-5翻译+理解
简介参考论文: 《Gradient-Based Learning Applied to Document Recognition》LeNet,CNN的开山之作。由于论文篇幅较长,就挑选主要思想部分进行翻译、理解(第二章A、B单元)。第二章:CONVOLUTIONAL NEURAL NETWORKS FOR ISOLATED CHARACTER RECOGNITION 用于单个字符识别的卷积神经网络使用梯度下降算法的多层网络能够从大量样本中学习到复杂、高维、非线性的映射关系,这使得它们能够用于图像识原创 2021-08-08 19:27:02 · 2572 阅读 · 0 评论 -
深度学习——损失函数(Regression Loss、Classification Loss)
简介Loss function损失函数用于定义单个训练样本与真实值之间的误差Cost function代价函数用于定义单个批次/整个训练集样本与真实值之间的误差Objective function目标函数泛指任意可以被优化的函数损失函数用于衡量模型所做出的预测离真实值(GT)之间的偏离程度。损失函数分为两种:回归损失(针对连续型变量)和分类损失(针对离散型变量)知道每一种损失函数的优点和局限性,才能更好的利用它们去解决实际问题回归损原创 2021-08-07 17:35:51 · 7806 阅读 · 1 评论 -
深度学习——激活函数(Sigmoid、Tanh、ReLU、Leaky-ReLU、ReLU6、Swish、Hard-Swish、Mish、Softmax)
Sigmoid函数式:求导:Tanh函数式:求导:ReLUpaper: Deep Sparse Rectifier Neural Networks函数式:求导:Leaky-ReLUpaper: Rectifier Nonlinearities Improve Neural Network Acoustic Models函数式:求导:ReLU6paper: MobileNetV2..原创 2021-08-06 16:08:54 · 757 阅读 · 0 评论 -
MMDetection,训练VOC格式数据集
一、数据集准备数据集目录格式要求:├── VOCdevkit(数据集名称)│ ├── VOC2007│ │ ├── Annotations│ │ ├── JPEGImages│ │ ├── ImageSets│ │ │ ├── Main│ │ │ │ ├── val.txt│ │ │ │ ├── train.txtPS:1. 所有图片末尾统一为.jpg(注意小写)数据集保存(创建软连接,方便数据原创 2021-06-27 00:50:35 · 2607 阅读 · 4 评论