深度学习经典论文
文章平均质量分 64
本专栏主要整理深度学习经典论文,大都参考借鉴大神博客简书等,加点自己的浅陋见解及吐槽哈哈哈哈,用于自学回顾,如有冒犯,侵删!
UHL1107
这个作者很懒,什么都没留下…
展开
-
深度学习经典论文(十一)YOLOv5
注:借鉴整理,仅供自学,侵删YOLOv5学习总结(持续更新)原创 2021-04-21 16:59:20 · 16691 阅读 · 0 评论 -
深度学习经典论文(九)YOLOv3
注:借鉴整理,仅供自学,侵删原创 2021-04-07 15:27:34 · 160 阅读 · 0 评论 -
深度学习经典论文(十)SSD
注:借鉴整理,仅供自学,侵删原创 2021-03-16 11:42:43 · 122 阅读 · 0 评论 -
深度学习经典论文(八)Faster R-CNN
注:借鉴整理,仅供自学,侵删原创 2021-03-15 10:23:39 · 108 阅读 · 0 评论 -
深度学习经典论文(七)R-CNN
注:借鉴整理,仅供自学,侵删简单来说,分类、定位和检测的区别如下:classify:是什么?localization:在哪里?是什么?(单个目标)detection:在哪里?分别是什么?(多个目标)1 算法流程RCNN算法分为4个步骤:一张图像生成1K~2K个候选区域对每个候选区域,使用深度网络提取特征特征送入每一类的SVM 分类器,判别是否属于该类使用回归器精细修正候选框位置...原创 2021-03-11 21:57:09 · 169 阅读 · 1 评论 -
深度学习经典论文(六)ResNet
注:借鉴整理,仅供自学1 提出背景我们知道,网络越深,咱们能获取的信息越多,而且特征也越丰富。但是根据实验表明,随着网络的加深,优化效果反而越差,测试数据和训练数据的准确率反而降低了。这是由于网络的加深会造成梯度爆炸和梯度消失的问题。(目前针对这种现象已经有了解决的方法:对输入数据和中间层的数据进行归一化操作,这种方法可以保证网络在反向传播中采用随机梯度下降(SGD),从而让网络达到收敛。但是,这个方法仅对几十层的网络有用,当网络再往深处走的时候,这种方法就无用武之地了。)另一个问题,就是退化问题。网原创 2021-03-10 21:08:20 · 598 阅读 · 0 评论 -
深度学习经典论文(五)Inception V4
注:借鉴整理,仅供自学1 动机下面的准则来源于大量的实验,因此包含一定的推测,但实际证明基本都是有效的:避免表达瓶颈,特别是在网络靠前的地方。 信息流前向传播过程中显然不能经过高度压缩的层,即表达瓶颈。从input到output,feature map的宽和高基本都会逐渐变小,但是不能一下子就变得很小。比如你上来就来个kernel = 7, stride = 5 ,这样显然不合适。另外输出的维度channel,一般来说会逐渐增多(每层的num_output),否则网络会很难训练。(特征维度并不代表信原创 2021-03-11 17:04:19 · 204 阅读 · 0 评论 -
深度学习经典论文(四)Inception V3
注:借鉴整理,仅供自学1 动机下面的准则来源于大量的实验,因此包含一定的推测,但实际证明基本都是有效的:避免表达瓶颈,特别是在网络靠前的地方。 信息流前向传播过程中显然不能经过高度压缩的层,即表达瓶颈。从input到output,feature map的宽和高基本都会逐渐变小,但是不能一下子就变得很小。比如你上来就来个kernel = 7, stride = 5 ,这样显然不合适。另外输出的维度channel,一般来说会逐渐增多(每层的num_output),否则网络会很难训练。(特征维度并不代表信原创 2021-03-09 17:11:16 · 647 阅读 · 0 评论 -
深度学习经典论文(三)GoogLeNet
注:借鉴整理,仅供自学1 动机既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能一般认为,网络越稀疏则越不容易过拟合,但过于稀疏性能又容易下降同时计算性价比又不高。GoogLeNet采用了多个小分支的结合,每个分支可以看作较为稀疏,但合并之后又成为一个大的密集矩阵。Inception 结构的主要思路是怎样用密集成分来近似最优的局部稀疏结构把可能用到的不同大小(既可以提取不同特征)的卷积核都用上,让网络自己学习,有用的权值大,无用的权值小(趋于0?)2 产生网络更深更宽的缺点:当训练集有原创 2021-03-09 16:30:02 · 536 阅读 · 0 评论 -
深度学习经典论文(二)VGGNet
注:借鉴整理,仅供自学1 数据集ImageNet:1500万个带标签的高分辨率图像的数据集,这些图像大约属于22,000个类别。输入图片大小224*224(256提取224数据增强)227?。2 ReLU激活函数ReLU为非饱和函数,验证其效果在较深的网络超过了SIgmoid,成功解决了SIgmoid在网络较深时的梯度弥散问题,学习速度更快3 GPU并行运算4 覆盖的最大池化在以前的CNN中普遍使用平均池化层,AlexNet全部使用最大池化层,避免了平均池化层的模糊化的效果,并且步长比池化原创 2021-03-03 15:29:28 · 292 阅读 · 1 评论 -
深度学习经典论文(一)AlexNet
1 数据集ImageNet:1500万个带标签的高分辨率图像的数据集,这些图像大约属于22,000个类别。输入图片大小224*224(256提取224数据增强)。2 ReLU激活函数学习速度更快3 GPU并行运算4 网络架构5 减少过拟合Data Augmentation(GPU训练,CPU数据增强)1.1 图像平移和水平翻转1.2 PCA算法(主成分分析),在一定程度上提高图片对光照强度和颜色变化的适应能力。Dropout(减少全连接层过拟合):反向随机失活,失活后不参原创 2021-03-02 19:51:29 · 509 阅读 · 0 评论