深度学习用于目标检测论文
Main Theme
这个作者很懒,什么都没留下…
展开
-
《ImageNet Classification with Deep Convolutional Neural Networks》(AlexNet)论文翻译
在网上找了两篇翻译,首先作者能花费精力把文章较为细致地翻一下来很感谢!原创 2017-07-13 22:34:26 · 355 阅读 · 0 评论 -
ResNet网络(Deep Residual Learning for Image Recognition)总结
论文地址:https://arxiv.org/pdf/1512.03385.pdfGithub代码地址:https://github.com/KaimingHe/deep-residual-networks1、文章概述 这篇文章是2015年的文章,主要解决的问题是如何将网络变得更深的同时,保证准确率不会下降。因为已经达成了一个共识:网络深度越深,提取到的特征越好。作者在Abstract中也提...原创 2018-06-10 21:38:53 · 1397 阅读 · 0 评论 -
R-FCN算法理解
主要参考这两篇博客:https://blog.csdn.net/WZZ18191171661/article/details/79481135https://blog.csdn.net/u014380165/article/details/72848254还有这篇知乎的R-FCN部分(虽然细节有些问题,大的思路挺形象的):https://zhuanlan.zhihu.com/p/36184131...转载 2018-06-10 19:08:37 · 554 阅读 · 0 评论 -
FPN(Feature Pyramid Networks for Objection Detection)算法理解
论文地址:https://arxiv.org/abs/1612.03144Github代码(caffe2):https://github.com/unsky/FPN1、文章概述 FPN是CVPR2017的文章。FPN是一种思想,类似Resnet里的残差模块一样,提出这种特征金字塔的思想用来改造现有的网络结构,如Faster R-CNN及RPN网络。评价是在COCO数据集上,评价指标用的是AR...原创 2018-06-09 17:03:57 · 2098 阅读 · 0 评论 -
DSSD(Deconvolutional Single Shot Detector)算法理解
论文地址:https://arxiv.org/abs/1701.06659Github 源码(caffe版):https://github.com/chengyangfu/caffe/tree/dssd1、文章概述 DSSD(Deconvolutional Single Shot Detector)是SSD算法改进分支中最为著名的一个,SSD的其他改进还包括RSSD(https:/...原创 2018-06-06 22:25:13 · 20583 阅读 · 0 评论 -
SSD(Single Shot MultiBox Detector)算法理解
1、算法概述 SSD(Single Shot MultiBox Detector)是ECCV2016的一篇文章,属于one - stage套路。在保证了精度的同时,又提高了检测速度,相比当时的Yolo和Faster R-CNN是最好的目标检测算法了,可以达到实时检测的要求。在Titan X上,SSD在VOC2007数据集上的mAP值为74.3%,检测速度为59fps。 ...原创 2018-06-06 17:53:31 · 16579 阅读 · 2 评论 -
Faster R-CNN算法理解
论文地址:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal NetworksGithub:https://github.com/rbgirshick/py-faster-rcnn1、文章概述 Faster r-cnn是2016年提出的文章,有两个模型,一个是ZF模型,一个是VGG模型。在V...原创 2018-06-06 11:45:29 · 10129 阅读 · 1 评论 -
目标检测评价指标
召回率(Recall),精确率(Precision),平均正确率(AP),交除并(IoU)摘要在训练YOLO v2的过程中,系统会显示出一些评价训练效果的值,如Recall,IoU等等。为了怕以后忘了,现在把自己对这几种度量方式的理解记录一下。 这一文章首先假设一个测试集,然后围绕这一测试集来介绍这几种度量方式的计算方法。大雁与飞机假设现在有这样一个转载 2017-10-09 15:26:34 · 1544 阅读 · 0 评论 -
Batch Normalization
Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Traini转载 2017-09-09 09:46:03 · 1388 阅读 · 0 评论 -
GoogLeNet论文《Going deeper with convolutions》总结
论文中文翻译:http://blog.csdn.net/motianchi/article/details/50970136一、文章意义 这是Google公司Inception系列的开山之作,在这篇文章中首次提出了Inception模块,后面的Inception v2&v3、Inception v4也是在这篇文章的基础上改进的。GoogLeNet是2014年ILSVRC...原创 2017-08-25 18:23:49 · 540 阅读 · 0 评论 -
NIN网络《Network in Network》总结
一、文章意义 这篇文章提出的“1*1”卷积对后续的研究还是有启发作用的,但是Global Average Pooling 好像影响不大,这篇文章也是在MaxoutNet的基础上进行改进的,Maxout能拟合任意的凸函数,NIN试图拟合任意的函数。二、网络结构 网络结构如下图所示: 这篇文章里的网络结原创 2017-07-28 16:22:58 · 870 阅读 · 0 评论 -
VGG论文《Very Deep Convolutional Networks For Large Scale Image Recognition》总结
一、文章意义 论文使用的VGG网络在ILSVRC2014图像分类比赛中获得了第二名的成绩,后来的许多网络结构也是在VGG网络的基础上进行改进,取得了很好的效果。论文主要是讨论了卷积神经网络(ConvNet)架构设计的另一个重要方面——深度,通过将深度增加到16-19层,分类效果得到了显著的提升。而且最近在一些比赛群里看大佬用的基本上就是VGG、ResNet和Xceptio原创 2017-08-03 19:56:28 · 913 阅读 · 0 评论 -
深度学习有关的术语
博主的博客:点击打开链接这里我想把博主的博客继续完善下去。激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。 Adade原创 2017-07-13 15:05:28 · 1605 阅读 · 0 评论 -
深度学习常用中英文对照表
网上有很多转载,我也不知道哪个是原创,就把知乎上的链接贴进来:点击打开链接最近在读深度学习用于目标检测上的文章,需要很多专有名词,今后我也会不断更新这个中英文对照表。activation 激活值activation function 激活函数additive noise 加性噪声autoe原创 2017-07-13 14:41:56 · 7387 阅读 · 0 评论 -
AlexNet论文《ImageNet Classification with Deep Convolutional Neural Networks》总结
一、文章意义 这篇文章的意义应该不用多说了,2012年ImageNet比赛的第一名,超了第二名一大截。可以说从这个模型提出来以后,深度学习的火热度又上了一个层次,因为这也证明了深度学习在实际中的可实现性。至此之后的许多模型,比如VGG等都是借鉴了这篇文章提出的结构,是里程碑意义的。二、网络结构 网上很多都是贴的作者文章的图,这里有一个比较详细的结构图:原创 2017-07-23 22:47:54 · 462 阅读 · 0 评论 -
SPP-Net 是怎么让 CNN 实现输入任意尺寸图像的?
原文地址:原文地址ECCV2014 Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition解决的问题: there is a technical issue in the training and testing of the CNNs: the prevalent CNNs requir...转载 2018-08-06 20:00:10 · 2305 阅读 · 0 评论