自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

工作笔记

从科学家手里,接取火种,然后燎原大地。。。

  • 博客(15)
  • 资源 (1)
  • 收藏
  • 关注

转载 目标检测(八)--Faster R-CNN

转自:www.cnblogs.com/dudumiaomiao/p/6560841.html 略删改R-CNN --> FAST-RCNN --> FASTER-RCNNR-CNN:(1)输入测试图像;(2)利用selective search 算法在图像中从上到下提取2000个左右的Region Proposal;(3)将每个Region Proposal缩放(w...

2017-03-28 16:19:09 18826

转载 目标检测(七)--Fast R-CNN

论文出处见:http://arxiv.org/abs/1504.08083转自:blog.csdn.net/xzzppp/article/details/513777711、简介Fast R-CNN将整个图片送入网络时同时将object proposal(这里称为RoI,一张图片中得到约2k个)也送入网络,每一个RoI被Rol pooling layer(相当于一个单层的SPP lay...

2017-03-28 14:19:35 5989

转载 目标检测(六)--SPPNet

空间金字塔池化      空间金字塔池化层简介:                  在对图片进行卷积操作的时候,卷积核的大小是不会发生变化的额,反向调节的权重仅仅是数值会发生变化。但是,但是,但是,输入的图片的大小你是否可以控制呢?哈哈,我们的输入图片大小是会发生变化的,这里图片大小的变化并不会在卷积操作和polling操作产生影响,但是会对全连接层的链接产生影响。这篇文章的核心就是解...

2017-03-28 10:51:19 7571

转载 目标检测(五)--R-CNN

基于R-CNN的物体检测原文地址:http://blog.csdn.net/hjimce/article/details/50187029作者:hjimce一、相关理论   本篇博文主要讲解2014年CVPR上的经典paper:《Rich feature hierarchies for Accurate Object Detection and Segmentation》,这篇文章...

2017-03-28 10:25:01 7746

转载 系统学习深度学习(二十五)--CNN调优总结

1.针对CNN优化的总结:Systematic evaluation of CNN advances on the ImageNet使用没有 batchnorm 的 ELU 非线性或者有 batchnorm 的 ReLU。用类似1*1的网络结构预训练RGB数据,能得到更好的效果。使用线性学习率衰退策略。使用平均和最大池化层的和。使用大约 128(0.005) 到 256 (0.

2017-03-21 11:30:19 16948 1

转载 系统学习深度学习(二十四)--WRN

Abstract网络不断向更深发展,但是有时候为了得到少量的accuracy的增加,却需要将网络层数翻倍,也会减少feature的reuse,降低训练速度。作者提出了wide residual network,16层的表现就比之前的ResNet效果要好。1 IntroductionResNets因为过深,很多residual block只能提供少量的信息,或者只有少量的block能学到重要的信息。...

2017-03-20 14:50:53 7695

转载 系统学习深度学习(二十三)--SqueezeNet

本文讲一下最新由UC Berkeley和Stanford研究人员一起完成的SqueezeNet[1]网络结构和设计思想。SqueezeNet设计目标不是为了得到最佳的CNN识别精度,而是希望简化网络复杂度,同时达到public网络的识别精度。所以SqueezeNet主要是为了降低CNN模型参数数量而设计的。OK,下面直奔主题了。设计原则(1)替换3x3的卷积kernel为1x1的卷积ker

2017-03-20 11:00:26 6737

原创 系统学习深度学习(二十二)--CNN经典模型总结

转自:http://www.open-open.com/lib/view/open1473213789568.html参考:http://blog.csdn.net/qq_17754181/article/details/59111864?locationNum=14&fps=1略有删改。LeNet5LeNet5 诞生于 1994 年,是最早的卷积神经网络之一,并且推动了深...

2017-03-17 13:08:33 30211 4

原创 系统学习深度学习(二十一)--GoogLeNetV4与Inception-ResNet V1,V2

转载自: http://www.jianshu.com/p/329d2c0cfca9[v4] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,top5 error 3.08% 上面那篇论文,主要贡献如下:1、在Inception v3的基础上发明了Inception...

2017-03-16 15:01:38 19436

原创 系统学习深度学习(二十)--ResNet,DenseNet,以及残差家族

转自:http://blog.csdn.net/cv_family_z/article/details/50328175CVPR2016https://github.com/KaimingHe/deep-residual-networks这是微软方面的最新研究成果, 在第六届ImageNet年度图像识别测试中,微软研究院的计算机图像识别系统在几个类别的测试中获得第一名。本文是解决超深度...

2017-03-15 13:19:15 26437

原创 系统学习深度学习(十九)--GoogLeNetV1,V2,V3

转自:http://blog.csdn.net/shuzfan/article/details/50738394参考:http://www.jianshu.com/p/33197e469414同时做了一些补充。本文介绍的是著名的网络结构GoogLeNet及其延伸版本,目的是试图领会其中的思想而不是单纯关注结构。GoogLeNet Incepetion V1这是GoogLeNet...

2017-03-15 10:46:59 23539

转载 系统学习深度学习(十八)--NIN模型

转自:http://blog.csdn.net/mounty_fsc/article/details/51746111《Network in Network》论文笔记1.综述这篇文章有两个很重要的观点:1×1卷积的使用 文中提出使用mlpconv网络层替代传统的convolution层。mlp层实际上是卷积加传统的mlp(多层感知器),因为convolution是线

2017-03-14 13:00:39 11930 1

转载 系统学习深度学习(十七)--VGG模型

原文:http://blog.csdn.net/u014114990/article/details/50715548最近在看imagenet  ILSVRC2015 比赛结果,除了 msra 的深度残差神经网络外,采用最多的还是 googlenet和VGG这两种网络模型, 优化方法上更多的使用了batch nomalization,prelu等,大多团队都是这两个模型上改进,采用新的优化方法

2017-03-09 16:46:52 15067 1

转载 系统学习深度学习(十六)--Overfeat

转自:http://blog.csdn.net/whiteinblue/article/details/43374195本文是纽约大学Yann LeCun团队中Pierre Sermanet ,David Eigen和张翔等在13年撰写的一篇论文,本文改进了Alex-net,并用图像缩放和滑窗方法在test数据集上测试网络;提出了一种图像定位的方法;最后通过一个卷积网络来同时进行分类,定位和检

2017-03-09 10:59:49 12346 2

转载 系统学习深度学习(十五)--AlexNet译文

转自:http://www.aichengxu.com/other/2557713.htmhttp://blog.csdn.net/maweifei/article/details/53117830本深度学习网络是Alex和Hinton参加ILSVRC2012比赛的卷积网络论文,本网络结构也是开启ImageNet数据集更大,更深CNN的开山之作,本文对CNN的一些改进成为以后CNN网络

2017-03-02 10:17:31 8730

双向RNN原始论文

双向RNN原始论文

2017-08-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除