自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(30)
  • 资源 (1)
  • 收藏
  • 关注

转载 caffe | 经典网络的caffe实现资料汇总

    自2012年Alexnet赢得了ImageNet竞赛以来,深度学习(神经网络)得到了飞速发展,产生了许多的神经网络结构,本文主要总结Caffe中使用的神经网络(分类的神经网络),本文的神经网络作者都使用Caffe训练过,并在Kaggle的Intel癌症预测比赛中进行了测试与使用(top 8%)。1. AlexnetAlexnet,2012年ImageNet竞赛冠军,深度学习的里程碑。网络结...

2018-06-29 16:24:32 391

转载 深度学习网络 | GoogleNet v1-v4解析 (2)

http://blog.csdn.net/diamonjoy_zone/article/details/70576775参考:1. Inception[V1]: Going Deeper with Convolutions2. Inception[V2]: Batch Normalization: Accelerating Deep Network Training by Reducing Int...

2018-06-29 16:07:29 500 1

转载 深度学习网络 | GoogleNet v1-v3解析(1)

一.CNN发展纵览   我们先来看一张图片:  1985年,Rumelhart和Hinton等人提出了后向传播(Back Propagation,BP)算法(也有说1986年的,指的是他们另一篇paper:Learning representations by back-propagating errors),使得神经网络的训练变得简单可行,这篇文章在Google Scholar上的引用次数达到了...

2018-06-29 11:53:16 19788

转载 轻量级网络 | ShuffleNet解析

论文:ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices 论文链接:https://arxiv.org/abs/1707.01083算法详解: ShuffleNet是Face++的一篇关于降低深度网络计算量的论文,号称是可以在移动设备上运行的深度网络。这篇文章可以和MobileNet、...

2018-06-29 11:36:57 593

转载 深度学习网络 | GoogLeNet

0. 背景获得2014年ImageNet挑战赛(ILSVRC14)第一名,google出品 paper地址:going deeper with convolutions caffe网络结构地址:train_val.prototxt1. 主要贡献保证计算资源不变(cpu/memory)的基础上,增加了神经网络的深度和宽度。网络共使用了 22 层隐层,用于classification & ...

2018-06-29 11:32:51 326

转载 深度学习网络 inception v1-v4 解析(0) | 轻量级网络 mobilenet v1-v2

Inception v1的网络,主要提出了Inceptionmodule结构(1*1,3*3,5*5的conv和3*3的pooling组合在一起),最大的亮点就是从NIN(Network in Network)中引入了1*1 conv,结构如下图所示,代表作GoogleNet假设previous layer的大小为28*28*192,则,a的weights大小,1*1*192*64+3*3*192...

2018-06-29 11:15:21 2511

转载 深度学习网络 | ResNext解析

背景论文地址:Aggregated Residual Transformations for Deep Neural Networks 代码地址:GitHub 这篇文章在 arxiv 上的时间差不多是今年 cvpr 截稿日,我们就先理解为是投的 cvpr 2017 吧,作者包括熟悉的 rbg 和何凯明,转战 Facebook 之后代码都放在 Facebook 的主页里面了,代码也从 ResNet...

2018-06-29 10:45:25 5911

转载 卷积 | 深度可分离卷积、分组卷积、空洞卷积、转置卷积(反卷积)

参考: https://zhuanlan.zhihu.com/p/28749411 https://zhuanlan.zhihu.com/p/28186857 https://blog.yani.io/filter-group-tutorial/ https://www.zhihu.com/question/54149221 http://blog.csdn.net/guvcolie/articl...

2018-06-29 10:45:14 4457 1

转载 轻量级网络 | SqueezeNet,ShuffleNet

前言        自从AlexNet一举夺得ILSVRC 2012 ImageNet图像分类竞赛的冠军后,卷积神经网络(CNN)的热潮便席卷了整个计算机视觉领域。CNN模型火速替代了传统人工设计(hand-crafted)特征和分类器,不仅提供了一种端到端的处理方法,还大幅度地刷新了各个图像竞赛任务的精度,更甚者超越了人眼的精度(LFW人脸识别任务)。CNN模型在不断逼近计算机视觉任务的精度极限...

2018-06-29 10:19:40 473

转载 深度学习网络 | ResNet解析(3)

论文地址:Deep Residual Learning for Image Recognition     ResNet——MSRA何凯明团队的Residual Networks,在2015年ImageNet上大放异彩,在ImageNet的classification、detection、localization以及COCO的detection和segmentation上均斩获了第一名的成绩,而且...

2018-06-28 20:11:56 537

转载 深度学习网络 | ResNet解析(2)

本文结构:我的阅读笔记  1.ResNet之Building block  2.ResNet之CIFAR-10实验结构其他资料  1.ResNet作者何凯明博士在ICML2016上的tutorial演讲  2.Bottleneck  3.diss ResNet的论文论文翻译---------------------------------------------------------------...

2018-06-28 20:01:15 6654

转载 轻量级网络 | DenseNet网络解析

论文:Densely Connected Convolutional Networks 论文链接:https://arxiv.org/pdf/1608.06993.pdf 代码的github链接:https://github.com/liuzhuang13/DenseNet MXNet版本代码(有ImageNet预训练模型): https://github.com/miraclewkf/Dense...

2018-06-26 17:08:37 2028

转载 caffe | 预训练模型的使用

           首先明确预训练好的模型和自己的网络结构是有差异的,预训练模型的参数如何跟自己的网络匹配的呢:参考官网教程:http://caffe.berkeleyvision.org/gathered/examples/finetune_flickr_style.html–If we provide the weights argument to the caffe train comma...

2018-06-26 17:06:04 3311

转载 轻量级网络 | SqueezeNet、MobileNet、ShuffleNet、Xception 综述(1)

     本文就近年提出的四个轻量化模型进行学习和对比,四个模型分别是:SqueezeNet、MobileNet、ShuffleNet、Xception。目录一、引言 二、轻量化模型 2.1 SqueezeNet2.2 MobileNet2.3 ShuffleNet2.4 Xception三、网络对比 一、引言       自 2012 年 AlexNet 以来,卷积神经网络(简称 CNN)在图像...

2018-06-26 17:01:50 5895

转载 深度学习网络 | GoogLeNet Inception结构网络简化

论文下载Going deeper with convolutionsgoogle在ILSVRC14比赛中获得冠军的一个模型。GoogLeNet, 一个22层的深度网络。GoogLeNet模型的参数量只是两年前该项赛事的冠军Krizhevsky参数量的1/12,大大降低了网络的复杂度,甚至还达到了比Krizhevsky更高的精度。此篇论文讨论的就是如何有效的控制computation cost,降低...

2018-06-22 19:36:36 1936

转载 深度学习网络 | ResNet 解析

     ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero也使用了ResNet,所以可见ResNet确实很好用。 下面我们从实用的角度去看看ResNet。1.ResNet意义随着网络...

2018-06-22 19:34:48 727

原创 v3

# -*-coding=utf8 -*-import pandas as pdimport numpy as npimport tensorflow as tf#定义常量rnn_unit=128 #10 #hidden layer unitsinput_size=30output_size=2lr=0.001#0.0006 #学习率f = open...

2018-06-21 22:26:02 260

转载 目标检测算法综述:R-CNN,faster R-CNN,yolo,SSD,yoloV2

1 引言深度学习目前已经应用到了各个领域,应用场景大体分为三类:物体识别,目标检测,自然语言处理。上文我们对物体识别领域的技术方案,也就是CNN进行了详细的分析,对LeNet-5 AlexNet VGG Inception ResNet MobileNet等各种优秀的模型框架有了深入理解。本文着重与分析目标检测领域的深度学习方法,对其中的经典模型框架进行深入分析。目标检测可以理解为是物体识别和物体...

2018-06-20 16:01:47 7126

转载 YOLOv2 论文解读(3)

一,YOLOv2论文解读YOLO 问世已久,不过风头被SSD盖过不少,原作者自然不甘心,YOLO v2 的提出给我们带来了什么呢?       先看一下其在 v1的基础上做了哪些改进,直接引用作者的实验结果了:      条目不少,好多Trick,我们一个一个来看: A)Batch Normalization(批量规范化)       先建立这样一个观点: 对数据进行预处理(统一格式、均衡化、去噪...

2018-06-20 15:56:49 1757 2

转载 caffe | Concat层和Eltwise层对比解析

    Concat层的作用就是将两个及以上的特征图按照在channel或num维度上进行拼接,并没有eltwise层的运算操作,举个例子,如果说是在channel维度上进行拼接conv_9和deconv_9的话,首先除了channel维度可以不一样,其余维度必须一致(也就是num、H、W一致),这时候所做的操作仅仅是conv_9 的channel k1加上deconv_9的channel k2,...

2018-06-20 11:04:53 11500 1

转载 caffe | 反卷积

1.前言   传统的CNN网络只能给出图像的LABLE,但是在很多情况下需要对识别的物体进行分割实现end to end,然后FCN出现了,给物体分割提供了一个非常重要的解决思路,其核心就是卷积与反卷积,所以这里就详细解释卷积与反卷积。    对于1维的卷积,公式(离散)与计算过程(连续)如下,要记住的是其中一个函数(原函数或者卷积函数)在卷积前要翻转180度图1    对于离散卷积,f的大小是n...

2018-06-14 20:58:33 1055 3

转载 目标检测DET | FPN论文

这篇论文是CVPR2017年的文章,采用特征金字塔做目标检测,有许多亮点,特来分享。论文:feature pyramid networks for object detection 论文链接:https://arxiv.org/abs/1612.03144论文概述:作者提出的多尺度的object detection算法:FPN(feature pyramid networks)。原来多数的obje...

2018-06-14 11:43:28 284

转载 图像目标检测DET--Beyond Skip Connections: Top-Down Modulation for Object Detection

Beyond Skip Connections: Top-Down Modulation for Object Detection CVPR2017 under review code :(coming soon) 可以结合 Feature Pyramid Networks for Object Detection 阅读大牛 Jitendra Malik 竟然都去 Google Researc...

2018-06-14 09:29:17 397

转载 改进目标检测网络 | 十大深度学习操作

CNN从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。 作者对近几年一些具有变革性的工作进行简单盘点,从这些充满革新性的工作中探讨日后的CNN变革方向。 本文只介绍其中具有代表性的模型,一些著名的模型由于原理相同将不作介绍,若有遗漏也欢迎指出。 作者:Professor ho 知乎:http://suo.im/16NMWy 一...

2018-06-14 09:28:22 5012

转载 YOLOv2 论文解读(2)

论文地址:YOLO9000: Better, Faster, Stronger 项目主页:YOLO: Real-Time Object Detection(最近博客下很多人请求Caffe 代码,受人所托,已经不再提供,且关闭本文评论,望请见谅)概述时隔一年,YOLO(You Only Look Once: Unified, Real-Time Object Detection)从v1版本进化到...

2018-06-08 11:44:30 270

转载 YOLOv2 论文解读(1)

论文地址:YOLO9000: Better, Faster, Stronger        项目主页:YOLO: Real-Time Object DetectionYOLO9000是CVPR2017的最佳论文提名。首先讲一下这篇文章一共介绍了YOLOv2和YOLO9000两个模型,二者略有不同。前者主要是YOLO的升级版,后者的主要检测网络也是YOLOv2,同时对数据集做了融合,使得模型可以...

2018-06-08 09:13:16 456

转载 caffe | 用训练好的caffemodel来进行分类

   caffe程序自带有一张小猫图片,存放路径为caffe根目录下的examples/images/cat.jpg, 如果我们想用一个训练好的caffemodel来对这张图片进行分类,那该怎么办呢? 如果不用这张小猫图片,换一张别的图片,又该怎么办呢?如果学会了小猫图片的分类,那么换成其它图片,程序实际上是一样的。开发caffe的贾大牛团队,利用imagenet图片和caffenet模型训练好了...

2018-06-07 14:38:40 666

转载 caffe | solver参数配置文件

solver算是caffe的核心的核心,它协调着整个模型的运作。caffe程序运行必带的一个参数就是solver配置文件。运行代码一般为# caffe train --solver=*_slover.prototxt在Deep Learning中,往往loss function是非凸的,没有解析解,我们需要通过优化方法来求解。solver的主要作用就是交替调用前向(forward)算法和后向(ba...

2018-06-07 14:37:07 194

转载 caffe | 数据层以及参数

         要运行caffe,需要先创建一个模型(model),如比较常用的Lenet,Alex等, 而一个模型由多个屋(layer)构成,每一屋又由许多参数组成。所有的参数都定义在caffe.proto这个文件中。要熟练使用caffe,最重要的就是学会配置文件(prototxt)的编写。层有很多种类型,比如Data,Convolution,Pooling等,层之间的数据流动是以Blobs的...

2018-06-07 14:34:57 178

转载 caffe | 利用caffe训练图像多分类

    学习的caffe的目的,不是简单的做几个练习,而是最终落实到自己的项目或科研中去。因此,本文介绍一下,从自己的原始图片到lmdb数据,再到训练和测试的整个流程。一、数据的准备    有条件的同学,可以去ImageNet的官网点击打开链接,下载ImageNet图片来训练。但是我没有下载,因为我注册过程中一直出现bug。    也可以去这个网盘(点击打开链接)下载图像数据,包括手写数字.jpg...

2018-06-06 13:40:38 2511 1

C 语言 绩点计算软件

C程序代码 绩点计算的输入与输出 源程序代码 亲写 可靠有效

2015-05-18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除