卷积神经网络专题
卷积神经网络相关积累与学习
haobo97
这个作者很懒,什么都没留下…
展开
-
RCNN简介
RCNN(Regions with CNN features)是在2014年提出的一种目标检测算法,RCNN是将CNN方法应用到目标检测问题上的一个里程碑,借助CNN良好的特征提取和分类的性能,通过REgionPropo方法实现目标检测。RCNN的特点与流程总结一:速度经典的目标检测算法使用滑动窗法依次判断所有可能的区域。本文则预先提取一系列较可能是物体的候选区域,之后仅在这些候选区域上提取特征,进行判断。二:训练集经典的目标检测算法在区域中提取人工设定的特征(Haar,HOG)。本文则需要训练深原创 2020-10-28 09:39:47 · 3143 阅读 · 0 评论 -
DenseNet Pytorch实现
DenseNet网络实现DenseNet和ResNet不同在于ResNet是跨层求和,而DenseNet是跨层将特征在通道维度进行拼接,下图一是ResNet,二是DenseNet。因为实在通道维度进行特征的拼接,所以底层的输出会保留进入后面的曾,这样能更好的保证梯度的传播,同时能够使用低维的特征和高维的特征进行联合训练,能够得到更好的结果。DenseNet主要有Dense block组成,使用pytorch实现如下def conv_block(in_channel, out_channel):原创 2020-10-11 21:13:20 · 1439 阅读 · 0 评论 -
ResNet Pytorch实现
ResNet Pytorch实现ResNet通过引入跨连接层解决了梯度回传消失的问题如下图所示:这就是普通的网络连接跟跨层残差连接的对比图,使用普通的连接,上层的梯度必须要一层一层的传回来,而使用残差链接,相当于中间有了一条更短的路,梯度能够从这条更短的路传回来,这避免了梯度过小的情况。残差网络的结构就是上面这种残差快的堆叠,residual block实现如下:class residual_block(nn.Module): def __init__(self, in_channel,原创 2020-10-11 19:39:16 · 210 阅读 · 0 评论 -
Pytorch实现GoogLeNet
Pytorch实现GoogLeNetGoogLeNet也叫InceptionNet,在2014年被提出,如今已到V4版本。GoogleNet比VGGNet具有更深的网络结构,一共有22层,但是参数比AlexNet要少12倍,但是计算量是AlexNet的4倍,原因就是它采用很有效的Inception模块,并且没有全连接层。最重要的创新点就在于使用inception模块,通过使用不同维度的卷积提取不同尺度的特征图。左图是最初的Inception模块,右图是使用的1×1得卷积对左图的改进,降低了输入的特征图维原创 2020-10-11 15:55:50 · 119 阅读 · 0 评论 -
VGG Pytorch复现
VggNet Pytorch复现一、简介VggNet是第一个真正意义上的深层网络结构,该网络结构简单,就是不断堆叠卷积层和池化层。VggNet相比AlexNet的一个改进是采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。对于给定的感受野(与输出有关的输入图片的局部大小),采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。简单来说,在VGG中,使用了3个3x3卷积核来代替7x7卷积核转载 2020-10-11 15:44:44 · 385 阅读 · 0 评论 -
AlexNet Pytorch复现
AlexNet Pytorch复现一、简介本文将简要介绍AlexNet的网络结构并使用pytorch进行网络结构的复现AlexNet在2012年提出,以0.85的正确率获得分类比赛的冠军,开启人工智能新篇章。简单讲AlexNet是几个卷积池化堆叠后连接几个全连接层。整体结构如下图:二、结构分析AlexNet每层的超参数如下图所示,其中输入尺寸为227227,第一个卷积使用较大的核尺寸1111,步长为4,有96个卷积核;紧接着一层LRN层;然后是最大池化层,核为33,步长为2。这之后的卷积层的核原创 2020-10-11 14:47:43 · 546 阅读 · 0 评论 -
LeNet-5 Pytorch复现
LeNet-5 Pytorch复现本文将简要介绍LeNet-5的网络结构并使用pytorch进行网络结构的复现LeNet是1998年用来识别手写数字图像的卷积神经网络,它展示了通过梯度下降训练卷积神经网络可以达到手写数字识别在当时最先进的结果。这个奠基性的工作第一次将卷积神经网络推上舞台,为世人所知。Lenet-5结构如下:各层信息:1.第一层C1是一个卷积层输入图片: 3232卷积核大小: 55卷积核种类: 6输出feature map大小:2828(32-5+1)神经元数量:2828原创 2020-10-11 14:22:37 · 444 阅读 · 0 评论 -
卷积层、池化层和全连接层
卷积层(Convolution)什么是卷积,如下图所示,卷积操作是用卷积核,按照一定的步长,在一张图片上规律性的移动。卷积核的每个单元有权重,在卷积核移动的过程中将图片上的像素和卷积核的对应权重相乘,最后将所有乘积相加得到一个输出。作用和意义:①局部感知:在传统神经网络中每个神经元都要与图片上每个像素相连接,这样的话就会造成权重的数量巨大造成网络难以训练。而在含有卷积层的的神经网络中每个神经元的权重个数都是卷积核的大小,这样就相当于没有神经元只与对应图片部分的像素相连接。这样就极大的减少了权重的数量原创 2020-10-04 20:50:12 · 2643 阅读 · 0 评论 -
卷积神经网络基础
深度学习简介2006年,Hinton提出了深度学习,基本思想是通过构建多层网络,对目标进行多层表示,以期通过多层的高层次特征来表示数据的抽象语义信息,获得更好的特征鲁棒性。深层模型优于浅层模型,这是因为浅层学习模型通常要由人工的方法来获得好的样本特性,在此基础上进行识别和预测,因此方法的有效性在很大程度上受到特征提取的制约。一、什么是卷积神经网络卷积神经网络(convolutional neural network)——CNN卷积神经网络是一种带有卷积结构的深度神经网络,是一种多层的监督学习神经网原创 2020-10-04 14:41:18 · 1393 阅读 · 0 评论