基础神经网络
光明顶上的5G
作者5G,目前专注于Java后端技术的学习
展开
-
AlexNet的简介与pytorch实现
AlexNet亮点:首次使用GPU进行网络加速训练使用了ReLU激活函数,而不是传统的Sigmoid激活函数以及Tanh激活函数使用了LRN局部响应归一化在全连接层的前两层中使用了dropout随机失活神经元操作,以减少过拟合网络结构conv1:kernels:48*2=96kernel-size:11padding:[1,2]stride:4input-size:[224, 224, 3]output-size:[55, 55, 96]55 = 224−11+(1+2原创 2020-05-26 09:35:06 · 327 阅读 · 0 评论 -
LeNet的介绍与实现
Pytorch Tensor的通道顺序[batch, channel, height, width]Cifar-10图像(彩色):3x32x32class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__() self.conv1 = nn.Conv2d(3, 16, 5) self.pool1 = nn.MaxPool2d(2, 2) ...原创 2020-05-19 00:34:39 · 496 阅读 · 0 评论 -
FCN网络结构学习
参考文章:https://blog.csdn.net/qq_31347869/article/details/89429211https://www.cnblogs.com/gujianhan/p/6030639.htmlCNN与FCN通常CNN网络在卷积层之后会连接若干个全连接层,将卷积图产生的特征图映射成一个固定的特征向量。以AlexNet为代表的经典CNN结构适合于图像级的分类任务,...原创 2019-12-04 19:10:09 · 859 阅读 · 0 评论 -
Faster R-CNN网络结构学习
背景Fast R-CNN存在一个缺点,它需要使用selective search提取框,这个方法比较慢,有时检测一张图片,大部分时间不是花费在神经网络分类上,而是花在selective search提取框上。而它的升级版Faster R-CNN中,使用RPN网络取代了selective search,不仅速度大大提高,而且获得了更加精确的结果。网络结构对于任意大小的图片,首先缩放至固定大小...原创 2019-12-01 16:05:40 · 614 阅读 · 0 评论 -
SPP Net网络结构学习
SPP:Spatial Pyramid Pooling(空间金字塔池化)创新点结合空间金字塔方法实现CNNs对尺度输入。(一般CNN后连接全连接层或分类器,它们都需要固定的输入尺寸,因此不得不对数据进行crop或warp,这些预处理都会造成数据的丢失或几何的失真。SPP Net的第一个贡献是将金字塔思想加入到CNN,实现了数据的多尺度输入。)如下图所示,在卷积层和全连接层之间加入了SPP...原创 2019-11-29 16:01:03 · 1151 阅读 · 0 评论 -
Fast-RCNN网络结构学习
背景经典的R-CNN存在以下几个问题:训练分多步骤(先在分类数据集上预训练,再进行fine-tune训练,然后再针对每个类别都训练一个线性SVM分类器,最后再用regression对bounding box进行回归,并且bounding box还需要通过selective search生成)时间和空间开销大(在训练SVM和回归的时候需要用网络训练的特征作为输入,特征保存在磁盘上,再读入的时...原创 2019-11-29 14:25:07 · 566 阅读 · 0 评论 -
R-CNN网络结构学习
网络模型创新点采用CNN网络提取图像特征,从经验驱动的人造特征范式HOG(方向梯度直方图)、SIFT(尺度不变特征变换)到数据驱动的表示学习方式,提高特征对样本的表示能力。采用大样本下有监督训练+小样本微调的方式解决小样本难以训练甚至过拟合问题。详细过程先输入一张多目标图像,采用selective search算法提取约2000个候选框。现在每个候选框周围加16个像素值为候选框...原创 2019-11-28 17:02:52 · 766 阅读 · 0 评论