目录:
一、Alexnet网络介绍:
二、CIFAR-10数据集的简介:
三、什么是卷积、池化、dropout及其作用?
四、alexnet提出的意义和优缺点?
五、利用CIFAR数据集训练alexnet网络,并识别图像
参考:
一、Alexnet网络介绍:
AlexNet的一些参数和结构图:
卷积层:5层
全连接层:3层
深度:8层
参数个数:60M
神经元个数:650k
分类数目:1000类
二、CIFAR-10数据集的简介:
网址:http://www.cs.toronto.edu/~kriz/cifar.html
CIFAR-10 是由Hinton 的学生Alex Krizhevsky 和Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。
该数据集一共有60000张图片,图片大小为32*32*3的彩色图片,一共包含10类,分别是:飞机( airplane )、汽车( automobile )、鸟类( bird )、猫( cat )、鹿( deer )、狗( dog )、蛙类( frog )、马( horse )、船( ship )和卡车( truck )。其中包括50000张训练集,10000张测试集。
与MNIST数据集相比:
CIFAR数据集是RGB彩色图像,MNIST图像是灰度图像;
CIFAR数据集的大小为32*32,MNIST图像大小为28*28;
CIFAR-10数据集被划分成5个训练的batch和1个测试的batch
三、什么是卷积、池化、dropout及其作用?
卷积:从一副大的图像中随机选取一个小块,从小块中学习得到一些特征;只关注局部特征
作用:减小参数量与权值共享
池化:对输入特征进行压缩,降低过拟合
作用:降采样,减少参数,平移不变性
dropout:在训练神经网络时,以概率p随机丢失一些神经元和神经结点,进行训练,提高网络的泛华能力,降低过拟合。(随机的删掉一半隐藏层中的神经元)
四、alexnet提出的意义和优缺点?
意义:Alexnet网络为后续CNN甚至是RCNN网络打下了基础
优缺点:使用RELU作为激活函数,加快了收敛速度。使用dropout避免过拟合;使用data augmentation 扩增数据集
stride < kernei_size 那么就会出现重叠池化现象,有利于防止过拟合。
但是有60百万个参数,计算量比较大;
五、利用CIFAR数据集训练alexnet网络,并识别图像
参考:1.Tensorflow深度学习之二十:CIFAR-10数据集介绍
https://blog.csdn.net/DaVinciL/article/details/78793067
2.从AlexNet理解卷积神经网络的一般结构https://blog.csdn.net/chaipp0607/article/details/72847422