人工智能基础作业_10

Lenet

它是第一个成功应用于手写数字识别任务的卷积神经网络,在1998年提出。主要有以下几层组成:
1、输入层:接收黑白图像。
2、卷积层:通过卷积操作提取特图像征值。
3、池化层:对特征图进行下采样,减小数据尺寸。
4、全连接层:将特征图展平为一维向量,并通过多个全连接层进行分类。
5、输出层:最后一个全连接层输出归一化,得到对应概率。

MNIST

一个于1998年创建的手写数字识别数据集。用来对机器学习模型进行训练用的。里面有6w张训练图和1w张测试图,写的全是0-9.。

AlexNet

CNN的经典模型之一。在2012年提出,它的主要特点是 有5个卷积层 和三个 全连接层 交替,用ReLu函数来引入非线性;其次它使用的卷积核较大,一般为1111或者 55,池化层用的是最大池化操作;还有用了一个叫局部归一化的东西,简单理解就是在中途对激活值较大的数据进一步增强,提升区分度,个人理解有点贪心 的局部最优策略吧,只不过这里用的局部加强;最后对输出用了正则化,随机地把一些神经元置0.。

CIFAR

图像识别和分类的数据集,做分类用的。
里面包括了飞机、汽车、鸟、猫等多个类别,每个不同版本的数据集种类数量不一样。
但是这类数据集噪声比较大,对分类的难度要求相对较高,更多的是考验优化算法。

VGG Net

也是CNN经典模型之一,在2014年提出的,跟Alexnet不一样,首先它有16或者19个卷积层,深度更“深”,其次它的卷积核较小 ,是3*3的,所以相对于Alexnet他的参数量和模型会大很多,从而训练时间肯定也会更长。

GoogLeNet & Inception v1

这俩是一个东西。同Alexnet和VGGnet不一样的是,它采用了多个卷积核进行同时卷积,一般为11,33以及5*5 的,这一操作被称为Inception模块。其次它采用了稀疏连接的方式,也就是是通过1x1卷积操作将不同通道的特征进行混合,从而减少冗余计算。还有在GoogLeNet的中间层添加了两个辅助分类器。这些辅助分类器对中间特征进行分类,并与主分类器共同计算损失。其他的池化和全连接的操作基本都大同小异。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值