Keras基于Cifar-10数据集的CNN实现

该博客介绍了如何使用Keras通过序列模型构建一个深度学习网络,针对Cifar-10数据集进行训练。网络包括三层卷积层和两层全连接层,激活函数选用LeakyReLU,权重初始化参照He(2015)的方法,并应用BatchNormalization加速训练。优化器使用Adam,数据预处理包含去均值和方差归一化。经过20轮训练,模型达到0.97的精度。
摘要由CSDN通过智能技术生成

一、网络结构

        模型采用Keras中的序列模型实现,共六层,前三层为卷积层,四五层为全连接层,第六层为softmax输出层。卷积层核数量分别为32@5x5、32@5x5、64@5x5,全连接层节点数为1024和256,输出层为节点数为10。如附图1所示。

二、激活函数

        Keras中内置激活函数有Sigmoid、tanh、relu、softmax等等,可直接用activation=‘relu’实现;高级激活函数有LeakyRelu、PRelu、ELU、ThresholdedRelu,需import advance_activation实现。本模型采用LeakeyRelu函数,参数为0.2。

三、权重初始化

        参考Xavier Glorot(2010)Kaiming He(2015),采用He(2015)的方法,即初始参数由0均值,标准差为sqrt(2 / n) 的正态分布产生,n为

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值