经典CNN网络:AlexNet

AlexNet创新:

1.成功使用RELU作为CNN的激活函数。
2.训练中使用dropout随机忽略一部分神经元,避免模型过拟合
3.提出局部响应归一化层(LRN),逐渐被Batch Nomalization(BN)代替
4.使用cuda加速神经网络训练
5.数据增强

Alexnet实现过程

输入层
中间操作(卷积+池化)
输出层
代码实现要用到的内容input(输入的内容),conv2d(卷积核),max_pooling2d(最大池化),flatten(拉伸矩阵成为列向量)dense(全连接层)
以上参数使用说明
a=Conv2D(96,[11,11],strides=[4,4],padding=same,activation=‘relu’)(x)
以上代表的卷积核的大小是1111的矩阵,数量是96,水平和竖直的滑动距离是4,激活函数是relu。padding是规定了卷积的类型
a=MaxPooling2D([3,3],strides=[2,2])(x),以上代表池化的面积是3
3的大小,滑动的水平和垂直距离是2,
Dense(4096,activation=‘relu’)(x)表示全连接为4096,激活函数为relu

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值