AlexNet(使用丢弃法)

一、结构:使用了8层卷积神经网络,5层卷积层和2层全连接隐藏层和1个全连接输出层

二、特点:更深的网络结构

                使用层叠的卷积层,即卷积层+卷积层+池化层来提取图像的特征

                使用dropout(丢弃法)抑制过拟合,Dropout可以看成是一种将模型进行随机的组合,可以增加其他神经元被训练到的可能性。

                使用数据增强Data Augmenttation抑制过拟合

                使用非线性激活函数Relu替换之前的线性函数sigmoid作为激活函数,因为Relu:计算量大大减少,收敛速度快,重叠池化可以避免过度拟合

                使用CPU进行训练

                重叠池化:在池化的时候,每次移动的步长小于池化的窗口长度

三、补充知识点:输出特征图像大小=(输入图像尺寸-卷积核大小)/步长+1

    

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值