霹雳吧啦wz学习笔记2_AlexNet网络

文章探讨了sigmoid激活函数的缺点,如求导困难和深度网络梯度消失,提出ReLU作为改进。此外,作者解释了Dropout如何通过减少参数来防止过拟合。还介绍了卷积层(如conv1的参数)和最大池化层的结构,以及全连接层的处理方式。
摘要由CSDN通过智能技术生成

在这里插入图片描述
sigmoid激活函数以及一些传统的激活函数的缺点:
1.在求导的过程中,求导很麻烦
2.当网络比较深的时候会出现梯度消失的现象
Relu就解决了这两个痛点

过拟合在这里插入图片描述
本文的作者使用Dropout的方式解决过拟合的问题
可以这样理解:
Dropout操作变相的减少了网络训练的参数,从而达到减少过拟合的作用
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
conv1:图片大小高224,宽224,深度3[224,224,3]
卷积核大小1111
padding:[1,2]表示左边加上一列0,右边加上2列0(图中没有说明,论文和源码可以看出)
步距:4
卷积核的个数:48
2 = 96
卷积之后得到555596

最大池化下采样层:池化操作只会改变特征矩阵的高度与宽度,不会改变深度

在这里插入图片描述
卷积层2 :在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全连接层:只需要将maxpool最后的输出进行展平
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值