神经网络与深度学习-学习笔记(3)

1.基本卷积神经网络

① AlexNet

网络提出:

网络结构:

网络说明:

网络一共有8层可学习层——5层卷积层和3层全连接层

改进

-池化层均采用最大池化

-选用ReLU作为非线性环节激活函数

-网络规模扩大,参数数量接近6000万

-出现“多个卷积层+一个池化层”的结构

普遍规律

-随网络深入,宽、高衰减,通道数增加

详细解释:以第一层conv1为例

relu1:max(0,𝑥),作为激活函数紧接在卷积层后面

norm1:局部响应归一化LRN,LRN层作用不大,在CNN中并不常用

pool1:采用max pooling,pooling核大小为3×3,stride为2,即pooling核的步长是2,即2倍降采样,此处的pool1层是有交叠的池化层,即pooling核在相邻位置有重叠

可视化:

②VGG-16

网络提出:

网络结构:

参数数量变化:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值