1. 卷积神经网络

本文详细介绍了卷积神经网络中的关键组件,包括卷积层的结构与尺寸计算、Sigmoid和ReLU激活函数的优缺点、池化层的作用以及优化器和损失函数在模型训练中的角色。
摘要由CSDN通过智能技术生成

卷积神经网络

1.卷积层

在这里插入图片描述

卷积核的channel与输入特征层的channel相同
输出的特征矩阵channel与卷积核的个数相同

在卷积操作过程中,矩阵经卷积操作后的尺寸由以下几个因素决定:
① 输入图片大小W×W
② Filter大小F×F
③ 步长S
④ Padding的像素数P
经卷积后的矩阵尺寸大小计算公式为:N=(W-F+2P)/S+1

2.激活函数

激活函数:引入非线性因素,使其具备解决非线性问题的能力。
在这里插入图片描述

Sigmoid激活函数饱和时梯度值非常小,故网络层数较深时容易出现梯度消失。

ReLU缺点在于当反向传播过程中有一个非常大的梯度经过时,反向传播更新后可能导致权重分布中心小于零,导致该处的到处始终为0,反向传播无法更新权重,即进入失活状态。

3.池化层

目的:对特征图进行稀疏处理,减少数据运算量

Maxpooling下采样:

Avgpooling下采样:
在这里插入图片描述

池化层特点:
①没有训练参数
②只改变特征矩阵的w和h,不改变channel
③一般poolsize和stride相同

4.优化器

目的:使网络收敛更快

在这里插入图片描述
在这里插入图片描述

5.损失函数

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值