卷积

卷积核在卷积神经网络中起到局部感知作用,大小通常为1x1, 3x3或5x5。边界处理包括SAME和VALID,1x1卷积用于通道数的调整和非线性引入,同时也促进跨通道信息交互。GoogLeNet通过1x1卷积降低参数数量和增加网络紧凑性。池化操作如平均池化和最大池化,有助于特征提取、减少计算量并提高泛化能力。" 114743756,5701454,Mermaid教程:在Markdown中绘制流程图,"['Markdown编辑器', '图表绘制', 'Mermaid语法', '流程图设计', '文档美化']
摘要由CSDN通过智能技术生成

卷积核:可以看作对某个局部的加权求和,它是对应局部感知,它的原理是在观察某个物体时我们既不能观察每个像素也不能一次观察整体,而是先从局部开始认识,这就对应了卷积。卷积核的大小一般有1x1,3x3和5x5的尺寸。卷积核的个数就对应输出的通道数,这里需要说明的是对于输入的每个通道,输出每个通道上的卷积核是不一样的。比如输入是28x28x192(WxDxK,K代表通道数),然后在3x3的卷积核,卷积通道数为128,那么卷积的参数有3x3x192x128,其中前两个对应的每个卷积里面的参数,后两个对应的卷积总的个数。

边界处理: SAME和VALID

VALID: 对边界不进行处理,输出图片总是比输入图片小。

SAME:填充核减1的一半的零,与原图大小相同。

特征图大小计算:
在这里插入图片描述
1*1卷积的作用

1、进行卷积核通道数的降维和升维。
降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做 1 * 1 的卷积,那么结果的大小为500 * 500 * 20。

2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力;

以GoogLeNet的3a

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值