ResNeXt网络

ResNeXt是ResNet的改进版,通过使用GroupConvolution和不同的路径设计减少参数数量,同时保持性能。其关键在于block的设计,包括降维、group卷积和升维操作,以及通过多个并行路径实现信息处理,最后将所有路径的输出拼接,形成最终输出。这种方法在保持计算效率的同时增加了模型的表达能力。
摘要由CSDN通过智能技术生成

ResNeX是ResNet网络的小幅提升,更新了block
ResNet网络残差结构
在这里插入图片描述
假设输入channel为256的特征矩阵,首先采用1乘1的卷积核对它进行降维,降维之后特征矩阵的channel就变成64了。然后再通过64个3乘3的卷积核对它进行卷积处理,再通过256个1乘1的卷积核对它进行升维输出。将它的输出与输入进行相加,得到最终的输出。
ResNeXt网络残差结构
在这里插入图片描述
普通卷积所使用的参数个数
在这里插入图片描述
主卷积(Group Convolution)
在这里插入图片描述
下面讲一下ResNeXt的block,以下三个block模块,它们在数学计算上完全等价。
在这里插入图片描述
首先通过1乘1的卷积对他进行降维处理,将channel从256降到128,然后再通过group卷积3乘3的对他进行处理,输出特征矩阵是channel=128,最后通过1乘1卷积对它进行升维,升成channel=256,再与输入特征矩阵相加得到最终的输出。
在这里插入图片描述中间的那个图:
采用了32个paths,也就是32个分支。对于每个分支,都采用了卷积核大小为1乘1,卷积核个数为4的卷积层。也就是对于每个path,卷积核大小一模一样,都是高和宽=1,channel=256,又由于path的个数为32,所以我们就可以把它简单的合并在一起。就变成了最右边的图,卷积核大小为1乘1,个数=128(32乘4)的卷积层了。
下面部分,对于每个path可以理解为一个group主,对于每一个主,采用3*3的卷积核,卷积之后再将他们所得到的特征矩阵进行concat拼接。所以和右边的图第二步也是等价的。

与ResNet最主要的不同:block换了
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值