13_旷视轻量化网络--ShuffleNet V2

回顾一下ShuffleNetV1:08_旷视轻量化网络--ShuffleNet V1-CSDN博客

1.1 简介

ShuffleNet V2是在2018年由旷视科技的研究团队提出的一种深度学习模型,主要用于图像分类和目标检测等计算机视觉任务。它是ShuffleNet V1的后续版本,重点在于提供更高效的模型设计,同时保持或提升模型的准确性。

核心设计理念:

  • 高效性与准确性并重:ShuffleNet V2的设计初衷是解决深度学习模型在移动端和嵌入式设备上部署时面临的效率与准确性之间的权衡问题。它旨在以最少的计算资源和内存占用,达到尽可能高的分类或检测准确率。

  • 通道重排(Channel Shuffle):这一特性从ShuffleNet V1继承而来,通过随机打乱不同组内的通道,促进特征的混合,增加模型的表达能力。这有助于模型学习到更加丰富的特征组合,从而提升性能。

主要创新点:

  1. 分层结构优化:不同于V1,V2版本通过引入更复杂的块(blocks)设计来优化网络结构。每个块可能包含多个路径,每个路径具有不同的功能,如特征提取、特征重组等,这样的设计能更高效地利用计算资源。

  2. 均衡通道宽度:研究发现,保持每层网络的通道数相对均衡可以减少内存访问的开销,并且对模型性能影响不大。因此,ShuffleNet V2采用了所有层通道数相等的设计原则,这有助于模型在移动设备上更快运行。

  3. 组卷积的改进应用:虽然组卷积能有效减少计算量,但过度分组会导致模型性能下降。V2通过精细调整组的数量和结构,找到了计算效率和模型性能之间的最佳平衡点。

  4. 直接面向实际运行速度的优化:在设计过程中,除了理论上的计算量(FLOPs)外,研究者还直接考虑了模型在实际硬件上的运行速度。这意味着在设计决策中融入了对实际部署环境的考量,包括CPU和GPU的特定性能特征。

  5. 计算和内存访问成本的细致优化:通过对模型内部的元素级操作(如ReLU、Addition)进行深入分析和优化,减少了不必要的计算负担和内存访问,进一步提升了模型的运行效率。

ShuffleNet V2由于其出色的效率和性能,在移动设备、智能安防、自动驾驶以及各种IoT设备上的视觉应用中得到了广泛应用。它的设计原则和优化思路也为后来的轻量化网络设计提供了宝贵的经验和指导,推动了深度学习模型在实际应用中的普及和发展。

shuffleNet出自论文《ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design》,下面我们来学习一下这篇论文。
 

1.2 四条轻量化网络设计原则

准则一和准则二:

对于V2,用了大量的分组1x1卷积。

准则三:(碎片化指分支多,网络较宽)

准则四:(尽量回避主元素操作)

1.3 V2的模型结构

ShuffleNet V2相比V1有几项关键改进和特点,这些改进主要是为了进一步提升模型的效率和准确性,特别是在移动端和嵌入式设备上的表现。以下是ShuffleNet V2相较于V1的一些主要特点:

  1. 更高效的结构设计
    • V2放弃了V1中的基于瓶颈模块的设计,转而采用一种新的结构,称为“ShuffleNet块”。这种设计通过重新安排层的顺序和结构,减少了计算成本,同时保持了模型的表达能力。
  2. 均衡的通道宽度
    • V2提出了一种“均衡通道宽度”的设计理念,即网络中所有层的通道数保持一致或接近。这与V1中通道数随深度增加而增加的做法不同。实验表明,这种设计能降低内存访问成本(MAC),提升运行效率,且对准确性影响较小。
  3. 优化的组卷积策略
    • 在V2中,对组卷积(group convolution)的使用进行了优化,避免了过量分组可能带来的性能下降。通过合理设置组数,V2在减少计算量的同时,确保了模型的表达能力不受太大影响。
  4. 直接优化实际运行速度
    • 设计时不仅考虑理论上的计算复杂度(FLOPs),更侧重于模型在实际设备上的运行速度。这意味着V2在设计时充分考虑了硬件特性,如内存带宽和计算单元的利用率。
  5. 减少元素级操作
    • 为了避免element-wise操作(如加法)造成的额外计算负担,V2中使用concatenation(连接操作)代替了部分element-wise操作,减少了计算成本,提升了运行效率。
  6. 通道重排的改进位置
    • 相对于V1中channel shuffle的位置,V2将其放置在block的不同位置,以更好地适应新的结构设计,进一步促进了特征的混合和信息的流通。
  7. 新增操作
    • 在全局平均池化(Global Average Pooling, GAP)之前添加了一个额外的卷积层(conv5),这是V2相比于V1的一个显著区别,旨在进一步提炼特征,提升模型的分类性能。

右侧是V2的结构。我们先看基本模块。V2在基本模块采用了一个“channel Split”操作,就是把一半的通道数走左边的路,另一半通道数走右边的路,且注意:V2的1x1卷积并不是像V1那样是分组1x1卷积。然后采用concat(摞在一起连接)操作而不是逐元素相加(ADD)的操作

可以看到V2是满足轻量化网络的四条设计原则的。

V2的模型结构如下图:

和DenseNet的特征复用相比较,类似的地方:

ShuffleNetV2通过模型的结构实现了不同层之前模型的共享和复用。这种效果和DenseNet相比是很类似的。

1.4 V2的性能

 图为ShuffleNetV2与部分其他轻量化的网络比较:

2.pytorch模型复现

# Author:SiZhen
# Create: 2024/6/30
# Description: pytorch实现ShuffleNetV2模型
import torch
import torch.nn as nn
import torchvision

#3x3DW卷积(含激活函数)
def Conv3x3BNRelu(in_channels,out_channels,stride,groups):
    return nn.Sequential(
        nn.Conv2d(in_channels=in_channels,out_channels=out_channels,
                  kernel_size=3,stride=stride,padding=1,groups=groups),
        nn.BatchNorm2d(out_channels),
        nn.ReLU6(inplace=True) #在原有张量修改,节省内存
    )

#3x3DW卷积(不含激活函数)
def Conv3x3BN(in_channels,out_channels,stride,groups):
    return nn.Sequential(
        nn.Conv2d(in_channels=in_channels,out_channels=out_channels,
                  kernel_size=3,stride=stride,padding=1,groups=groups),
        nn.BatchNorm2d(out_channels)
    )

#1x1PW卷积(含激活函数)
def Conv1x1BNRelu(in_channels,out_channels):
    return nn.Sequential(
        nn.Conv2d(in_channels=in_channels,out_channels=out_channels,
                  kernel_size=1,stride=1),
        nn.BatchNorm2d(out_channels),
        nn.ReLU6(inplace=True)
    )

#1x1PW卷积(不含激活函数)
def Conv1x1BN(in_channels,out_channels):
    return nn.Sequential(
        nn.Conv2d(in_channels=in_channels,out_channels=out_channels,
                  kernel_size=1,stride=1),
        nn.BatchNorm2d(out_channels)
    )

#进行channel split。dim默认为0,但是由于channels位置在1,故传参为1
class HalfSplit(nn.Module):
    def __init__(self,dim=0,first_half=True):
        super(HalfSplit, self).__init__()
        self.first_half = first_half
        self.dim = dim

    def forward(self,input):
        #对input的channels进行分半操作
        splits = torch.chunk(input,2,dim=self.dim) #shape=[b,c,h,w],对于dim=1,针对channels
        return splits[0] if self.first_half else splits[1] #返回其中一半


#channel shuffle模块,增加组间交流
class ChannelShuffle(nn.Module):
    def __init__(self,groups):
        super(ChannelShuffle, self).__init__()
        self.groups = groups

    def forward(self,x):
        N,C,H,W = x.size()
        g = self.groups
        return x.view(N,g,int(C/g),H,W).permute(0,2,1,3,4).contiguous().view(N,C,H,W)

#ShuffleNet的基本单元
class ShuffleNetUnits(nn.Module):
    def __init__(self,in_channels,out_channels,stride,groups):
        super(ShuffleNetUnits, self).__init__()
        self.stride = stride

        #如果stride = 2,由于主分支需要加上从分支的channels,为了两者加起来等于planes,所以需要先减一下
        if self.stride>1:
            mid_channels = out_channels - in_channels
        #如果stride = 1,mid_channels是一半,直接除以2即可
        else:
            mid_channels = out_channels//2
            in_channels = mid_channels
            #进行两次切分,一次接受一半,一次接受另外一半
            self.first_half = HalfSplit(dim=1,first_half=True) #对channels进行切半操作,第一次分:first_half = True
            self.second_split = HalfSplit(dim=1,first_half=False) #返回输入的另外一般channels,两次合起来才是完整的一份channels

        #两个结构的主分支都是一样的,知识3x3DW卷积中的stride不一样,所以可以调用同样的self.bottleneck,stride会自动改变
        self.bottleneck = nn.Sequential(
            Conv1x1BNRelu(in_channels,in_channels), #1x1卷积不改变channels
            Conv3x3BN(in_channels,mid_channels,stride,groups), #升维
            Conv1x1BNRelu(mid_channels,mid_channels) #不改变channels
        )
        #图d的从分支:3x3的DW卷积->1x1卷积
        if self.stride>1:
            self.shortcut = nn.Sequential(
                Conv3x3BN(in_channels=in_channels,out_channels=in_channels,stride=stride,groups=groups),
                Conv1x1BNRelu(in_channels,in_channels)
            )
        self.channel_shuffle = ChannelShuffle(groups)
    def forward(self,x):
        # stride = 2,对于结构(d)
        if self.stride>1:
            x1 = self.bottleneck(x) #torch.size([1,220,28,28])
            x2 = self.shortcut(x) #torch.size([1,24,28,28])
        #两个分支作concat操作之后,输出的channels便为224,与planes[0]值相等
        #out输出为:torch.size([1,244,28,28])
        #stride = 1:对于结构(c)
        else:
            x1 = self.first_half(x) #一开始直接将channels等分两半,x1称为主分支的一半,此时的x1:channels=112
            x2 = self.second_split(x) #x2称为输入的另外一半channels:此时x2::channels = 112
            x1 = self.bottleneck(x1) #结构(c)的主分支处理
        #两个分支作concat操作之后,输出的channels便为224,与planes[0]值相等
        #out输出为:torch.Size([1,244,28,28])
        out  = torch.cat([x1,x2],dim=1)
        out = self.channel_shuffle(out) #shufflenet的精髓
        return out

class ShuffleNetV2(nn.Module):
     #shuffle_v2_x2_0:planes = [244,488,976] layers = [4,8,4]
     #shuffle_v2_x1_5:planes = [176,352,704] layers = [4,8,4]
     def __init__(self,planes,layers,groups,is_shuffle2_0,num_classes=5):
         super(ShuffleNetV2, self).__init__()
         self.groups = groups
         self.stage1 = nn.Sequential(
                Conv3x3BNRelu(in_channels=3,out_channels=24,stride=2,groups=1), #torch.size([1,24,112,112])
                nn.MaxPool2d(kernel_size=3,stride=2,padding=1) #torch.size([1,24,56,56])
        )
         self.stage2 = self._make_layer(24,planes[0],layers[0],True) # ([1,244,28,28])
         self.stage3 = self._make_layer(planes[0],planes[1],layers[1],False) #([1,488,14,14])
         self.stage4 = self._make_layer(planes[1],planes[2],layers[2],False) #([1,976,7,7])

         #0.5x / 1x / 1.5x 输出为1024 ,2x输出为2048
         self.conv5 = nn.Conv2d(in_channels=planes[2],out_channels=1024*is_shuffle2_0,kernel_size=1,stride=1)

         self.global_pool =nn.AdaptiveAvgPool2d(1) #([1,976,1,1])
         self.dropout = nn.Dropout(p=0.2) # 丢失概率为0.2

         #0.5x / 1x /1.5x 输入为1024 ,2x输入为2048
         self.linear = nn.Linear(in_features=1024*is_shuffle2_0,out_features=num_classes)

     #此处的is_stage2作用不大,因为均采用3x3DW卷积,也就是group=1的组卷积
     def _make_layer(self,in_channels,out_channels,block_num,is_stage2):
        layers = []
        #V2中,每个stage的第一个结构stride均为2;此stage的其余结构stride均为1
        #对于stride = 2的情况,对应结构(d):一开始无切分操作,主分支经过1x1->3x3->1x1,从分支经过3x3->1x1,两个分支作concat操作
        layers.append(ShuffleNetUnits(in_channels=in_channels,out_channels=out_channels,stride=2,groups=1 if is_stage2 else self.groups))
        #对于stride = 1的情况,对应结构(c):一开始就切分channel,主分支经过1x1->3x3->1x1再与shortcut进行concat操作
        for idx in range(1,2):
            layers.append(ShuffleNetUnits(in_channels=out_channels,out_channels=out_channels,stride=1,groups=self.groups))
        return nn.Sequential(*layers)
     #何凯明的方法初始化权重
     def init_params(self):
         for m in self.modules():
             if isinstance(m,nn.Conv2d):
                 nn.init.kaiming_normal_(m.weight)
             elif isinstance(m,nn.BatchNorm2d)or isinstance(m,nn.Linear):
                 nn.init.constant_(m.weight,1)
                 nn.init.constant_(m.bias,0)
     #input: torch.size([1,3,224,224])
     def forward(self,x):
         x = self.stage1(x) #[1,24,56,56]
         x = self.stage2(x) #[1,244,28,28]
         x = self.stage3(x) #[1,488,14,14]
         x = self.stage4(x)  #[1,976,7,7]
         x = self.conv5(x)   #[1,2048,7,7]
         x = self.global_pool(x) #[1,2048,1,1]
         x = x.view(x.size(0),-1) #[1,2048] ,相当于flatten操作
         out = self.linear(x) #torch.size([1,5])
         return out

def shufflenet_v2_x2_0(**kwargs):
    planes = [244,488,976]
    layers = [4,8,4]
    model = ShuffleNetV2(planes,layers,1,2)
    return model
def shufflenet_v2_x1_5(**kwargs):
    planes = [176,352,704]
    layers = [4,8,4]
    model = ShuffleNetV2(planes,layers,1,1)
    return model
def shufflenet_v2_x1_5(**kwargs):
    planes = [116,232,464]
    layers = [4,8,4]
    model = ShuffleNetV2(planes,layers,1,1)
    return model
def shufflenet_v2_x0_5(**kwargs):
    planes = [48,96,192]
    layers = [4,8,4]
    model = ShuffleNetV2(planes,layers,1,1)
    return model
if __name__ == '__main__':
    model = shufflenet_v2_x2_0()

    input = torch.rand(1,3,224,224)
    out = model(input)
    print(out.shape)

    torch.save(model.state_dict(),"shufflenet_v2_x2_0.mdl")
    

1. --prefix=${PATH_INSTALL}/nginx: --prefix 指定安装目录,${PATH_INSTALL}/nginx 为安装目录的路径。可选值为任意路径,根据实际需要进行设置。此参数会影响到 nginx 的安装位置,例如配置文件的位置、日志文件的位置等。 2. --user=nginx: --user 指定 nginx 运行的用户,默认为 nobody。可选值为任意用户,根据实际需要进行设置。此参数会影响到 nginx 运行的权限。 3. --group=nginx: --group 指定 nginx 运行的用户组,默认为 nobody。可选值为任意用户组,根据实际需要进行设置。此参数会影响到 nginx 运行的权限。 4. --with-http_ssl_module: --with-http_ssl_module 开启 SSL/TLS 功能,支持 HTTPS 协议。可选值为 --with-http_ssl_module 或 --without-http_ssl_module。如果需要支持 HTTPS 协议,则必须开启此选项。 5. --with-http_realip_module: --with-http_realip_module 开启真实 IP 模块,用于获取客户端真实 IP 地址。可选值为 --with-http_realip_module 或 --without-http_realip_module。如果需要获取客户端真实 IP 地址,则必须开启此选项。 6. --with-http_addition_module: --with-http_addition_module 开启添加响应头模块,用于添加自定义的响应头信息。可选值为 --with-http_addition_module 或 --without-http_addition_module。 7. --with-http_sub_module: --with-http_sub_module 开启替换响应内容模块,用于替换响应内容中的关键字。可选值为 --with-http_sub_module 或 --without-http_sub_module。 8. --with-http_dav_module: --with-http_dav_module 开启 WebDAV 模块,用于支持 WebDAV 协议。可选值为 --with-http_dav_module 或 --without-http_dav_module。 9. --with-http_flv_module: --with-http_flv_module 开启 FLV 视频流模块,用于支持 FLV 格式的视频流。可选值为 --with-http_flv_module 或 --without-http_flv_module。 10. --with-http_mp4_module: --with-http_mp4_module 开启 MP4 视频流模块,用于支持 MP4 格式的视频流。可选值为 --with-http_mp4_module 或 --without-http_mp4_module。 11. --with-http_gunzip_module: --with-http_gunzip_module 开启 Gzip 解压缩模块,用于支持 Gzip 压缩格式。可选值为 --with-http_gunzip_module 或 --without-http_gunzip_module。 12. --with-http_gzip_static_module: --with-http_gzip_static_module 开启 Gzip 静态文件压缩模块,用于对静态文件进行 Gzip 压缩。可选值为 --with-http_gzip_static_module 或 --without-http_gzip_static_module。 13. --with-http_stub_status_module: --with-http_stub_status_module 开启状态页面模块,用于查看 nginx 的状态信息。可选值为 --with-http_stub_status_module 或 --without-http_stub_status_module。 14. --with-stream: --with-stream 开启 TCP/UDP 代理模块,用于支持 TCP/UDP 协议。可选值为 --with-stream 或 --without-stream。 15. --with-stream_ssl_module: --with-stream_ssl_module 开启 SSL/TLS 功能,支持 TCP/UDP 的 SSL/TLS 加密。可选值为 --with-stream_ssl_module 或 --without-stream_ssl_module。 16. --with-http_v2_module: --with-http_v2_module 开启 HTTP/2 模块,用于支持 HTTP/2 协议。可选值为 --with-http_v2_module 或 --without-http_v2_module。 17. --with-pcre: --with-pcre 指定使用 PCRE 库进行正则表达式匹配。可选值为 --with-pcre 或 --without-pcre。 18. --with-openssl=/www/server/nginx/src/openssl: --with-openssl 指定使用 OpenSSL 库进行 SSL/TLS 加密。可选值为 OpenSSL 库的路径。如果开启了 SSL/TLS 功能,则必须指定此选项。 19. --with-stream_ssl_preread_module: --with-stream_ssl_preread_module 开启 TCP/UDP SSL/TLS 握手前置模块,用于在握手前解析 SSL/TLS 协议。可选值为 --with-stream_ssl_preread_module 或 --without-stream_ssl_preread_module。 20. --with-http_image_filter_module: --with-http_image_filter_module 开启图片处理模块,用于对图片进行缩放、裁剪等操作。可选值为 --with-http_image_filter_module 或 --without-http_image_filter_module。 21. --with-ipv6: --with-ipv6 开启 IPv6 支持。可选值为 --with-ipv6 或 --without-ipv6。 22. --with-ld-opt=-Wl,-E: --with-ld-opt 指定链接器选项,-Wl,-E 表示启用链接器的 export-dynamic 选项。可选值为任意链接器选项,根据实际需要进行设置。此参数会影响到 nginx 的链接器选项。 23. --with-cc-opt=-Wno-error: --with-cc-opt 指定编译器选项,-Wno-error 表示忽略编译器的错误提示。可选值为任意编译器选项,根据实际需要进行设置。此参数会影响到 nginx 的编译器选项。 24. --with-ld-opt=-ljemalloc: --with-ld-opt 指定链接器选项,-ljemalloc 表示链接 jemalloc 库。可选值为任意链接器选项,根据实际需要进行设置。此参数会影响到 nginx 的链接器选项。 25. --add-module=/www/server/nginx/src/ngx_devel_kit: --add-module 指定添加第三方模块,/www/server/nginx/src/ngx_devel_kit 为第三方模块的路径。可选值为任意第三方模块的路径,根据实际需要进行设置。此参数会影响到 nginx 的模块加载顺序。 26. --add-module=/www/server/nginx/src/lua_nginx_module: --add-module 指定添加第三方模块,/www/server/nginx/src/lua_nginx_module 为第三方模块的路径。可选值为任意第三方模块的路径,根据实际需要进行设置。此参数会影响到 nginx 的模块加载顺序。 27. --add-module=/www/server/nginx/src/ngx_cache_purge: --add-module 指定添加第三方模块,/www/server/nginx/src/ngx_cache_purge 为第三方模块的路径。可选值为任意第三方模块的路径,根据实际需要进行设置。此参数会影响到 nginx 的模块加载顺序。 28. --add-module=/www/server/nginx/src/ngx_http_substitutions_filter_module-master: --add-module 指定添加第三方模块,/www/server/nginx/src/ngx_http_substitutions_filter_module-master 为第三方模块的路径。可选值为任意第三方模块的路径,根据实际需要进行设置。此参数会影响到 nginx 的模块加载顺序。 29. --add-module=/www/server/nginx/src/nginx-dav-ext-module: --add-module 指定添加第三方模块,/www/server/nginx/src/nginx-dav-ext-module 为第三方模块的路径。可选值为任意第三方模块的路径,根据实际需要进行设置。此参数会影响到 nginx 的模块加载顺序。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值