深度学习:shufflenet

ShuffleNet是一种针对移动端低功耗设备的高效卷积神经网络,通过分组卷积和通道混合减少计算量,同时保持高识别精度。它引入了通道重排操作,解决了分组卷积导致的信息流动问题,提高了模型的表示能力。实验显示ShuffleNet在计算复杂度和性能上优于同类模型,如VGG、ResNet和MobileNet。
摘要由CSDN通过智能技术生成

算法核心为:分组卷积和通道混合,另外该算法也使用了bottleneck unit结构

分组卷积的意思是:比如输入通道为4,输出为4,正常卷积情况下输出的每一个通道为输入的所有通道进行卷积的结果,那现在我可以直选择一部分输入通道进行卷积得到输出结果,计算量肯定是降低了,但是必然会损失一部分通道信息,所以就有了通道混合,将不同通道的特征图像重新组合再分组卷积得到下一个通道的结果

参考:https://www.cnblogs.com/heguanyou/p/8087422.html

 

è¿éåå¾çæè¿°

 

旷视(Face++)孙剑等人的研究团队最近发表了《ShuffleNet:一种极高效的移动端卷积神经网络》:针对移动端低功耗设备提出了一种更为高效的卷积模型结构,在大幅降低模型计算复杂度的同时仍然保持了较高的识别精度,并在多个性能指标上均显著超过了同类方法。论文详细解读:

ShuffleNet的设计思想

卷积神经网络是现代视觉人工智能系统的核心组件。近年来关于卷积模型的研究层出不穷,产生了如VGG、ResNet、Xception和ResNeXt等性能优异的网络结构,在多个视觉任务上超过了人类水平。然而,这些成功的模型往往伴随着巨大的计算复杂度(数十亿次浮点操作,甚至更多)。这就限制了此类模型只能用于高性能的服务器集群,而对于很多移动端应用(通常最多容许数百万至数千万次浮点操作)则无能为力。

解决这一难题的方法之一是设计更为轻量级的模型结构。现代卷积神经网络的绝大多数计算量集中在卷积操作上,因此高效的卷积层设计是减少网络复杂度的关键。其中,稀疏连接(sparse connection)是提高卷积运算效率的有效途径,当前不少优秀的卷积模型均沿用了这一思路。例如,谷歌的”Xception“网络[1]引入了”深度可分离卷积”的概念,将普通的卷积运算拆分成逐通道卷积(depthwise convolution)和逐点卷积(pointwise convolution)两部进行,有效地减少了计算量和参数量;而Facebook的“ResNeXt”网络[2]则首先使用逐点卷积减少输入特征的通道数,再利用计算量较小的分组卷积(group convolution)结构取代原有的卷积运算&#x

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值