走向轻量化
文章平均质量分 94
心之所向521
锲而舍之,朽木不折;锲而不舍,金石可镂!
敬畏代码!
展开
-
ShuffleNet:通道的打乱与混洗
目录背景:通道混洗简述ShuffleNet v1网络结构:ShuffleNet v2网络结构:背景:为了降低计算量,当前先进的卷积网络通常在3×3卷积之前增加一个1×1卷积,用于通道间的信息流通与降维。然而在ResNeXt、MobileNet等高性能的网络中,1×1卷积却占用了大量的计算资源。 2017年的ShuffleNet v1从优化网络结构的角度出发,利用组卷积与通道混洗(Channel Shuffle)的操作有效降低了1×1逐点卷积的计算量,是一个极为高效的轻量化网络。而20原创 2021-12-22 13:47:40 · 8543 阅读 · 3 评论 -
MobileNet:深度可分离(原理及代码)
目录背景:标准卷积:深度可分离卷积:MobileNet v1结构小结MobileNet v2结构背景:SqueezeNet虽在一定程度上减少了卷积计算量,但仍然使用传统的卷积计算方式,而在其后的MobileNet利用了更为高效的深度可分离卷积的方式,进一步加速了卷积网络在移动端的应用。 为了更好地理解深度可分离卷积,我们首先回顾标准的卷积计算过程,然后详细探讨深度可分离卷积过程,以及基于此结构的两个网络结构MobileNet v1与MobileNet v2。论文地址:原创 2021-12-21 23:57:52 · 2436 阅读 · 1 评论 -
SqueezeNet:压缩、扩展和融合(提供代码)
目录背景:论文地址:1602.07360.pdf (arxiv.org)网络结构:小结代码地址:GitHub - forresti/SqueezeNet: SqueezeNet: AlexNet-level accuracy with 50x fewer parameters背景:当物体检测应用到实际工业场景时,模型的参数量是一个十分重要的指标,较小的模型可以高效地进行分布式训练,减小模型更新开销,降低平台体积功耗存储和计算能力的限制,方便在FPGA等边缘平台上部署。 基于以原创 2021-12-21 23:52:24 · 651 阅读 · 1 评论 -
利用PaddleDetection部署自己的轻量级移动检测嵌入式平台(多种高性能网络模型)--Pytorch实现
目录文章核心:1.效果图及视频展示2.背景3.安装PaddlePaddle4.预训练模型的下载比如yolov3在coco和voc数据集上的预训练模型和权重列表如下:4.模型导出(python端)5.模型预测1.图片预测2.视频预测,帧率在10左右3.文件夹下图片预测当然也可以自己进行训练,相应的指令为:安装过程中遇到的其他问题:全部源码均在PaddleDetection的官方Github上,地址如下:(本文用的版本是最新2.3的版本)Paddl原创 2021-12-17 22:36:28 · 2898 阅读 · 2 评论 -
深度神经网络压缩和加速详解
目录1.背景介绍2.压缩方法概述3.压缩方法详述3.1参数剪枝3.2参数量化3.3低秩分解(张量分解)3.4参数共享3.5紧凑网络3.6知识蒸馏3.7混合模型3.8不同压缩模型比较1.背景介绍深度学习模型的压缩和加速是指利用神经网络参数的冗余性和网络结构的冗余性精简模型,在不影响任务完成度的情况下,得到参数量更少、结构更精简的模型.被压缩后的模型计算资源需求和内存需求更小,相比 原始模型能够满足更加广泛的应用需求. 接下来系统...原创 2021-12-17 15:07:53 · 3545 阅读 · 1 评论 -
HyperNet: 走向特征融合,提高小物体检测精度
目录1.背景:2.结构图:3.优点4.加速策略:5.产生优异效果:6.轻量化方法:1.背景:卷积神经网络的特点是,深层的特征体现了强语义特征,有利于进行分类与识别,而浅层的特征分辨率高,有利于进行目标的定位。原始的Faster RCNN方法仅仅利用了单层的feature map(例如VGGNet的conv5-3),对于小尺度目标的检测较差,同时高IoU阈值时,边框定位的精度也不高。 在2016 CVPR上发表的HyperNet方法认为单独一个feature ...原创 2021-12-16 16:31:57 · 3755 阅读 · 0 评论