常用深度网络总结,包含背景、创新点、表现、文章代码资源等 适用于机器学习、深度网络、计算机视觉的道友..
自己手打总结文档,囿于能力,挂一漏万,如有笔误请大家指正~
Name | Year | Background | Novel | Performance | Refer | 注 |
LeNet | 1994 | CNN模型鼻祖 |
|
| https://ieeexplore.ieee.org/document/5265772 | ~ |
AlexNet | 2012 ImageNet top | 现实高分辨图像分类 |
|
| http://www.cs.toronto.edu/~fritz/absps/imagenet.pdf https://github.com/WZMIAOMIAO/deep-learning-for-image-processing | ~ |
VGG | 2014 Imagenet top | 卷积核尺寸大讨论 | 小卷积核(3x3)叠加代替较大卷积核,减少参数同时多层非线性映射,增加网络的拟合/表达能力 |
| https://arxiv.org/abs/1409.1556 https://github.com/bubbliiiing/classification-pytorch | ~ |
U-net | 2015 MICCAI 分割图像 骨干网络 | 小样本,边缘分割不准 |
|
| ~ | |
GoogleNet Inception v1 | 2014 ILSVRC top | 单一深层网络梯度消失,优化困难 |
|
| Resne是相加 incenption是concat | |
Inception v2 | 2015 | Internal Covariate Shift问题 |
|
| ~ | |
Inception v3 | 2015 |
|
|
| ~ | |
Inception v4 | 2016 | Resnet+ Inception | Inception-ResNet 多分支加上残差结构 | Inception内部增加shortcut结构,融合多分支+深层结构 | ~ | |
Xception | 2016 | 谷歌对InceptionV3改进模型,缓解inception卷积参数太大 |
|
| https://arxiv.org/abs/1610.02357 https://github.com/tensorflow/models/blob/master/research/deeplab/core/xception.py | Xception保证数据不被破坏,没有添加relu层 mobileNet添加了relu层 |
ResNet 18/34/50/101/152 | 2015 ImageNet top | 网络的加深会导致梯度爆炸和梯度消失 |
| 1.超深的网络结构(超过1000层)。 2.提出residual(残差结构)模块。 3.使用Batch Normalization 加速训练(丢弃dropout)。 | https://arxiv.org/abs/1512.03385 https://github.com/tensorflow/models/blob/master/research/slim/nets/resnet_v2.py | Resne是相加, incenption是concat 虚线shortcut需要升维 |
ResNeXt | 2016 CVPR | 加深或加宽网络导致超参数数量的增加,增大网络难度和计算开销 |
|
| https://arxiv.org/abs/1611.05431 https://github.com/miraclewkf/ResNeXt-PyTorch | 各分支尺度拓扑结构一样,区别于incenption |
DenseNet | 2017 CVPR (最佳论文) | 网络层数增加,gradient vanishing和model degradation问题 |
|
| 后层concat层数爆炸 | |
MobileNet v1 | 2017 | 移动设备因硬件资源和算力的限制,很难运行复杂的深度学习网络模型。 |
|
| https://arxiv.org/abs/1704.04861 https://github.com/tensorflow/models/tree/master/research/slim/nets | |
MobileNet v2 | 2018 CVPR | Pw升维解决了V1网络中DW层输入时向量维度固定不变的问题 |
| 网络层次更深了,但是模型体积更小,速度更快 | https://ieeexplore.ieee.org/document/8578572 | ~ |
MobileNet v3 | 2019 | V1和v2的改进版 |
| 减少计算量和参数量,保持模型的精度 | https://arxiv.org/abs/1905.02244 | ~ |
EnfficientNet v1 | 2019 ICML ImageNet top | 单一模态叠加地网络性能受限,深层网络的精度回报减弱 |
|
| https://arxiv.org/abs/1905.11946 | ~ |
EnfficientNet v2 | 2019 ICML |
|
| 多个基准数据集上取得了SOTA性能,且训练效率更高 | http://arxiv.org/abs/1905.11946 https://github.com/Arwin-Yu/Classic-CNN-Models | ~ |
ShuffleNet v1 | 2017 |
|
|
| http://cn.arxiv.org/abs/1707.01083?context=cs.CV | |
ShuffleNet v2 | 2018 | 降低FLOPs的理论探讨 |
|
| https://arxiv.org/pdf/1807.11164.pdf | |
Vision- transformer B\L\H | 2020 ImageNet1K top | 注意力与视觉的浅层结合,希望仅使用注意力代替CNN模块 |
|
| https://arxiv.org/abs/2010.11929 | |
Swin- transformer | 2021 ICCV best paper | 图像尺度不一 resolution较大 |
| Vision Transformer像卷积神经网络能够分成几个block做层级式的特征提取,(hierarchical) Transformer | https://arxiv.org/abs/2103.14030 |
自己:脑机接口+人工智领域,主攻大脑模式解码、身份认证、仿脑模型…
在读博士第3年,在最后1年,希望将代码、文档、经验、掉坑的经历分享给大家~ 做的不好请大佬们多批评、多指导~ 虚心向大伙请教!
想一起做些事情 or 奇奇怪怪点子 or 单纯批评我的,请至Rongkaizhang_bci@163.com
------------------------------------------------------------------------------------------------------------------------------------------
参考文章:
详解DenseNet(密集连接的卷积网络)_迷雾总会解的博客-CSDN博客_densenet
ResNet详解_qq_45649076的博客-CSDN博客_resnet
U-Net网络理解与应用_梅森姑娘的博客-CSDN博客_u-net网络优缺点
AlexNet模型详细分析_小兔崽崽!的博客-CSDN博客_alexnet模型
四、全卷积网络FCN详细讲解(超级详细哦)_会哭泣的猫的博客-CSDN博客_全卷积网络
FCN详解与pytorch简单实现(附详细代码解读)_zinc_abc的博客-CSDN博客_fcn pytorch
深度学习——VGG16模型详解_橙子吖21的博客-CSDN博客_vgg16
inception-v1,v2,v3,v4----论文笔记_Meng的博客-CSDN博客_inception论文
Xception网络结构详解与模型的搭建_binlin1209的博客-CSDN博客_xception模型
ResNeXt算法详解_AI之路的博客-CSDN博客_resnext
轻量级网络--MobileNet论文解读_DFann的博客-CSDN博客_mobilenet网络论文
轻量级神经网络MobileNet全家桶详解_雷恩Layne的博客-CSDN博客_mobilenet0.25
睿智的目标检测49——Pytorch 利用mobilenet系列(v1,v2,v3)搭建yolov4目标检测平台_Bubbliiiing的博客-CSDN博客
深度学习图像分类(十四): EifficientNet系列(V1, V2)_Arwin(Haowen Yu)的博客-CSDN博客
Vision Transformer详解_太阳花的小绿豆的博客-CSDN博客
【机器学习】详解 Vision Transformer (ViT)_何处闻韶的博客-CSDN博客_vit位置编码
Swin Transformer原理(新手入门级理解)_时芷_的博客-CSDN博客_swin transformer
【机器学习】详解 Swin Transformer (SwinT)_何处闻韶的博客-CSDN博客_swin transformer