【深度学习】经典分类网络 亮点及结构

轻量级卷积神经网络(以下⬇)

MobileNet

MobileNet v1

1. Depthwise Convolution

2. 增加超参数α,β

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

网络结构

在这里插入图片描述

MobileNet v2

Inverted Residuals(倒残差结构)

Linear Bottlenecks

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

网络结构

在这里插入图片描述

MobileNet v3

更新Block(bneck)

使用NAS搜索参数

重新设计耗时层结构

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

网络结构

在这里插入图片描述

ShuffleNet

ShuffleNet v1

channel shuffle

在这里插入图片描述

网络结构

在这里插入图片描述
在这里插入图片描述

ShuffleNet v2

提出4条设计高效网络准则

在这里插入图片描述

网络结构

在这里插入图片描述
在这里插入图片描述

EfficientNet

同时探索输入分辨率,网络的深度、宽度的影响

在这里插入图片描述

网络结构

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

性能评价

在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习分类网络模型是一种用于图像分类任务的神经网络模型。下面是几种常见的深度学习分类网络模型: 1. 卷积神经网络(Convolutional Neural Network,CNN):CNN是最常用的深度学习分类网络模型之一。它通过卷积层、池化层和全连接层等组件来提取图像特征并进行分类。CNN在图像分类、目标检测和图像分割等任务中取得了很好的效果。 2. 残差网络(Residual Network,ResNet):ResNet是一种具有残差连接的深度卷积神经网络。通过引入残差连接,ResNet可以训练更深的网络,避免了梯度消失和梯度爆炸的问题。ResNet在ImageNet图像分类比赛中取得了很好的成绩。 3. 循环神经网络(Recurrent Neural Network,RNN):RNN是一种适用于序列数据处理的神经网络模型。它通过循环连接来处理序列中的时序信息,并可以应用于文本分类、语音识别等任务。 4. 长短期记忆网络(Long Short-Term Memory,LSTM):LSTM是一种特殊的RNN结构,通过引入门控机制来解决传统RNN中的梯度消失和梯度爆炸问题。LSTM在处理长序列数据时表现出色,常用于机器翻译、语言模型等任务。 5. 注意力机制(Attention Mechanism):注意力机制是一种用于加强模型对输入中重要部分的关注的方法。通过引入注意力机制,模型可以自动学习到输入中不同部分的重要性,并根据重要性进行加权处理。注意力机制在图像分类、机器翻译等任务中取得了显著的性能提升。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值