【神经网络框架】论文学习 记录

本文介绍了深度学习领域的三个重要网络结构:DenseNet鼓励特征图层的复用,SeNet引入通道注意力机制增强特征选择,MobileNet与MobileNetV2则通过深度可分离卷积实现轻量化设计。这些网络在计算效率和性能上取得了显著突破。
摘要由CSDN通过智能技术生成

DenseNet(2016年)

题目:《Densely connected convolutional network》
翻译博客:【DenseNet】Densely Connected Convolutional Networks (2018) 全文翻译_魏晓蕾的博客-CSDN博客
论文原文:https://arxiv.org/pdf/1608.06993.pdf
核心思想:鼓励重复使用特征图层。对于每一个层,它之前层的所有 feature-map 被用作输入,它本身的feature-map 被用作它所有后续层的输入。

SeNet(2017年)

题目:《Squeeze-and-Excitation Networks》
翻译博客:Squeeze-and-Excitation Networks(译)_coyote_xujie的博客-CSDN博客
论文原文:https://arxiv.org/pdf/1709.01507.pdf
核心思想:通道注意力机制。通过Squeeze:全局信息嵌入 与 Excitation:自适应重新校正 两个操作对各个通道的重要程度进行评分,从而形成channel注意力机制。

MobileNets(2017年)

题目:《MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications》
翻译博客:深度学习论文翻译解析(十七):MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
论文原文:https://arxiv.org/pdf/1704.04861.pdf
核心思想:深度可分离卷积。优势在于计算量更小、参数更少。深度可分割卷积是一种因式分解卷积,它把标准的卷积分解成一个深度卷积和一个1*1的点卷积。

MobileNetV2(2018年)

题目:《MobileNetV2: Inverted Residuals and Linear Bottlenecks》
翻译博客:MobileNetV2:Inverted Residuals and Linear BottleNecks
论文原文:https://arxiv.org/pdf/1801.04381.pdf
核心思想:深度可分离卷积、倒残差(改进梯度在multiplier层间传播的能力)、线性瓶颈Linear Bottlenecks(解决relu会导致信息丢失、卷积核几乎全为0的情况)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值