EAST网络优化-注意力模块代码

本文聚焦于深度学习中的注意力机制,探讨了CBAM(卷积块注意力模块)和SE(Squeeze-and-Excitation)模块在卷积层中的应用。作者介绍了CBAM如何通过通道和空间注意力提升模型性能,并在轻量级网络如MobileNetV3中,用5×5深度卷积和SE模块替换部分3×3卷积来优化效率。
摘要由CSDN通过智能技术生成

前言

本文章用于优化·EAST算法,将于毕业后公开
pytorch:CBAM–卷积层中的注意力模块 - 知乎
tensorflow:https://zhuanlan.zhihu.com/p/96966170
注意力模型CBAM_年轻即出发,-CSDN博客 https://blog.csdn.net/qq_14845119/article/details/81393127
模块解读:注意力机制BAM和CBAM详细解析(附代码)_Wenrui Xie的博客-CSDN博客_cbam注意力机制 https://blog.csdn.net/xiewenrui1996/article/details/105760359?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.compare&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.compare
注意力机制BAM和CBAM详细解析(附代码)_Wenrui Xie的博客-CSDN博客_cbam注意力机制 https://blog.csdn.net/xiewenrui1996/article/details/105760359?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.compare&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.compare
注意!!! 在轻量型网络中:MobileNetV3中引入了5×5大小的深度卷积代替部分3×3的深度卷积。引入Squeeze-and-excitation(SE)模块!!!!!注意力模块

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值