![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
语义分割模块
文章平均质量分 66
小绵羊在努力
这个作者很懒,什么都没留下…
展开
-
结合残差结构的Res-Unet及其代码实现
本博客主要为代码实现的小伙伴提供模板,具体的原理已经有好多文章啦,所以在这里我也就不啰嗦啦,只作简单介绍!1.残差结构1.1 残差单元与普通网络的串行结构相比,残差单元增加了跳跃映射,将输入与输出直接进行相加,补充卷积过程中损失的特征信息,这点与U-net的跳跃连接结构有点类似,不过Res中的跳跃连接做的是Add操作,而U-net的跳跃连接做的是Concatenate操作,还是有本质的不同,残差单元如图所示:1.2 残差家族根据层数的不同ResNet有以下的伐木累由图中可以看出ResNet原创 2021-04-20 17:27:14 · 14502 阅读 · 14 评论 -
注意力模型CBAM模块的Keras代码实现
1.啥是CBAM?CBAM就是结合了通道注意力和空间注意力的一种注意力结构,与SE模块相比,多了空间注意力!2.CBAM的结构图如图,整体结构就是先对特征图进行通道注意力加权,然后再进行空间注意力加权操作,很简单。2.1 CBAM的通道注意力模块如图,先对输入特征图Input_feature(H×W×C)分别进行全局平均池化和全局平均池化得到两个向量M(1×1×C)和A(1×1×C),在将这俩分别进行两次全连接操作第一次全连接压缩通道为C/r(r自己调整),第二次全连接扩张通道为C。经过两次全原创 2021-04-09 11:11:30 · 5596 阅读 · 20 评论