- 博客(1)
- 收藏
- 关注
原创 添加注意力机制
如果在这里没改,我猜相当于只定义了函数,而没有应用函数一样的效果,所以,这里一定要很注意,很注意!添加EMA和SimAM两种注意力机制,需要将第一步中的EMA和SimAM中的代码复制粘贴到新创建的attention.py文件中,其中要注意,如果先复制的是EMA文件中的内容,那么全选复制,之后再添加SimAM文件时,只需要复制中间的部分即可,如下图,框前面部分不需要复制是因为在第一个文件中已经包含了,框后面部分可以复制也可以不复制,目前测试阶段不影响。以有参通道EMA和无参通道SimAM为例来介绍;
2024-06-26 14:03:40
405
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人