因为偏应用,这里直接给原理图和代码,以及插入网络需要修改的参数。
原理图:
这里只给出coordinate attention源码,调用时需要传入以下两个参数,分别为输入特征图的通道数、输出特征图的通道数。代码如下:
下面展示一些 内联代码片
。
import torch
import torch.nn as nn
import math
import torch.nn.functional as F
class h_sigmoid(nn.Module):
def __init__(self, inplace=True):
super(h_sigmoid, self).__init__()
self.relu = nn.ReLU6(inplace=inplace)
def forward(self, x):
return self.relu(x + 3) / 6
class h_swish(nn