一、TripletAttention的简要介绍
TripletAttention注意力机制通过捕捉空间维度和输入张量通道维度之间的交互作用,解决通道注意和空间注意是分离的问题。使用三分支结构捕捉交叉维度交互来计算注意权重。
TripletAttention由三个不同的注意力机制组成,分别是自注意力机制(self-attention)、全局注意力机制(global-attention)和相对注意力机制(relative-attention)。这些机制可以同时学习序列中的全局上下文信息、相对位置信息和内部关系。
自注意力机制可以学习序列中不同位置之间的依赖关系,以及每个位置对整个序列的重要性。全局注意力机制可以学习序列中不同位置与其他序列之间的关系。相对注意力机制可以学习不同位置之间的相对位置关系。
T