![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
注意力机制
文章平均质量分 63
博客都是给自己看的笔记,如有误导深表抱歉
这个作者很懒,什么都没留下…
展开
-
注意力机制——ECANet(Efficient Channel Attention Network)
ECANet注意力机制是针对通道维度的注意力加权机制。它的基本思想是,通过学习通道之间的相关性,自适应地调整通道的权重,以提高网络的性能。ECANet通过两个步骤实现通道注意力加权: 1.提取通道特征 2.计算通道权重。)是一种新颖的注意力机制,用于深度神经网络中的特征提取,它可以有效地减少模型参数量和计算量,提高模型的性能。原创 2023-03-16 16:11:47 · 3176 阅读 · 4 评论 -
注意力机制——Self-Attention Networks(SANet)
在自注意力机制中,每个元素都是一个向量表示,例如,在语言处理中,可以将每个单词的嵌入向量作为输入序列中的元素。然后,为了计算每个元素与其他元素之间的关系,自注意力机制引入了三个矩阵:查询矩阵(query matrix)、键矩阵(key matrix)和值矩阵(value matrix)。它在Transformer模型中被广泛使用,能够对输入序列中的每个元素计算其与其他元素之间的关系,并使用这些关系来更好地表示输入序列。的神经网络,该网络包含一个Self-Attention模块和一个前向神经网络。原创 2023-03-16 15:36:04 · 1377 阅读 · 0 评论 -
注意力机制——Recurrent Attention Model(RAM)
重构损失函数的目的是通过生成的注视点将原始图像重建为输入图像,并使用 mu 和 sigma 计算生成的图像和原始图像之间的差异。为了实现这一点,RAM引入了一个可学习的“注意力模块”,该模块可以在每个时间步骤中选择感兴趣的区域,并生成与该区域相关的特征图。注意力模块负责选择感兴趣的区域,并生成局部特征图,而RNN分类器则使用这些局部特征图来预测图像的类别。RAM旨在模仿人类视觉系统的注意力机制,即在不同的时间点将视线聚焦于图像的不同部分,以便对其进行更深入的处理。原创 2023-03-16 15:04:43 · 901 阅读 · 0 评论 -
注意力机制——Convolutional Block Attention Module(CBAM)
其中通道注意力模块通过对输入特征图在通道维度上进行最大池化和平均池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个通道注意力权重向量。空间注意力模块则通过对输入特征图在通道维度上进行平均池化和最大池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个空间注意力权重张量。CBAM 模块包括两个注意力子模块:通道注意力模块和空间注意力模块。通道注意力模块通过对输入特征图在通道维度上进行最大池化和平均池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个通道注意力权重向量。原创 2023-03-16 14:49:00 · 2976 阅读 · 0 评论 -
注意力机制——Multi-Head Attention(MHA)
对于一个给定的查询向量,MHA 会对键向量进行加权求和,权重由查询向量和键向量之间的相似度计算得到,然后将得到的加权和乘以值向量进行输出。在多头机制下,输入的序列数据会被分成多个头,每个头进行独立的计算,得到不同的输出。其中 Q, K, V 分别表示查询向量、键向量和值向量,ℎ 表示头的数量,headi 表示第 i 个头的输出,WO 是输出变换矩阵。其中 dk 是键向量的维度,softmax相似度进行归一化,将每个键向量的权重计算出来,然后将权重乘以值向量,最后进行加权求和得到注意力输出。原创 2023-03-16 14:26:11 · 12472 阅读 · 1 评论 -
注意力机制——Non-local Networks(NLNet)
自注意力模块采用注意力机制来计算每个像素与其他像素之间的相互依赖关系,并使用这些依赖关系来加权聚合所有像素的特征表示。这种全局交互方式使得模型能够在像素之间建立远距离的依赖关系,从而提高了模型的表示能力。传统的卷积神经网络(CNN)在处理图像时,只考虑了局部区域内的像素信息,忽略了全局信息之间的相互作用。NLNets通过引入非局部块来解决这个问题,该块包括一个自注意力模块,用于学习像素之间的相互作用。:NLNet是一种非局部注意力模型,通过对整个输入空间的特征进行加权求和,以捕捉全局信息。原创 2023-03-16 13:55:59 · 1710 阅读 · 0 评论 -
注意力机制——Spatial Transformer Networks(STN)
整个 STN 模块可以插入到任意位置,用于提高网络的对图像变形、旋转等几何变换的鲁棒性。STN 的优点在于,它可以学习对输入数据进行任意复杂的空间变换,从而提高网络的对图像变形、旋转等几何变换的鲁棒性。例如,在图像分类任务中,可以将 STN 插入到卷积神经网络中,用于对输入图像进行空间变换,增强网络对图像变形、旋转等几何变换的鲁棒性。Spatial Transformer Networks(STN)是一种空间注意力模型,可以通过学习对输入数据进行空间变换,从而增强网络的对图像变形、旋转等几何变换的鲁棒性。原创 2023-03-16 13:41:57 · 4099 阅读 · 2 评论 -
注意力机制——Squeeze-and-Excitation Networks(SENet)
2.Excitation操作:根据Squeeze操作得到的通道重要性系数,对每个通道的特征图进行加权,即通过一个全连接层对重要性系数进行学习,得到一个权重向量,然后将该向量应用到原始的特征图上。1.Squeeze操作:将每个通道的特征图压缩成一个数值,即全局平均池化(global average pooling),可以理解为对每个通道进行特征提取,得到该通道的重要性系数。是一种通道注意力模型,通过对每个通道进行权重调整,增强对于重要通道的关注度,从而提高了模型的表现力。表示输入特征图的通道数,原创 2023-03-16 13:10:59 · 2256 阅读 · 0 评论