Informer源码解析4——完整注意力机制解读

完整注意力机制

源码

class FullAttention(nn.Module):
    def __init__(self, mask_flag=True, factor=5, scale=None, attention_dropout=0.1, output_attention=False):
        """
        实现完整的注意力机制,支持因果掩码和注意力权重输出。

        Args:
            mask_flag (bool): 是否应用因果掩码(防止模型看到未来信息),默认为 True。
            factor (int): 未使用的参数(可能保留兼容性)。
            scale (float): 缩放因子,若未提供则默认为 1/sqrt(d_k)。
            attention_dropout (float): 注意力权重的 dropout 概率。
            output_attention (bool): 是否返回注意力权重矩阵。
        """
        super(FullAttention, self).__init__()
        self.scale = scale
        self.mask_flag = mask_flag  # 是否启用因果掩码
        self.output_attention = output_attention  # 是否返回注意力权重
        self.dropout = nn.Dropout(attention_dropout)  # 注意力 Dropout 层

    def forward(self, queries, keys, values, attn_mask):
        """
        前向传播计算注意力。

        Args:
            queries (Tensor): 查询张量,形状为 [Batch, Length, Heads, d_k]。
            keys (Tensor): 键张量,形状为 [Batch, Length, Heads, d_k]。
            values (Tensor): 值张量,形状为 [Batch, Length, Heads, d_v]。
            attn_mask (Tensor): 注意力掩码,形状为 [Batch, Length, Length]。

        Returns:
            Tuple[Tensor, Tensor]: 注意力加权后的值和注意力权重(可选)。
        """
        # 获取输入张量的维度信息
        B, L, H, E = queries.shape  # Batch, 查询序列长度, 注意力头数, d_k
        _, S, _, D = values.shape   # Batch, 键值序列长度, 注意力头数, d_v

        # 缩放因子:默认为 1/sqrt(d_k)
        scale = self.scale or 1.0 / torch.sqrt(torch.tensor(E, device=queries.device))

        # 计算注意力分数矩阵:Q * K^T
        scores = torch.einsum("blhe,bshe->bhls", queries, keys)  # 输出形状 [B, H, L, S]
        print(scores.shape)  # 调试输出

        # 因果掩码处理
        if self.mask_flag:
            if attn_mask is None:
                # 创建下三角因果掩码(解码器自注意力时使用)
                attn_mask = TriangularCausalMask(B, L, device=queries.device)
            # 将掩码位置的分数设为负无穷,softmax 后权重趋近于 0
            scores.masked_fill_(attn_mask.mask, -torch.inf)

        # 计算注意力权重:softmax + dropout
        A = self.dropout(torch.softmax(scale * scores, dim=-1))  # 形状 [B, H, L, S]

        # 计算加权值:注意力权重 * Values
        V = torch.einsum("bhls,bshd->blhd", A, values)  # 输出形状 [B, L, H, D]
        print(V.shape)  # 调试输出(可删除)

        # 返回结果
        if self.output_attention:
            return (V.contiguous(), A)  # 保证内存连续
        else:
            return (V.contiguous(), None)

流程图

class FullAttention(nn.Module):
    def __init__(self, mask_flag=True, factor=5, scale=None, 
                 attention_dropout=0.1, output_attention=False):
        super(FullAttention, self).__init__()
        self.scale = scale
        self.mask_flag = mask_flag
        self.output_attention = output_attention
        self.dropout = nn.Dropout(attention_dropout)

 传参讲解:

  • mask_flag:控制是否应用因果掩码(防止解码器查看未来信息)
  • scale:缩放因子,默认使用1/sqrt(d_k)
  • attention_dropout:注意力权重的随机失活概率
  • output_attention:是否返回注意力矩阵(可用于可视化或分析)

 注意力分数计算

        # 获取输入张量的维度信息
        B, L, H, E = queries.shape  # Batch, 查询序列长度, 注意力头数, d_k
        _, S, _, D = values.shape   # Batch, 键值序列长度, 注意力头数, d_v

首先看一下Q,K,V三个张量的形状。

queries (Tensor): 查询张量,形状为 [Batch, Length, Heads, d_k]。 

keys (Tensor): 键张量,形状为 [Batch, Length, Heads, d_k]。 

values (Tensor): 值张量,形状为 [Batch, Length, Heads, d_v]。

可以看到,三个张量的前三个值代表的含义是相同的,分别是批次数量,序列长度,注意力头数。只有最后一个值含义不同,对于q和k来说,d_k代表的是查询/键的维度,d_v代表的是值的维度。

 注意力分数计算的核心步骤是下面这句,对下面这句代码需要做详细解释。

scores = torch.einsum("blhe,bshe->bhls", queries, keys)

爱因斯坦求和约定(Einsum)

爱因斯坦求和约定(Einstein Summation Convention)是张量运算中的一种简洁记法,通过下标标记维度间的运算关系

假设输入张量结构如下:

queries: [B, L, H, E]  # [Batch, Query长度, 头数, d_k]
keys:    [B, S, H, E]  # [Batch, Key长度, 头数, d_k]

 期望得到注意力分数矩阵:

scores: [B, H, L, S]  # [Batch, 头数, Query长度, Key长度]

计算公式为:

可以看到,方法里的传参 blhe,bshe是指传入张量的各个维度,bhls是指输出张量的各个维度。

爱因斯坦求和约定也可以等效为基础的矩阵乘法:首先做维度调整,再做乘积。

# 原始维度调整
queries_ = queries.permute(0, 2, 1, 3)  # [B, H, L, E]
keys_ = keys.permute(0, 2, 3, 1)        # [B, H, E, S]

# 矩阵乘法
scores = torch.matmul(queries_, keys_)  # [B, H, L, S]

相比于基础的矩阵乘法,爱因斯坦求和约定在执行效率上有明显提升。能够避免繁琐的permute/transpose操作 。

方法代码复杂度可读性内存占用执行效率
Einsum优化较高
传统矩阵乘法中间转置稍低

 因果掩码处理

if self.mask_flag:
    if attn_mask is None:
        attn_mask = TriangularCausalMask(B, L, device=queries.device)
    scores.masked_fill_(attn_mask.mask, -torch.inf)

注意力权重与值计算

scale = self.scale or 1.0 / torch.sqrt(torch.tensor(E))
A = self.dropout(torch.softmax(scale * scores, dim=-1))
  • 缩放‌:防止点积结果过大导致梯度消失
  • Softmax‌:沿最后一个维度(Key序列方向)归一化
  • Dropout‌:随机丢弃部分注意力连接,增强泛化能力

经过上面的处理可以获取注意力矩阵A。A的形状是 [B, H, L, S],和score的形状相同。

V = torch.einsum("bhls,bshd->blhd", A, values)

输入维度:

A:        [B, H, L, S]  # [Batch, 头数, q序列长度, k序列长度]
value:    [B, S, H, D]  # [Batch, value序列长度, 头数, d_v]

输出维度:

V:        [B, L, H, D]  # [Batch, q序列长度, 头数, d_v]

该运算实现了注意力机制中‌值加权聚合‌的核心步骤,将注意力权重作用于值向量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值