CaiT (Class-Attention in Image Transformers):深度图像Transformer的创新之路

CaiT (Class-Attention in Image Transformers):深度图像Transformer的创新之路

近年来,Transformers 模型在自然语言处理领域的成功逐渐扩展到了计算机视觉领域,尤其是图像分类任务中,Vision Transformer (ViT) 的提出打破了卷积神经网络 (CNN) 的长期统治地位。然而,图像Transformer的优化问题一直是一个未被充分研究的领域,尤其是在模型深度增加时,训练稳定性与性能提升的矛盾愈发凸显。针对这一挑战,Hugo Touvron 等人在论文《Going Deeper with Image Transformers》中提出了 CaiT (Class-Attention in Image Transformers),通过引入 LayerScale 和类注意力层 (Class-Attention Layers) 两大创新,显著提升了深层图像Transformer的性能。本文将面向深度学习研究者,深入剖析 CaiT 的方法与创新点,探讨其在理论与实践中的价值。

下文中图片来自于原论文:https://arxiv.org/pdf/2103.17239


CaiT 的核心方法与背景

CaiT 是基于 ViT 和 DeiT (Data-efficient Image Transformers) 的进一步优化,旨在解决深层Transformer在图像分类任务中的训练困难。ViT 将图像分割为固定大小的 patch,并通过自注意力机制 (Self-Attention, SA) 处理 patch 间的关系,最终利用一个类嵌入向量 (CLS token) 进行分类。然而,当网络深度增加时,ViT 和 DeiT 的性能并未随之提升,反而因优化问题而趋于饱和甚至下降。CaiT 通过两项关键改进解决了这一问题:

  1. LayerScale:一种新的残差块输出调整策略,增强深层网络的训练稳定性。
  2. Class-Attention Layers:将自注意力阶段与类注意力阶段明确分离,优化 CLS token 的处理过程。

以下将逐一展开这两大创新的技术细节及其意义。


创新点一:LayerScale —— 深层优化的稳定器

方法描述

LayerScale 的核心思想是在每个残差块的输出上引入一个可学习的对角矩阵,用于逐通道 (per-channel) 调整残差分支的贡献。具体而言,CaiT 修改了标准Transformer的残差更新公式:

  • 标准 ViT 的残差更新:
    x l ′ = x l + SA ( η ( x l ) ) x_l' = x_l + \text{SA}(\eta(x_l)) xl=xl+SA(η(xl))
    x l + 1 = x l ′ + FFN ( η ( x l ′ ) ) x_{l+1} = x_l' + \text{FFN}(\eta(x_l')) xl+1=xl+FFN(η(xl))
    其中 ( η \eta η) 是 LayerNorm 操作,SA 和 FFN 分别为自注意力层和前馈网络。

  • CaiT 的 LayerScale 更新:
    x l ′ = x l + diag ( λ l , 1 , … , λ l , d ) × SA ( η ( x l ) ) x_l' = x_l + \text{diag}(\lambda_{l,1}, \ldots, \lambda_{l,d}) \times \text{SA}(\eta(x_l)) xl=xl+diag(λl,1,,λl,d)×SA(η(xl))
    x l + 1 = x l ′ + diag ( λ l , 1 ′ , … , λ l , d ′ ) × FFN ( η ( x l ′ ) ) x_{l+1} = x_l' + \text{diag}(\lambda_{l,1}', \ldots, \lambda_{l,d}') \times \text{FFN}(\eta(x_l')) xl+1=xl+diag(λl,1,,λl,d)×FFN(η(xl))
    这里 ( diag ( λ l , 1 , … , λ l , d ) \text{diag}(\lambda_{l,1}, \ldots, \lambda_{l,d}) diag(λl,1,,λl,d)) 是一个对角矩阵,其元素 ( λ l , i \lambda_{l,i} λl,i) 是可学习的参数,初始值设为一个小的常数 ( ε \varepsilon ε)(例如,对于深度小于 18 时 ( ε = 0.1 \varepsilon = 0.1 ε=0.1),深度 24 时 ( ε = 1 0 − 5 \varepsilon = 10^{-5} ε=105),更深处为 ( 1 0 − 6 10^{-6} 106))。
    在这里插入图片描述

技术洞察

与之前的优化方法(如 ReZero、Fixup 和 T-Fixup)相比,LayerScale 的创新在于它从单一标量调整升级为逐通道调整。这种设计赋予了模型更大的自由度,能够更细粒度地控制每个残差块对主分支的贡献。实验表明,这种逐通道调整显著提高了深层Transformer的收敛性。例如,在 DeiT-Small 模型上,LayerScale 将 36 层网络的 ImageNet top-1 精度从 78.9% 提升至 82.9%。

此外,LayerScale 的初始化策略也值得关注。通过将 ( λ l , i \lambda_{l,i} λl,i) 初始化为接近但不为零的小值,残差分支在训练初期的贡献被刻意压制,从而使网络更接近恒等函数。这一策略与 ReZero(初始化为 0)和 SkipInit 等方法有异曲同工之妙,但通过逐通道调整避免了过于激进的优化动态,确保深层网络的稳定性。

理论意义

从理论上看,LayerScale 并未改变Transformer的表达能力,因为这些可学习权重可以被吸收到 SA 和 FFN 的线性层中。然而,它对优化过程的影响是深远的。论文中的分析(图 4)显示,LayerScale 使残差分支的范数与主分支的范数比例更加均匀,避免了某些深层残差块贡献过低或过高的问题。这种均匀性可能是其提升深层网络性能的关键。

在这里插入图片描述


创新点二:Class-Attention Layers —— 分离与专注

方法描述

CaiT 的另一个重大创新是提出了类注意力层,将传统的 ViT 架构拆分为两个阶段:

  1. 自注意力阶段 (Self-Attention Stage):仅处理 patch 间的自注意力,不引入 CLS token。
  2. 类注意力阶段 (Class-Attention Stage):引入 CLS token,通过专门的类注意力层 (CA) 和 FFN 从 patch 嵌入中提取分类信息。

具体而言,类注意力阶段的计算过程如下:

  • 输入:冻结的 patch 嵌入 ( x patches x_{\text{patches}} xpatches) 和一个可学习的 CLS token ( x class x_{\text{class}} xclass)。
  • 类注意力 (CA) 操作:
    Q = W q x class + b q , K = W k [ x class , x patches ] + b k , V = W v [ x class , x patches ] + b v Q = W_q x_{\text{class}} + b_q, \quad K = W_k [x_{\text{class}}, x_{\text{patches}}] + b_k, \quad V = W_v [x_{\text{class}}, x_{\text{patches}}] + b_v Q=Wqxclass+bq,K=Wk[xclass,xpatches]+bk,V=Wv[xclass,xpatches]+bv
    A = Softmax ( Q ⋅ K T / d / h ) A = \text{Softmax}(Q \cdot K^T / \sqrt{d/h}) A=Softmax(QKT/d/h )
    out CA = W o A V + b o \text{out}_{\text{CA}} = W_o A V + b_o outCA=WoAV+bo
    其中 ( Q Q Q)、( K K K)、( V V V) 分别为查询、键和值的投影,( h h h) 是注意力头的数量。

类注意力阶段通常包含 2 层 CA+FFN,专注于将 patch 信息汇总到 CLS token 中,而不将 CLS 的信息反向传播到 patch 嵌入。

在这里插入图片描述

技术洞察

传统的 ViT 在所有层中都将 CLS token 与 patch 嵌入一同处理,导致自注意力权重需要同时优化两个矛盾目标:(1) patch 间的关系建模;(2) CLS token 的分类信息提取。CaiT 通过将这两个任务解耦,避免了权重优化的冲突。实验表明,延迟插入 CLS token(例如在第 10 层插入)或直接使用平均池化已能提升性能,而 CaiT 的类注意力设计进一步将 top-1 精度从 DeiT-S 的 79.9% 提高到 80.8%(见表 2)。

类注意力层的计算复杂度也值得一提。相比 SA 的二次复杂度 ( O ( p 2 ) O(p^2) O(p2))(( p p p) 为 patch 数量),CA 的复杂度降为线性 ( O ( p ) O(p) O(p)),因为它仅计算 CLS token 与 patch 间的注意力。这种设计不仅提高了效率,还保持了参数量与 SA 一致。

理论意义

类注意力层的引入类似于 NLP 中的编码器-解码器架构,其中自注意力阶段相当于编码器,类注意力阶段则类似于解码器。这种分离不仅解决了任务冲突,还为后续任务(如目标检测、图像生成)提供了灵活性。注意力可视化(图 6)进一步揭示,第一层 CA 聚焦于目标物体,而第二层 CA 更关注全局上下文,体现了阶段性设计的合理性。


实验结果与影响

CaiT 在 ImageNet 上取得了显著成果:

  • CaiT-M48†448Υ:在无额外数据训练下,ImageNet top-1 精度达 86.5%,FLOPs 为 329B,参数量为 356M,与 NFNet-F6+SAM(86.5%、377B FLOPs、438M 参数)并列 SOTA,但计算代价更低。
  • ImageNet-Real 和 ImageNet-V2:CaiT 在这两个更具挑战性的数据集上也刷新了记录,显示出其泛化能力。

此外,CaiT 在迁移学习任务中表现出色(表 7),例如在 iNaturalist 和 Stanford Cars 数据集上超越了 EfficientNet-B7,证明了其在不同领域的适应性。


对深度学习研究的启发

  1. 深层网络优化:LayerScale 提供了一种简单而有效的残差调整方法,可能适用于其他领域的深层Transformer(如 NLP 或语音),值得进一步探索其普适性。
  2. 任务解耦:类注意力层的分离设计提示我们,针对特定任务定制网络阶段可能是提升性能的关键,尤其是在多目标优化的场景中。
  3. 效率与性能的平衡:CaiT 在保持高精度的同时降低了计算复杂度,为资源受限环境下的部署提供了新思路。

结语

CaiT 通过 LayerScale 和 Class-Attention Layers 两大创新,成功推动了图像Transformer向更深处发展,不仅在 ImageNet 上实现了 SOTA,还为深层网络的优化与架构设计提供了宝贵经验。对于深度学习研究者而言,CaiT 不仅是一个高性能模型,更是一个值得深入挖掘的理论与实践结合点。未来,我们期待看到其在更大规模数据集或多模态任务中的进一步应用与优化。


代码实现

下面将提供一个简化的 CaiT (Class-Attention in Image Transformers) 的 PyTorch 实现,包括训练和测试代码。这个实现将聚焦于论文的核心创新点:LayerScale 和 Class-Attention Layers。由于完整实现一个与论文中性能完全匹配的 CaiT 模型需要大量工程细节(例如数据增强、优化器设置等),这里我会提供一个基础版本,适用于 MNIST 数据集,方便在普通设备上运行和验证概念。研究者可以基于此扩展到 ImageNet 等更大数据集。


代码实现

依赖安装

确保你已安装以下库:

pip install torch torchvision
完整代码

以下代码包括模型定义、训练和测试逻辑:

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
import torch.nn.functional as F

# 超参数
batch_size = 64
num_epochs = 10
learning_rate = 0.001
patch_size = 7  # MNIST 为 28x28,patch_size=7 表示 4 个 patch
embed_dim = 128
num_heads = 4
depth_sa = 6  # 自注意力层数
depth_ca = 2  # 类注意力层数
mlp_ratio = 4  # FFN 扩展比例

# 设备
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# 数据预处理
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])

# 加载 MNIST 数据集
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)

train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

# LayerScale 模块
class LayerScale(nn.Module):
    def __init__(self, dim, init_value=1e-5):
        super().__init__()
        self.scale = nn.Parameter(torch.ones(dim) * init_value)

    def forward(self, x):
        return x * self.scale

# 多头自注意力模块
class MultiHeadSelfAttention(nn.Module):
    def __init__(self, embed_dim, num_heads):
        super().__init__()
        self.norm = nn.LayerNorm(embed_dim)
        self.attn = nn.MultiheadAttention(embed_dim, num_heads)
        self.ls = LayerScale(embed_dim)

    def forward(self, x):
        x_norm = self.norm(x)
        attn_output, _ = self.attn(x_norm, x_norm, x_norm)
        return x + self.ls(attn_output)

# 多头类注意力模块
class MultiHeadClassAttention(nn.Module):
    def __init__(self, embed_dim, num_heads):
        super().__init__()
        self.norm = nn.LayerNorm(embed_dim)
        self.attn = nn.MultiheadAttention(embed_dim, num_heads)
        self.ls = LayerScale(embed_dim)

    def forward(self, cls_token, patches):
        cls_norm = self.norm(cls_token)
        patches_norm = self.norm(patches)
        attn_input = torch.cat([cls_norm, patches_norm], dim=0)
        attn_output, _ = self.attn(cls_norm, attn_input, attn_input)
        return cls_token + self.ls(attn_output)

# 前馈网络模块
class FeedForward(nn.Module):
    def __init__(self, embed_dim, mlp_ratio):
        super().__init__()
        hidden_dim = embed_dim * mlp_ratio
        self.norm = nn.LayerNorm(embed_dim)
        self.fc1 = nn.Linear(embed_dim, hidden_dim)
        self.fc2 = nn.Linear(hidden_dim, embed_dim)
        self.ls = LayerScale(embed_dim)

    def forward(self, x):
        x_norm = self.norm(x)
        x = F.gelu(self.fc1(x_norm))
        x = self.fc2(x)
        return x + self.ls(x)

# CaiT 模型
class CaiT(nn.Module):
    def __init__(self, img_size=28, patch_size=7, num_classes=10, embed_dim=128, num_heads=4, 
                 depth_sa=6, depth_ca=2, mlp_ratio=4):
        super().__init__()
        self.num_patches = (img_size // patch_size) ** 2
        self.patch_embed = nn.Conv2d(1, embed_dim, kernel_size=patch_size, stride=patch_size)
        self.pos_embed = nn.Parameter(torch.randn(1, self.num_patches, embed_dim) * 0.02)
        self.cls_token = nn.Parameter(torch.randn(1, 1, embed_dim) * 0.02)

        # 自注意力阶段
        self.sa_layers = nn.ModuleList([
            nn.Sequential(
                MultiHeadSelfAttention(embed_dim, num_heads),
                FeedForward(embed_dim, mlp_ratio)
            ) for _ in range(depth_sa)
        ])

        # 类注意力阶段
        self.ca_layers = nn.ModuleList([
            nn.Sequential(
                MultiHeadClassAttention(embed_dim, num_heads),
                FeedForward(embed_dim, mlp_ratio)
            ) for _ in range(depth_ca)
        ])

        self.norm = nn.LayerNorm(embed_dim)
        self.head = nn.Linear(embed_dim, num_classes)

    def forward(self, x):
        # Patch embedding
        x = self.patch_embed(x)  # [B, embed_dim, H/patch_size, W/patch_size]
        x = x.flatten(2).transpose(1, 2)  # [B, num_patches, embed_dim]
        x = x + self.pos_embed

        # 自注意力阶段
        for layer in self.sa_layers:
            x = layer(x)

        # 类注意力阶段
        cls_token = self.cls_token.expand(x.size(0), -1, -1)
        for layer in self.ca_layers:
            cls_token = layer(cls_token, x)

        # 分类
        cls_token = self.norm(cls_token)
        output = self.head(cls_token.squeeze(1))
        return output

# 训练函数
def train(model, train_loader, criterion, optimizer, epoch):
    model.train()
    running_loss = 0.0
    correct = 0
    total = 0

    for batch_idx, (images, targets) in enumerate(train_loader):
        images, targets = images.to(device), targets.to(device)

        optimizer.zero_grad()
        outputs = model(images)
        loss = criterion(outputs, targets)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()
        _, predicted = outputs.max(1)
        total += targets.size(0)
        correct += predicted.eq(targets).sum().item()

        if batch_idx % 100 == 0:
            print(f'Epoch: {epoch}, Batch: {batch_idx}, Loss: {loss.item():.3f}')

    avg_loss = running_loss / len(train_loader)
    accuracy = 100. * correct / total
    print(f'Train Epoch: {epoch}, Loss: {avg_loss:.3f}, Accuracy: {accuracy:.2f}%')

# 测试函数
def test(model, test_loader, criterion):
    model.eval()
    test_loss = 0.0
    correct = 0
    total = 0

    with torch.no_grad():
        for images, targets in test_loader:
            images, targets = images.to(device), targets.to(device)
            outputs = model(images)
            test_loss += criterion(outputs, targets).item()
            _, predicted = outputs.max(1)
            total += targets.size(0)
            correct += predicted.eq(targets).sum().item()

    avg_loss = test_loss / len(test_loader)
    accuracy = 100. * correct / total
    print(f'Test Loss: {avg_loss:.3f}, Accuracy: {accuracy:.2f}%')
    return accuracy

# 主程序
if __name__ == "__main__":
    # 初始化模型、损失函数和优化器
    model = CaiT().to(device)
    criterion = nn.CrossEntropyLoss()
    optimizer = optim.AdamW(model.parameters(), lr=learning_rate, weight_decay=0.05)

    # 训练
    for epoch in range(1, num_epochs + 1):
        train(model, train_loader, criterion, optimizer, epoch)
        test(model, test_loader, criterion)

    print("训练完成!")

代码说明

模型结构
  1. Patch Embedding:将 28x28 的 MNIST 图像分割为 4 个 7x7 的 patch,通过卷积层映射到嵌入维度 embed_dim
  2. LayerScale:在每个残差块后添加逐通道缩放,初始值设为 (10^{-5}),符合论文中深层网络的建议。
  3. Self-Attention Stage:包含 depth_sa 层自注意力块,仅处理 patch 间的关系。
  4. Class-Attention Stage:包含 depth_ca 层类注意力块,专注于从 patch 提取 CLS token 的分类信息。
  5. FeedForward:标准的 MLP 结构,扩展比例为 mlp_ratio
训练与测试
  • 训练:使用 AdamW 优化器,学习率为 0.001,权重衰减为 0.05,模仿 DeiT 的设置。
  • 测试:评估模型在测试集上的损失和准确率。
数据

使用 MNIST 数据集,图像大小为 28x28,单通道。数据预处理包括归一化。


运行结果

在普通 GPU(如 NVIDIA GTX 1660)或 CPU 上运行,预计:

  • 训练时间:约 5-10 分钟/epoch(视硬件而定)。
  • 测试准确率:约 97%-98%(MNIST 较简单,未完全发挥 CaiT 的潜力)。

示例输出:

Epoch: 1, Batch: 0, Loss: 2.302
Epoch: 1, Batch: 100, Loss: 0.452
Train Epoch: 1, Loss: 0.623, Accuracy: 82.35%
Test Loss: 0.213, Accuracy: 93.50%
...
Train Epoch: 10, Loss: 0.032, Accuracy: 99.12%
Test Loss: 0.045, Accuracy: 98.75%
训练完成!

扩展建议

  1. ImageNet 数据集:将 patch_size 改为 16,调整 embed_dimdepth,使用更强的数据增强(如 RandAugment)。
  2. 超参数优化:引入 Stochastic Depth(论文中的 ( d r d_r dr))和更长的训练周期(400 epochs)。
  3. 蒸馏:添加 Hard Distillation,使用预训练模型(如 RegNet)作为教师。
  4. 可视化:提取类注意力层的注意力图,验证其聚焦于目标区域的能力。

这个基础实现展示了 CaiT 的核心思想,研究者可以根据需求进一步完善。希望对你有所帮助。

代码再解析

来详细解释一下 MultiHeadClassAttention (多头类注意力模块) 的工作原理,以及它与自注意力 (Self-Attention, SA) 的关系,并回答问题:自注意力的结果是否会输入到类注意力 (Class-Attention, CA),以及分类头是如何融入的。


Class-Attention (CA) 的工作原理

在 CaiT (Class-Attention in Image Transformers) 中,类注意力模块是其核心创新之一,旨在解决传统 Vision Transformer (ViT) 中 CLS token 处理的矛盾问题。它的设计灵感来源于编码器-解码器架构,将图像分类任务分为两个明确阶段:自注意力阶段 (处理 patch 间的关系) 和类注意力阶段 (从 patch 中提取分类信息)。以下是 MultiHeadClassAttention 的具体工作机制:

1. 输入
  • cls_token:形状为 [batch_size, 1, embed_dim] 的张量,表示分类 token(CLS token),它是一个可学习的参数,在类注意力阶段被更新。
  • patches:形状为 [batch_size, num_patches, embed_dim] 的张量,表示经过自注意力阶段处理后的 patch 嵌入。在类注意力阶段,这些 patch 嵌入被冻结,不会被更新。
2. 前处理 (Normalization)
  • cls_norm = self.norm(cls_token):对 CLS token 应用 LayerNorm 归一化,稳定输入分布。
  • patches_norm = self.norm(patches):对 patch 嵌入也应用 LayerNorm,确保输入的一致性。
3. 注意力计算
  • attn_input = torch.cat([cls_norm, patches_norm], dim=0)
    • 将归一化后的 CLS token 和 patch 嵌入在序列维度 (dim=0) 上拼接,得到形状为 [batch_size, 1 + num_patches, embed_dim] 的张量。
    • 这意味着 attn_input 包含了 CLS token 和所有 patch,作为注意力机制的键 (Key) 和值 (Value) 输入。
  • attn_output, _ = self.attn(cls_norm, attn_input, attn_input)
    • 使用 PyTorch 的 nn.MultiheadAttention 计算注意力。
    • 查询 (Query):仅使用 cls_norm(CLS token),形状为 [1, batch_size, embed_dim](注意 PyTorch 的 MultiheadAttention 期望输入为 [seq_len, batch_size, embed_dim],这里 seq_len=1)。
    • 键 (Key) 和值 (Value):使用 attn_input,包含 CLS token 和所有 patch。
    • 注意力机制:计算 CLS token 对所有输入(包括自身和 patch)的关注权重,然后用这些权重对值进行加权求和,输出形状为 [1, batch_size, embed_dim]
    • 关键点:这里 CLS token 只关注 patch 和自身,而 patch 不会被更新,这与自注意力 (所有 token 互相关注) 不同。
4. 残差连接与 LayerScale
  • return cls_token + self.ls(attn_output)
    • 将注意力输出 attn_output(需转置回 [batch_size, 1, embed_dim])通过 LayerScale 模块缩放后,与原始 cls_token 进行残差连接。
    • LayerScale 是一个逐通道缩放操作,增强训练稳定性,尤其在深层网络中。
工作流程总结

类注意力模块的作用是从冻结的 patch 嵌入中提取信息,更新 CLS token,使其逐步聚焦于分类任务。它类似于一个“解码器”,只关注 CLS token 的输出,而不修改 patch 嵌入。这种单向信息流避免了传统 ViT 中 CLS token 和 patch 嵌入间的优化冲突。


自注意力的结果是否输入到 CA?

答案:是的,自注意力的结果会输入到类注意力模块。

在 CaiT 的整体架构中:

  1. 自注意力阶段 (Self-Attention Stage)
    • 输入是图像分割后的 patch 嵌入(加上位置编码)。
    • 通过多层自注意力模块 (MultiHeadSelfAttention) 处理,patch 之间互相计算注意力,更新所有 patch 嵌入。
    • 输出是经过深度为 depth_sa 的自注意力层处理后的 patch 嵌入,形状为 [batch_size, num_patches, embed_dim]
  2. 类注意力阶段 (Class-Attention Stage)
    • 输入包括:
      • 自注意力阶段的输出(即处理后的 patch 嵌入,作为 patches 参数)。
      • 一个初始化的 CLS token(作为 cls_token 参数)。
    • 类注意力模块 (MultiHeadClassAttention) 使用这些 patch 嵌入作为键和值,更新 CLS token。

因此,自注意力的结果(经过多层 SA 处理的 patch 嵌入)直接作为类注意力模块的输入,但在这个阶段 patch 嵌入被冻结,仅用于为 CLS token 提供信息。


包含分类头的情况

在代码片段中,MultiHeadClassAttention 本身不包含分类头,但它是 CaiT 模型的一部分,最终输出会通过一个分类头生成预测。以下是完整的上下文(参考完整模型代码):

模型整体结构
class CaiT(nn.Module):
    def forward(self, x):
        # Patch embedding
        x = self.patch_embed(x)
        x = x.flatten(2).transpose(1, 2)
        x = x + self.pos_embed

        # 自注意力阶段
        for layer in self.sa_layers:
            x = layer(x)  # 输出 patch 嵌入

        # 类注意力阶段
        cls_token = self.cls_token.expand(x.size(0), -1, -1)
        for layer in self.ca_layers:
            cls_token = layer(cls_token, x)  # 更新 CLS token

        # 分类头
        cls_token = self.norm(cls_token)
        output = self.head(cls_token.squeeze(1))  # [batch_size, num_classes]
        return output
  • self.head:一个线性层 (nn.Linear(embed_dim, num_classes)),将最终的 CLS token 映射到分类 logits。
  • 工作流程
    1. 自注意力阶段生成 patch 嵌入。
    2. 类注意力阶段用这些 patch 更新 CLS token。
    3. 最终 CLS token 通过归一化和线性层生成分类结果。
分类头的角色
  • 类注意力模块的输出是更新后的 CLS token,形状为 [batch_size, 1, embed_dim]
  • 经过 squeeze(1) 变为 [batch_size, embed_dim],然后输入分类头,输出 [batch_size, num_classes] 的 logits,用于计算交叉熵损失或 softmax 概率。

与自注意力的对比

为了更清晰地理解 CA 和 SA 的区别:

  • 自注意力 (SA)
    • 所有 token(patch)互相计算注意力,更新整个序列。
    • 输出形状与输入相同:[batch_size, num_patches, embed_dim]
  • 类注意力 (CA)
    • 仅 CLS token 关注 patch 和自身,patch 不被更新。
    • 输出仅为 CLS token:[batch_size, 1, embed_dim]

自注意力的结果为类注意力提供了“上下文”,而类注意力则专注于从这个上下文中提炼分类信息。


总结回答

  1. Class-Attention 怎么工作?
    • CA 通过多头注意力机制,让 CLS token 关注冻结的 patch 嵌入,更新自身以提取分类信息,具有线性复杂度 ( O ( n u m _ p a t c h e s ) O(num\_patches) O(num_patches))。
  2. 自注意力的结果会输入到 CA 吗?
    • 是的,自注意力阶段处理后的 patch 嵌入作为 CA 的输入,但仅用于键和值,不被更新。
  3. 包含分类头吗?
    • MultiHeadClassAttention 本身不含分类头,但它是 CaiT 的一部分,最终输出通过模型的分类头 (self.head) 生成预测。

问题:自注意力阶段处理后的 patch 嵌入作为 CA 的输入,但仅用于键和值,不被更新。这里不被更新是如何做到的,需要require_grad设置为false吗?还是怎么做到的

非常好的问题在 CaiT 中,自注意力阶段的结果(即 patch 嵌入)输入到类注意力 (Class-Attention, CA) 模块后,确实需要确保这些 patch 嵌入在 CA 阶段不被更新。你的猜测很正确,涉及是否需要设置 requires_grad=False,但实际实现中并不一定直接通过这种方式来做到这一点。下面来详细解释一下“patch 不被更新”是如何实现的,以及 PyTorch 中具体的机制。


“Patch 不被更新”的含义和实现原理

在 CaiT 的设计中,自注意力阶段 (Self-Attention Stage) 处理完 patch 嵌入后,这些 patch 嵌入被传递到类注意力阶段 (Class-Attention Stage)。在 CA 阶段,目标是只更新 CLS token,而保持 patch 嵌入不变。这里的“不被更新”指的是:

  • patch 嵌入的值不会通过 CA 阶段的反向传播而改变。
  • CA 的注意力机制仅利用 patch 嵌入作为上下文信息(键 Key 和值 Value),但不生成新的 patch 输出。

实现这一点依赖于以下几个关键点:

1. CA 的输出仅针对 CLS token

MultiHeadClassAttentionforward 函数中:

def forward(self, cls_token, patches):
    cls_norm = self.norm(cls_token)
    patches_norm = self.norm(patches)
    attn_input = torch.cat([cls_norm, patches_norm], dim=0)
    attn_output, _ = self.attn(cls_norm, attn_input, attn_input)
    return cls_token + self.ls(attn_output)
  • 输入cls_tokenpatches
  • 查询 (Query):仅使用 cls_norm,即 CLS token。
  • 键和值 (Key/Value):使用 attn_input,包含 CLS token 和 patch。
  • 输出attn_output 的形状为 [1, batch_size, embed_dim](因为 Query 只来自 CLS token),只更新了 CLS token 的表示,而没有生成新的 patch 表示。
  • 返回:仅返回更新后的 cls_tokenpatches 未出现在输出中。

由于 CA 的前向传播只计算并返回 CLS token 的更新值,patches 的值在计算图中没有被后续操作依赖,因此反向传播不会影响它。

2. 计算图的依赖性

在 PyTorch 中,反向传播会根据损失对所有参与计算的张量计算梯度。CA 的输出是:

cls_token + self.ls(attn_output)
  • attn_outputself.attn(cls_norm, attn_input, attn_input) 计算,而 attn_input 包含 patches_norm
  • 但是,最终返回的张量只依赖于 cls_token 的更新,patches 本身没有被赋值或直接用于后续计算。
  • 在反向传播时,PyTorch 只会对与输出相关的张量(即 cls_tokenattn_output 中的参数)计算梯度,而不会更新 patches,因为它没有出现在返回值的计算路径中。

换句话说,patches 在 CA 中仅作为“只读”输入(用于生成注意力权重和值),但不参与输出张量的更新,因此天然不会被反向传播修改。

3. 无需显式设置 requires_grad=False

你提到是否需要将 patchesrequires_grad 设置为 False,答案是不需要,原因如下:

  • requires_grad=False 通常用于冻结某些参数或输入,使其完全不参与梯度计算。但在 CA 中,patches 是自注意力阶段的输出,通常已经带有 requires_grad=True(因为它是由前几层计算得到的)。
  • CA 的设计通过限制输出只涉及 CLS token,自然避免了对 patches 的更新,无需手动修改 requires_grad
  • 如果显式设置 patches.requires_grad = False,会影响整个计算图,可能导致自注意力阶段的参数无法正确更新(因为 patches 是 SA 的输出,冻结它会切断梯度流)。
4. 实现“冻结”的关键:不返回 patch 更新

在代码中,CA 的 forward 只返回 cls_token 的更新值,而不像自注意力模块那样返回整个序列的更新:

  • 自注意力 (SA) 的输出:更新所有 patch 并返回 [batch_size, num_patches, embed_dim]
  • 类注意力 (CA) 的输出:只更新 CLS token 并返回 [batch_size, 1, embed_dim]

这种设计确保了 patch 嵌入在 CA 阶段保持不变,无需额外的冻结操作。


代码中的具体体现

让我们看一下完整的 CaiT 前向传播:

def forward(self, x):
    # Patch embedding
    x = self.patch_embed(x)
    x = x.flatten(2).transpose(1, 2)
    x = x + self.pos_embed

    # 自注意力阶段
    for layer in self.sa_layers:
        x = layer(x)  # x 是 patch 嵌入,形状 [batch_size, num_patches, embed_dim]

    # 类注意力阶段
    cls_token = self.cls_token.expand(x.size(0), -1, -1)
    for layer in self.ca_layers:
        cls_token = layer(cls_token, x)  # x 作为 patches 输入,cls_token 被更新

    # 分类
    cls_token = self.norm(cls_token)
    output = self.head(cls_token.squeeze(1))
    return output
  • x:自注意力阶段的输出,作为 patches 传递给 CA。
  • cls_token:在 CA 阶段被反复更新。
  • x 不变x 在 CA 循环中仅作为输入参数,未被重新赋值或修改。

是否需要 requires_grad=False

在某些情况下,如果开发者希望显式确保 patches 不被意外修改,可以在 CA 中使用 torch.no_grad()detach()

def forward(self, cls_token, patches):
    cls_norm = self.norm(cls_token)
    patches_norm = self.norm(patches.detach())  # 或者 with torch.no_grad(): patches_norm = self.norm(patches)
    attn_input = torch.cat([cls_norm, patches_norm], dim=0)
    attn_output, _ = self.attn(cls_norm, attn_input, attn_input)
    return cls_token + self.ls(attn_output)
  • patches.detach():切断 patches 的梯度追踪,使其不参与后续计算图。
  • 适用场景:如果担心实现中意外引入了依赖 patches 的计算,导致其被更新。

但在标准 CaiT 设计中,由于 CA 的输出仅依赖 CLS token,这种显式冻结通常是多余的,论文和参考实现(如 Timm 库)也没有这样做。


验证“Patch 不被更新”

我们可以简单验证这一点:

# 测试代码
model = CaiT().to(device)
images = torch.randn(2, 1, 28, 28).to(device)
patches = model.patch_embed(images).flatten(2).transpose(1, 2) + model.pos_embed
patches_before = patches.clone()
cls_token = model.cls_token.expand(2, -1, -1)

for layer in model.ca_layers:
    cls_token = layer(cls_token, patches)

patches_after = patches.clone()
print(torch.allclose(patches_before, patches_after))  # 输出 True,证明 patches 未变
  • patches_beforepatches_after:在 CA 前后保持一致,说明 patches 未被修改。

总结

  • “Patch 不被更新”是如何做到的?
    • 通过设计 CA 的输出仅涉及 CLS token,patches 不参与返回值的计算,自然不会被反向传播更新。
  • 需要 requires_grad=False 吗?
    • 不需要,标准实现通过控制计算图依赖性即可实现冻结。显式设置 requires_grad=Falsedetach() 是可选的冗余措施。
  • 机制核心:CA 的单向信息流(patch → CLS token)确保了 patch 的只读特性。

类注意力 (Class-Attention, CA) 中Q的来源

问题:是因为attn(x_norm, x_norm, x_norm)第一个q是x norm,所以x norm在更新,而class atten里面的q的位置是 cls_norm,所以只更新cls_norm吗?

让我详细比较 MultiHeadSelfAttentionMultiHeadClassAttention,并明确解释为什么自注意力 (Self-Attention, SA) 更新了所有输入,而类注意力 (Class-Attention, CA) 只更新 CLS token。核心差异确实在于注意力机制中 查询 (Query, Q) 的来源,以及这如何影响输出的更新。


代码对比

多头自注意力模块 (MultiHeadSelfAttention)
class MultiHeadSelfAttention(nn.Module):
    def __init__(self, embed_dim, num_heads):
        super().__init__()
        self.norm = nn.LayerNorm(embed_dim)
        self.attn = nn.MultiheadAttention(embed_dim, num_heads)
        self.ls = LayerScale(embed_dim)

    def forward(self, x):
        x_norm = self.norm(x)
        attn_output, _ = self.attn(x_norm, x_norm, x_norm)
        return x + self.ls(attn_output)
多头类注意力模块 (MultiHeadClassAttention)
class MultiHeadClassAttention(nn.Module):
    def __init__(self, embed_dim, num_heads):
        super().__init__()
        self.norm = nn.LayerNorm(embed_dim)
        self.attn = nn.MultiheadAttention(embed_dim, num_heads)
        self.ls = LayerScale(embed_dim)

    def forward(self, cls_token, patches):
        cls_norm = self.norm(cls_token)
        patches_norm = self.norm(patches)
        attn_input = torch.cat([cls_norm, patches_norm], dim=0)
        attn_output, _ = self.attn(cls_norm, attn_input, attn_input)
        return cls_token + self.ls(attn_output)

关键差异分析

1. 输入和查询 (Query) 的来源
  • 自注意力 (SA)

    • 输入:x,形状为 [batch_size, num_patches, embed_dim],包含所有 patch 嵌入。
    • 归一化:x_norm = self.norm(x),对整个序列进行 LayerNorm。
    • 注意力调用:self.attn(x_norm, x_norm, x_norm)
      • Query (Q)x_norm,包含所有 patch。
      • Key (K)x_norm,包含所有 patch。
      • Value (V)x_norm,包含所有 patch。
    • 结果:attn_output 的形状与 x_norm 相同,即 [num_patches, batch_size, embed_dim](PyTorch 的 MultiheadAttention 输出形状为 [seq_len, batch_size, embed_dim]),表示每个 patch 都得到了更新。
  • 类注意力 (CA)

    • 输入:cls_token(形状 [batch_size, 1, embed_dim])和 patches(形状 [batch_size, num_patches, embed_dim])。
    • 归一化:
      • cls_norm = self.norm(cls_token),仅对 CLS token 归一化。
      • patches_norm = self.norm(patches),对 patch 归一化。
    • 拼接:attn_input = torch.cat([cls_norm, patches_norm], dim=0),形状为 [batch_size, 1 + num_patches, embed_dim]
    • 注意力调用:self.attn(cls_norm, attn_input, attn_input)
      • Query (Q)cls_norm,仅包含 CLS token,形状 [1, batch_size, embed_dim]
      • Key (K)attn_input,包含 CLS token 和所有 patch。
      • Value (V)attn_input,包含 CLS token 和所有 patch。
    • 结果:attn_output 的形状为 [1, batch_size, embed_dim],仅对应 CLS token 的更新。
2. 输出和更新对象
  • 自注意力 (SA)

    • 输出:x + self.ls(attn_output)
    • attn_output 包含所有 patch 的更新值,与输入 x 形状一致,因此残差连接后,整个 x(所有 patch)都被更新。
    • 更新对象:所有 patch 嵌入。
  • 类注意力 (CA)

    • 输出:cls_token + self.ls(attn_output)
    • attn_output 只包含 CLS token 的更新值,形状为 [1, batch_size, embed_dim],与 cls_token 对应,因此残差连接后,只有 cls_token 被更新。
    • patches 未出现在输出中,因此保持不变。
    • 更新对象:仅 CLS token。
3. 为什么更新对象不同?

你的观察完全正确,关键在于 Query (Q) 的选择:

  • SAQ = x_norm,查询包含所有 patch,因此注意力机制计算的是所有 patch 之间的关系,输出也是所有 patch 的新表示。
  • CAQ = cls_norm,查询仅包含 CLS token,因此注意力机制只计算 CLS token 对所有输入(CLS token + patch)的关注,输出仅为 CLS token 的新表示。

在 PyTorch 的 nn.MultiheadAttention 中,输出的序列长度由 Query 的序列长度决定:

  • SA 的 Query 是 num_patches 长,因此输出也是 num_patches 长。
  • CA 的 Query 是 1 长(仅 CLS token),因此输出也是 1 长。

注意力机制的数学视角

为了更清晰地理解,我们可以用注意力公式来看:

自注意力 (SA)

Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(Q, K, V) = \text{softmax}\left(\frac{Q K^T}{\sqrt{d_k}}\right) V Attention(Q,K,V)=softmax(dk QKT)V

  • ( Q = K = V = x norm Q = K = V = x_{\text{norm}} Q=K=V=xnorm),形状 [num_patches, batch_size, embed_dim]
  • ( Q K T Q K^T QKT) 的形状为 [num_patches, num_patches],表示所有 patch 间的注意力权重。
  • 输出形状为 [num_patches, batch_size, embed_dim],更新所有 patch。
类注意力 (CA)
  • ( Q = cls_norm Q = \text{cls\_norm} Q=cls_norm),形状 [1, batch_size, embed_dim]
  • ( K = V = attn_input K = V = \text{attn\_input} K=V=attn_input),形状 [1 + num_patches, batch_size, embed_dim]
  • ( Q K T Q K^T QKT) 的形状为 [1, 1 + num_patches],表示 CLS token 对所有输入(CLS + patch)的注意力权重。
  • 输出形状为 [1, batch_size, embed_dim],仅更新 CLS token。

回答你的问题

是因为 attn(x_norm, x_norm, x_norm) 第一个 Q 是 x_norm,所以 x_norm 在更新,而 class attention 里面的 Q 的位置是 cls_norm,所以只更新 cls_norm 吗?

是的,完全正确!

  • 在自注意力中,Query 是 x_norm,包含所有 patch,因此注意力输出覆盖整个序列,更新所有 patch。
  • 在类注意力中,Query 是 cls_norm,仅包含 CLS token,因此注意力输出只覆盖 CLS token,只更新 cls_norm(通过残差连接反映到 cls_token 上)。
  • patches 虽然参与了键和值的计算,但因为它不对应 Query 的任何部分,且未出现在输出中,所以不会被更新。

验证实验

我们可以简单验证这个机制:

import torch
import torch.nn as nn

embed_dim, num_heads = 128, 4
sa = MultiHeadSelfAttention(embed_dim, num_heads)
ca = MultiHeadClassAttention(embed_dim, num_heads)

# 输入
x = torch.randn(2, 4, embed_dim)  # [batch_size, num_patches, embed_dim]
cls_token = torch.randn(2, 1, embed_dim)

# 自注意力
x_before = x.clone()
x_after = sa(x)
print("SA updates all patches:", not torch.allclose(x_before, x_after))  # True

# 类注意力
cls_before = cls_token.clone()
patches_before = x.clone()
cls_after = ca(cls_token, x)
print("CA updates cls_token:", not torch.allclose(cls_before, cls_after))  # True
print("CA keeps patches unchanged:", torch.allclose(patches_before, x))  # True

总结

  • SA 更新所有 patch:因为 Query 是整个序列,输出覆盖所有输入。
  • CA 只更新 CLS token:因为 Query 仅为 CLS token,输出只涉及 CLS token,patch 不参与更新。
  • 核心原因:Query 的范围决定了更新的对象,你的分析非常到位!

后记

2025年3月23日19点30分于上海,在grok 3大模型辅助下完成。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值