目录
原文链接:检测中https://www.hanspub.org/journal/PaperInformation.aspx?paperID=68785&btwaf=57032148
摘 要
近年来,CNN-Transformer混合模型在计算机视觉领域的研究已经成为热点话题之一。这种模型可以结合卷积神经网络(Convolutional Neural Network,CNN)和Transformer各自的优势,提高模型在多种计算机视觉任务中的性能。首先对CNN与Transformer分别进行简述并分析其优缺点,然后通过介绍与分析近几年国内外表现出色的CNN-Transformer混合模型,对多种常见的混合方式进行分类阐述,这些方法旨在发挥卷积神经网络在局部特征提取方面的优势以及Transformer在全局信息建模方面的优势。最后,对CNN-Transformer混合模型在计算机视觉领域以及其他领域未来所面对的挑战和发展趋势进行展望。
关键词
计算机视觉,卷积神经网络,Transformer,混合模型,深度学习
1. 引言
近年来,深度学习技术快速发展,并在不同领域中取得了优异的成果。CNN和Transformer是两种被广泛使用的深度学习模型,其中CNN具有强大的图像特征提取和分层表示学习能力,在图像分类、目标检测、语义分割等计算机视觉任务中表现出色。Transformer最初应用于自然语言处理领域,随后被引入计算机视觉领域,其通过自注意力机制可以捕获长距离依赖关系,具有出色的全局建模能力。尽管CNN和Transformer在各自的领域中都有出色的表现,但也存在一些局限性。为了克服这些局限性,越来越多的研究者开始探索如何将CNN和Transformer进行结合,设计出可以将两者优势互相补充的CNN-Transformer混合模型。这些混合模型的出现为计算机视觉领域带来了新的思路和方法,也为实现更加高效和准确的图像处理任务提供了新的途径。
本文将分别对CNN和Transformer进行介绍,包括它们的原理和优缺点。然后,我们将介绍CNN-Transformer混合模型的基本原理和设计思路,并分析和总结当前涌现的一些常见的混合方法。最后,我们将探讨CNN-Transformer混合模型在计算机视觉领域中的应用前景,并为未来的研究提供参考与见解。总之,CNN-Transformer混合模型作为一种新兴的模型,具有广泛的应用前景,其不断发展和创新,将推动计算机视觉领域的快速发展和进步。
2. CNN简述
CNN(Convolutional Neural Network), 即卷积神经网络,是一种前馈神经网络。它通过使用卷积层来提取图像中的特征,主要用于处理和分析具有网格状结构的数据。在计算机视觉(Computer Vision,CV)领域,CNN模型得到了广泛的应用。
CNN 的发展可以追溯到 1980 年代,当时LeCun等人提出了LeNet[1],并在 MNIST 数据集上取得了较好的表现。随后,CNN 在 1990 年代取得了进一步的发展,并在计算机视觉领域得到广泛应用。其中,AlexNet[2]、ResNet[3]、VGG[4]和 Inception-ResNet[5]等网络的出现大大提高了图像分类的准确率。之后,研究者在ResNet的基础上提出了ResNeXt[6]、DenseNet[7]、SENet[8]、EfficientNet[9]及ConvNeXt[10]等模型。此外,为了适应计算资源有限的硬件平台,研究者们还开发了一些轻量级的模型,如SqueezeNet[11]、MobileNet系列[12-14]、GhostNet系列[15-16]以及ShuffleNet系列[17-18]等。
CNN具有局部感知性强、鲁棒性强、可拓展性强等优点,但它也存在一些局限性,如(1)缺乏对全局信息的感知力,导致其对长序列的处理不佳;(2)CNN使用卷积操作提取特征,会导致输入数据的位置信息丢失;(3)当卷积核和图像尺寸较大时,计算量较大,需要较高的计算资源;(4)由于参数共享机制,对于一些需要考虑细节的任务,如图像超分辨率任务上表现不佳,等。
3. Transformer简述
3.1. 引言
Transformer[19]是一种基于自注意力机制的序列建模方法。最初主要用于自然语言处理(Natural Language Processing, NLP)领域,后来也在计算机视觉领域得到了广泛应用。
ViT[20](Vision Transformer)是Transformer在计算机视觉领域的首次应用,它将图像分类问题转化为序列建模问题。随后,Swin Transformer[21] 通过引入基于滑动窗口的自注意力机制,结合了局部感受野,提高了计算效率和准确率。该模型在多种计算机视觉任务上取得了显著的性能提升。Swin Transformer V2[22] 进一步优化了原始 Swin Transformer 的结构,提高了模型性能和训练稳定性。Han等人[23]在他们的文章中详细介绍了Transformer在计算机视觉领域的最新研究进展。
Figure 1. (a) Overall structure of Transformer (b) Multi-head Self-Attention layer (c) Single-head Self-Attention layer
图1. (a)Transformer整体结构 (b)多头自注意力层结构 (c)单头自注意力层结构
本章将介绍原始Transformer及ViT的核心原理和组成部分,为后续章节提供关键的理论基础,以求更好地理解混合模型的构建和优化过程,以及它们在实际应用中所展现出的潜力。
3.2. NLP领域的Transformer
Vaswani等人在2017年首次提出Transformer模型并将其应用于NLP领域中的机器翻译任务,其结构如图1a所示。它由多组编码器与解码器模块堆叠而成,编码器负责生成输入序列并然后传送到解码器中,随后利用其中的上下文信息生成输出序列。编码器模块和解码器模块均由多头自注意力层、前馈神经网络层、层归一化及残差连接层(多条恒等映射)构成,其中多头自注意力层结构由多个平行的单头自注意力层组成,结构分别如图1b及图1c所示。Transformer的关键组成部分包括:
(1)位置编码:为了在输入时保留语句中单词序列的顺序关系,Transformer利用位置编码(Position Encoder, PE)模块为输入序列中的每个单词添加相对或绝对位置信息。
(2)自注意力机制:Transformer引入了缩放点积注意力机制(Scaled Dot-Product Attention),即自注意力机制(Self-Attention),该机制可以将输入向量映射到多个不同的子空间中,从而获取更丰富的特征信息。多头自注意力机制是将输入序列的维度划分为多个头,并为每个头定义不同的权重矩阵,以此将输入向量映射到多个不同的子空间中,使模型可以从更多角度进行学习并获取更丰富的特征信息。
(3)前馈神经网络:前馈神经网络(Feedforward Neural Network, FNN)层由两个线性变换层和一个ReLU激活层组成,该模块连接在每个编码器和解码器的多头自注意力模块之后。
3.3. CV领域的Vision Transformer
ViT最大程度保留了Transformer的原始结构,并将其用于计算机视觉领域的图像分类任务。为了使用Transformer处理二维的图像,ViT提出补丁嵌入层,将输入的二维图像划分为一系列扁平的二维图像块,并将其作为输入序列。随后经过位置嵌入层,为每个输入序列添加位置信息。同时为了方便后续将模型应用于图像分类任务,ViT 借鉴了BERT[24] 中的[class]标记,用一个可学习的特征表示整个图像的特征信息,最后将经处理后的输入序列传送至编码器中。
ViT由于模型结构简单易懂,可扩展性强且效果好而成为了Transformer在CV领域中应用的里程碑,但ViT仍然存在部分缺点,如(1)对数据集要求高:由于缺乏类似CNN的归纳偏置特性,导致Transformer在数据量不足的情况下缺乏足够的泛化能力,难以达到理想的效果;(2)对硬件要求高:由于自注意力机制的计算复杂度高,且其计算量的增速是图片大小增速的二次方,因此对硬件要求非常高;(3)参数多;(4)缺少空间归纳偏置,对空间信息不敏感;(5)绝对位置编码导致迁移性差;(6)模型训练困难,等。
4. 结合CNN与Transformer的常见方法
4.1. 引言
CNN在图像处理中有着良好的表现,能够处理复杂的图像特征,其在处理局部特征方面表现出色,但是在处理全局信息时表现较弱。而Transformer在NLP领域中具有很好的表现,能够处理序列数据的建模和生成,其在处理全局信息方面具有优势,但是对于局部信息处理能力相对较弱。通过将CNN与Transformer进行结合,可以有效地捕捉与处理图像中的局部和全局信息,从而提高模型的性能和效果。本节将对几种常见的混合方法进行介绍。
4.2. 基于架构设计参考
深度学习模型的架构设计是一个非常关键的问题,因为它在一定程度上可以决定模型的性能和训练效率。如3.3节中所介绍,原始的ViT模型是一种完全基于Transformer结构的视觉模型,相比传统的CNN视觉模型,ViT在模型结构和特征表示方面存在不足。
首先,ViT将图像分为若干个固定大小的补丁,然后对其进行特征提取和分类,但这样会导致原始ViT模型对输入图像的尺寸比较敏感而且无法充分利用图像的全局信息,对模型的分类性能有较大影响。其次,原始ViT缺乏CNN中多层卷积和池化等操作,因此在提取图像特征时可能会受到一定的限制,导致对于一些纹理、形状等细节信息的提取能力相对较弱。
为了解决这些问题,研究者们开始探索将CNN和Transformer结构进行融合。最直接的想法就是将CNN常见的多尺度金字塔、残差连接等结构引入ViT中,从而提高模型对于输入图像尺寸的适应性和特征提取能力。
CNN的多尺度金字塔结构可以更好地处理多尺度问题,提高模型的多尺度表示能力、局部特征提取能力、特征重用能力、鲁棒性和可解释性等方面的性能。Wang等人[25]便是在保留ViT原始特点的情况下,参考并引入了CNN架构中的金字塔结构来改进ViT在处理高分辨率图像时的效果,提出了Pyramid Vision Transformer模型,即PVT。不同于VGG、ResNet等模型使用不同的卷积步幅来获取多尺度特征图,PVT采用了渐进收缩策略,其利用补丁嵌入层和加入了空间缩减机制的编码器实现对特征图尺度的灵活调整,这使得PVT既可以像传统CNN模型一样生成多尺度特征图,又降低了计算成本。
UNeXt[26]和Uformer[27]分别采用了不同的方法参考UNet[28]架构来优化Transformer模型在计算机视觉领域的应用。UNet多用于图像分割任务,它的结构可以更好地提取和利用不同尺度下的特征,同时可以通过跳跃连接将不同尺度下的特征相互关联,提高模型的表现和性能。
UneXt中的编码器部分采用了类似UNet的结构,将输入图像逐步下采样到多个低分辨率特征图,然后通过多个解码器分支逐步上采样恢复分割结果。与UNet不同的是,UneXt中的解码器部分采用了Transformer模型,以求实现更好的特征表示和上下文建模能力。通过这种方式,UneXt可以在保持UNet优良分割效果的同时,提高模型对图像语义信息的表示和理解能力。
Uformer在模型中引入了类似于UNet的跨层连接结构,以促进高层次和低层次特征的信息流动。该模型中的每个Transformer块都包含了一个多分辨率的注意力模块,该模块将不同层次的特征图进行特征融合,并通过一个反卷积模块进行上采样,以恢复分割结果。通过这种方式,Uformer可以更好地利用低层次特征的详细信息和高层次特征的抽象语义信息,从而提高模型在图像分割任务中的性能。
ResNet中的残差连接结构可以将不同层级的特征相互关联,提高模型的表现和性能。CSWin Transformer[29]模型采用了多层Transformer结构,并在每个模块之间引入了类似于残差连接结构,其通过参照并学习ResNet的架构实现了模型效果的优化,提高了模型的表达能力和学习效率。
HRFormer[30]则是在HRNet[31]的多分辨率特征融合架构的基础上引入了Transformer,这使得该模型既具有多分辨率特征融合架构的优势,又能更好地建模长距离依赖关系,捕捉到更全局的语义信息。
综上,这些模型通过参照CNN的架构设计,对原始ViT的不足进行改进。基于架构设计参考所提出的CNN-Transformer混合模型能更高效地提取特征,在不同的任务和数据集上具备了更好的可拓展性。注意力机制的引入,使得模型对光照、遮挡等复杂场景具备更好的鲁棒性。但同时也很容易造成模型计算成本高、参数量大、可解释性差等劣势。因此在基于架构参考设计混合模型时,仍需要在实际研究中对相应细节进行改进。
4.3. 基于知识蒸馏
知识蒸馏[32~34](Knowledge Distillation,KD)是一种模型压缩方法,其核心思想是利用效果好且泛化能力强的复杂模型作为教师网络,去指导训练表达能力较弱的小模型,即学生网络,使学生网络也具备教师网络的泛化能力,实现知识迁移。因此基于知识蒸馏实现CNN与Transformer各自优势的结合也是一个可行的方法。
Touvron等人[35]提出的DeiT便是采用了知识蒸馏的方法对ViT进行优化,其在输入序列中加入了蒸馏令牌,与分类令牌、图像块令牌一起输入编码器中进行交互计算,同时利用泛化能力较强的CNN模型作为教师网络得到一组标签,然后计算编码器输出的蒸馏令牌与教师网络的输出标签的交叉熵损失,这种方法称为硬蒸馏策略。通过这种方法,DeiT成功将CNN模型的归纳偏置特性引入了Transformer模型中,降低了Transformer模型对数据量的需求,提升了训练速度,同时取得了更好的性能和效果。
4.4. 基于串并联拼接
CNN擅长有效地提取图像的局部特征,具有更好的泛化能力和更快的收敛速度。Transformer则更擅长捕捉全局的语义信息,在大数据集上可以获得很好地效果。相比于单独使用CNN或Transformer,将它们进行串联或并联的拼接,可以获得更好的表现。研究者提出了许多基于结构拼接的思想的混合模型,并对不同的拼接方式进行了分析研究。
Carion等人[36] 采用了先CNN再Transformer的串联拼接方式,提出了DETR,首次将Transformer用于图像目标检测。他们首先利用CNN网络学习输入图像的二维特征,然后将CNN网络提取出的低分辨率的特征图重塑为一系列特征序列并对其进行位置编码,将结果输入到Transformer中进行学习,得到分类标签和预测框。这种方法有效减小了Transformer的输入尺寸,方便Transformer快速学习输入图像的全局特征,提高了模型的学习速度以及整体性能。
Dai等人[37]采用了同样的拼接策略,提出了CoAtNet,他们认为卷积块更擅长获取局部先验,因此应设计在Transformer模块之前。他们分别利用基于深度卷积改进的反向残差瓶颈MBConv模块和相对自注意力模块为模型引入CNN和Transformer的特性,并成功将CNN的平移同变性(Translation Equivariance)和Transformer的输入自适应加权(Input-adaptive Weighting)、全局感受野(Global Receptive Field)的优点融合到单一架构中,获得了兼具泛化能力、模型容量和模型效率的混合模型。
Beal等人[38]则是选择先Transformer再CNN,提出了ViT-FRCNN。该模型在ViT后串行拼接了Faster R-CNN[39]作为模型的目标检测网络,然后将ViT的输出重组并传输至到目标检测网络的残差块,得到最终的分类标签和预测框,实现利用Transformer完成图像目标检测任务的目的。这种方法的成功也证明了Transformer主干可以保留足够的空间信息用于目标检测。
Yan等人[40]设计的ConT块也采用了先Transformer再CNN的串行拼接策略,并在此基础上构建了ConTNet。他们将标准Transformer编码器视为与卷积块相同的独立组件,然后将两个编码器与一个卷积核尺寸为3×3的卷积层串联,并将其命名为ConT块。图像进入网络后将首先经过一个卷积核尺寸为7×7的卷积层和一个最大池化层,然后通过由多个ConT块堆叠而成的框架,最后经过一个全局平均池化层和一个全连接层实现相关计算机视觉任务。这样既利用了Transformer强大的表征能力,又具备CNN的偏置归纳特性。该模型具备容易优化、鲁棒等优点,且不依赖于强大的数据增强和训练技巧,具有良好的迁移学习能力。
Mehta等人[41]在MobileViT中采用了类似的设计策略。他们在该模型中参照ViT的结构设计了MobileViT块,该模块用更擅长处理全局信息的Transformer块替代了常规卷积中的矩阵乘法运算过程。然后将该模块与倒置残差块进行交替串联堆叠,实现对CNN和Transformer的优势的融合。MobileViT 块的主要思想是将Transformer视为卷积,这使得它可以同时获得卷积的归纳偏置特性和Transformer的全局性。与ViT相比,MobileViT块既不会失去图像块的顺序信息,也不会丢失图像块中像素的空间位置信息。
随后Mehta等人[42]在MobileViT的基础上对其进行改进,提出了MobileViTV2。虽然与一些轻量级CNN相比,MobileViT的参数更少而且效果更好,但是由于使用了多头自注意力机制,导致该模型具有较高的延迟。基于此,他们提出了一种可分离自注意力机制替换了多头自注意力机制,提高了计算速度和内存效率。
不同于其他混合网络普遍采用的串联结构,Peng等人[43]选择将CNN和Transformer进行并行拼接,提出了Conformer,他们设计了一个特征耦合单元(Feature Coupling Unit,FCU),通过该模块实现以并行交互的方式融合CNN网络所提取的局部特征和Transformer网络所提取的全局特征,将它们有效地整合成为最终的特征表示,并使得该模型在多个视觉识别任务中取得了优秀的性能。
Figure 2. Bidirectional cross-bridging method
图2. 双向交叉桥接方式
Chen等人[44]在他们所提出的Mobile-Former中,采用了创新性的双向交叉桥接方式,其结构如图2所示。其中CNN网络模块由以MobileNetV2的倒置瓶颈块为参考提出的Mobile块堆叠而成,该模块以原始图像作为输入,利用深度卷积和点卷积提取局部特征。而以Transformer网络为参考提出的Former块则是由一个多头自注意力层和一个前馈神经网络组成,以可学习参数或令牌作为输入。这些标记是随机初始化的,每个标记代表了图像的全局先验信息,而ViT中的标记是图像块的线性映射,前者所使用的标记明显更少,因此计算量相比于ViT也更少,拥有较低的计算成本和更高的效率。CNN部分的计算复杂度为O(HWC2),Transformer部分的计算复杂度为O(M2d+Md2),其中M和d分别为嵌入块的数量和维度。
该模型所提出的双向交叉注意力同时利用了CNN的局部性优势和Transformer的全局性优势,实现了局部特征和全局特征的融合。将局部特征映射表示为X,全局标记表示为Z,然后将它们分别拆分为h个头,即 , ,用于多头自注意力机制,则从Mobile块到Former块的桥接计算公式如公式(1)所示:
其中 是第i个头的查询Query映射矩阵, 是用于结合多头注意力的矩阵,Attention函数代表标准注意力函数。
从Former块到Mobile块的桥接计算公式如公式(2)所示:
(2)
其中 是第i个头的Key映射矩阵, 是第i个头的值Value映射矩阵。
值得注意的是,相比于标准自注意力机制,在Mobile端公式(1)的计算中去除了Key矩阵和Value矩阵,而在Former端公式(2)的计算中去除了Query矩阵,这样做的目的是节省计算量。Mobile块和Former块之间通过双向交叉注意力组成一个Mobile-Former块。
Mobile-Former的优点是计算效率高,表现力强,但也因为并行桥接了两种不同的模型导致参数共享效率不高,参数量大,在模型大小方面存在局限性。
Yoo等人[45]所提出的ACT同样采用了双向桥接的方式实现并行结构,不同于Mobile-Former的交叉桥接设计,ACT采用了双向同步桥接设计,其结构如图3所示。该模型融合CNN与Transformer的优点以解决超分辨率任务,其中CNN分支采用了RCAN[46]模型中的卷积块残差通道注意力块(Residual Channel Attention Block,RCAB)。两种分支之间通过融合块(Fusion Block,FB)进行桥接实现特征融合,该模块将每步的输出作为融合块的输入,然后将结果与上一步的输出结合作为下一步的输入。这种方法在多个超分辨率数据集下取得了SOTA(State Of The Arts)效果。
Figure 3. Bidirectional synchronous bridging method
图3. 双向同步桥接方式
通过对多个具有代表性的混合模型进行介绍和分析,我们发现基于串并联拼接的混合方式可以结合CNN在处理图像时的优势以及Transformer在建模序列数据时的优势,进一步提高模型的表现。此外,通过对不同的拼接方法进行探究,我们可以发现在不同的任务场景下,采用不同的混合方式可以获得更好的性能。值得注意的是,由于混合模型具有更复杂的结构,因此训练和推理时间相对较长,且需要更高的计算资源。因此,对于具体任务的选择和模型结构的设计,需要根据具体场景和需求来确定。
4.5. 基于局部替换
在CNN和Transformer混合模型的研究中,一种被广泛探讨的混合方式是替换网络中的特定模块,以结合CNN和Transformer的优势。通过替换不同的模块,可以使得混合模型更加灵活,同时也可以更好地结合CNN和Transformer各自的优点,如:
(1)对嵌入块的替换
一种常见的策略是替换嵌入块。例如,ViTC[47]使用多个3×3卷积和一个1×1卷积的堆叠取代了ViT中的16×16卷积,显著提高了模型在ImageNet-1k数据集上的表现。相比之下,Hassani等人[48]提出的CVT和CCT模型则通过改变输入数据的处理方式,提高了模型对局部空间信息的敏感性,减少了对位置编码的依赖。其中CVT采用了一种基于自注意力机制的序列池化方式,该方式通过融合每个块标志的嵌入用于分类,直接将编码层产生的含顺序信息的序列进行池化。CCT在CVT的基础上进一步对输入数据进行处理,将图像经CNN网络处理后再划分块标志,然后输入CVT中,卷积层所提供的归纳偏置特性使得模型可以更好的保留局部的空间信息。这些方法都有效,但它们在性能、稳定性、泛化能力和计算成本等方面存在差异。例如,ViTC对学习率和优化器选择非常鲁棒,但CCT模型在小数据集上的表现更好,且计算成本更低。
(2)对前馈层的替换
另一种策略是替换Transformer的前馈层。例如, LocalViT[49]通过比较并发现了前馈网络和反向残差块结构的相似性,将反向残差块中所使用的深度卷积引入前馈网络中,从而为其引入局部性。这种方法的优点是它可以改进模型的性能,但可能会增加模型的复杂性。
(3)对自注意力层的替换
d’Ascoli等人[50]提出了ConViT,他们认为在Transformer中引入CNN的归纳偏置特性有利也有弊,在大数据集上进行训练时,固有偏置归纳特性会限制模型的上限,因此他们引入了一个门控位置自注意力层(Gated Positional Self-Attention,GPSA),该模块可以根据上下文信息自主决定是否表现为卷积层,从而实现可控的归纳偏置。Srinivas等人[51]提出的BoTNet将ResNet的瓶颈层中尺寸为3×3的卷积替换为多头自注意力模块,并将其命名为BoT块,其结构如图6b所示,然后用BoT块替换ResNet框架中最后三个瓶颈层。此方法原理简单,但在实例分割和目标检测任务中显著提高了基线,且具备很小的训练与推理开销,是一个值得研究的主干架构。
总的来说,基于局部替换的混合模型为研究者提供了一种有效的策略,可以结合CNN和Transformer的优点,同时保留模型的灵活性。然而,选择最适合的方法需要考虑多个因素,包括任务类型、数据集大小、模型复杂性以及计算成本等。
5. 多层次混合CNN与Transformer
如4.2节至4.5节所述,在CNN-Transformer混合模型的设计过程中,研究者们探索了不同的混合方式以实现更好的性能表现。然而,许多最新的混合网络设计并不仅仅使用一种混合方法,而是采用多种方法的组合,本章将介绍这些多种方式混合的网络设计,并分析它们如何结合CNN与Transformer的优势以提高模型性能表现。
Graham等人[52]参考LeNet,为ViT引入卷积组件,提出了LeViT。该模型采用了多分辨率金字塔结构,用注意力机制实现下采样,同时采用了一种可学习且具有不变性的注意力偏差,取代传统ViT中的位置嵌入。此外,他们删除了分类标记,而是参考卷积网络,利用一个激活映射上的平均池化来代替它,有效减少了第一层网络中的特征数量。LeViT实现了传统ViT在宽度和空间分辨率方面的缩小。
Wu等人[53]提出的CvT也通过在ViT中引入卷积来提高性能和效率,主要提出了两个改进:(1)包含一种新的卷积令牌嵌入(Convolutional Token Embedding,CTE)的Transformer层次结构;(2)一种使用卷积映射的Transformer块(Convolutional Projection for Attention,CPA)。通过以上两种改进,该模型成功将CNN网络的一些理想特性,如平移、缩放和失真不变性引入了ViT网络中,使得模型可以捕捉局部信息以及局部信息之间的空间关系,并在减少计算量和参数量的同时,保持了Transformer网络自身的优点,如动态注意力、全局感受野、泛化能力强等。结果表明,以合适的方式移除ViT中的位置编码模块可以在简化结构设计的同时保持网络的性能,并使其更适合处理不同分辨率的输入。
Yuan等人[54]在CeiT中首先设计了一个基于卷积的Image-to-Tokens(I2T)模块,该模块从生成的低级特征中提取补丁。随后将编码器中的前馈网络替换为局部增强前馈层(Locally Enhanced Feed-forward,LeFF),它将令牌重新拼接位特征图,然后采用深度可分离卷积提取局部信息,再将其结果重新映射为令牌,这促进了空间维度上相邻令牌之间的相关性。最后,类似于特征金字塔,它在Transformer顶部附加了一个逐层分类标签自注意力模块(Layer-wise Class token Attention,LCA),将全部的分类令牌作为输入共同参与结果预测,以获得多尺度的表征。通过以上三种改进,CeiT成功将CNN网络的不变性和局部性引入Transformer中,使模型既具备CNN网络提取低级特征和局部信息的能力,也具有Transformer网络获取远程依赖关系的优势。与之类似的是,Jeevan P 等人[55]在CXV也在网络最前面添加了卷积层以引入卷积网络的归纳先验特性,替换掉了ViT中的分类令牌和位置编码嵌入,然后使用线性自注意力机制取代了原始的自注意力机制以减少GPU的负荷并提高模型在小数据集上的性能。
EdgeViTs[56]和CMT[57]都采用了类似于ResNet的多层级结构。其中,EdgeViTs引入了一个基于自注意力机制和卷积的最优集成的具备高成本效益的Local-Global-Local(LGL)信息交换瓶颈块。LGL主要由三阶段组成,分别为基于深度卷积和点卷积的局部聚合模块(Local Aggregation)、全局稀疏自注意力模块(Global Sparse-Self-Attention)和基于转置卷积的局部传播模块(Local Propagation),其中稀疏自注意力模块的使用降低了自注意力机制的复杂度,在精度与延迟之间实现了更好的平衡。EdgeViTs的提出使得基于自注意力的视觉模型在准确性和设备效率的均衡情况下能够与最好的轻量CNN模型竞争。而在CMT中,输入图像首先通过卷积预处理层进行细粒特征提取,然后将结果输送进一系列堆叠的CMT模块中进行表示学习。CMT模块由一个基于深度卷积的局部感知单元(Local Perception Unit,LPU)、一个轻量级的多头自注意力模块(Lightweight Multi-Head Self-Attention,LMHSA)和一个参考反向残差前馈网络(Inverted Residual Feed-Forward Network,IRFFN)组成,用于同时捕获全局和局部结构信息提高网络的表示能力。其中局部感知单元通过使用深度卷积提取局部信息,为模型提供了平移不变性。轻量级多头自注意力模块利用两个深度可分离卷积分别对Key和Value的生成进行下采样处理,减小了多头自注意力机制的计算量。反向残差前馈网络参考MobileNetV2中的反向残差块,在原始前馈网络中加入了深度可分离卷积增强局部信息的提取能力,而残差结构促进了梯度的传播能力。此外,CMT参考EfficientNet,提出了一种适用于Transformer架构的复合缩放策略,使模型可以在计算成本与性能之间取得更好的平衡。
Zhang等人[58]在其提出的ParC-Net中引入了一种轻量型的位置感知循环卷积(Position aware circular Convolution, ParC),它既具备ViT结构的全局感受野,又拥有卷积的局部性。ParC结构主要包含三个改动:(1)采用循环填充代替传统的零填充,增大感受野以提取全局特征;(2)引入位置编码嵌入,消除使用循环卷积时对空间结构的影响,保持输出特征对空间位置信息的敏感度;(3)引入插值函数,对于不同的输入分辨率动态生成相应大小的卷积核和位置编码嵌入。他们将ParC与SENet相结合,构建了一个类似于Meta-Former[59]结构的纯卷积结构ParC块,该结构显著降低了计算成本,同时保留了能够提取全局特征的特点。经过参考CoAtNet和MobileViT的成功经验,ParC-Net的外框架搭建也采用了分叉结构。他们保留了MobileViT中浅层阶段的MobileNetV2块,用ParC块替换了深层阶段的ViT块,使其转变为一个纯卷积网络。ParC-Net在图像分类、目标检测及语义分割任务中均取得了最好的整体性能表现。
Li等人[60]提出了Next-ViT,它以创新的方式融合了卷积与Transformer。他们设计了基于多头卷积注意力(Multi-Head Convolutional Attention,MHCA)的NCB模块(Next Convolution Block)用以提取局部特征,而NTB模块(Next Transformer Block)负责提取全局特征,同时作为一个轻量级的高低频信号混合器以增强建模能力。此外,传统混合策略一般选择在网络前期采用卷积块,然后在网络后期堆叠Transformer块,然而采用这种混合策略的模型很容易在分割和检测等下游任务上达到性能饱和。为了克服传统混合策略的不足,他们提出了一种新的混合策略NHS(Next Hybrid Strategy),该策略创造性地以(N+1)*L混合范式堆叠NCB模块和NTB模块,大大的减少了Transformer块的比例,显著提升了模型在下游任务上的性能,实现了高效部署。 Maaz等人[61]提出的EdgeNeXt也采用金字塔型结构,然后引入了自适应卷积编码器和分割深度转置注意力编码器(Split Depth-wise Transpose Attention,SDTA),后者将输入张量分割为多个信道组,利用深度卷积和跨信道维度的自注意力机制来隐式增加感受野并编码多尺度特征。他们通过使用互协方差注意力机制,将原始的空间维度的计算转换为特征通道维度计算,既有效地提取了全局特征,又显著减少了计算复杂度。EdgeNeXt在图像分类、目标检测及语义分割任务中实现了很好的效果。此外,它在减小了模型大小和参数量的同时,也保持了较少的运算量,使得该轻量化模型能够方便地部署在边缘设备上。
Pan等人通过将卷积和自注意力机制分别进行分解,研究它们之间的共性与异性,并对二者的内在联系加以利用,提出了ACmix[62]。对于卷积操作,他们将传统卷积核分解为多个1×1卷积,然后进行移位和求和操作;对于自注意力机制,他们将Query、Key和Value的投影视为多个1×1卷积,然后对自注意力权值和聚合值进行计算。通过共享卷积与自注意力机制的第一阶段的计算资源,显著减少了计算复杂度,成功地将两种不同范式进行了结合。因此,ACmix兼具自注意力机制和卷积的优点的同时,又拥有更少的计算复杂度。
这些网络的设计思想各具特色,通过组合不同的混合方式在不同程度上融合了CNN和Transformer的优势,对于特定的任务和应用场景都有一定的优势和适用性。
6. 性能评价
6.1. 数据集及常用评价指标
6.1.1. ImageNet
ImageNet 数据集是一个大型视觉数据库,旨在推动计算机视觉和深度学习领域的研究。该数据集包含超过 1400 万张标注过的高分辨率图片,涵盖了 2 万多个类别。ImageNet-1k是ImageNet数据集的一个子集,它包含了1000个类别。该数据集常用于训练和评估计算机视觉中的图像分类和物体检测算法。由于 ImageNet-1k 的类别数量较少,与整个 ImageNet 数据集相比,它的规模更小、计算复杂度更低,因此更适合用于研究和实验。常用的评价指标为Top-1 Accuracy,表示模型预测的类别与真实类别相同的比例。在实际应用中,Top-1准确率越高,表示模型的分类性能越好。
6.1.2. COCO
COCO (Common Objects in Context) 由微软于 2014 年发布,是一个用于图像识别、物体检测、分割和关键点检测等计算机视觉任务的大型数据集。该数据集包含了33万张高质量的图像,涵盖了91种常见物体类别,共计超过200万个标注框。这些类别包括不同的动物、食物、交通工具等。COCO 数据集的图片特点是场景复杂、多样,物体之间存在大量的遮挡关系。常用的评价指标为平均精度(Average Precision,AP)。
6.1.3. ISIC
ISIC (International Skin Imaging Collaboration) 数据集是一个皮肤病变图像的大型数据集,主要用于皮肤癌检测和分类任务。ISIC数据集包含多种皮肤病变类型,如良性痣、基底细胞癌、鳞状细胞癌和黑色素瘤等。该数据集的图片来源于多个不同的数据库和临床研究,涵盖了各种年龄、性别、肤色和皮肤病变部位。这使得 ISIC 数据集具有较高的多样性,对算法具有较强的泛化挑战。常用的评价指标为F1 分数 (F1-score):精确度和召回率的调和平均值,用于衡量模型在精确度和召回率之间的平衡。
6.2. 效果对比
表1展示了不同混合模型在ImageNet-1K数据集上的性能对比。这些模型采用了多种不同的结构,包括CNN、Transformer和多种采用混合架构的模型。部分混合模型的性能超过了纯CNN和纯Transformer模型。在参数量和计算量方面,混合模型展示了不同的权衡。其中大部分模型在保持较高准确率的同时,成功减少了参数数量和计算量。表2展示了几种模型在COCO数据集上的目标检测任务的混合模型的性能对比。表3展示了在ISIC数据集上进行医学图像分割任务的混合模型的性能对比。相比于CNN经典模型UNet,混合模型UNeXt在参数量和计算量方面表现出明显优势,同时在F1指标上达到了更高分数。
Table 1. Performance comparison of hybrid models on the ImageNet-1K dataset
表1. 混合模型在ImageNet-1K数据集上的性能对比
任务 | 模型 | 结构 | #Params(M) | Flops(G) | Top-1 Acc (%) |
图像分类 | ResNet-101[3] | CNN | 45 | 7.9 | 79.8 |
ViT-B[20] | Transformer | 86.6 | 17.6 | 77.9 | |
PVT-S[25] | 架构参考 | 24.5 | 3.8 | 79.8 | |
CSWin-S[29] | 架构参考 | 35 | 6.9 | 83.6 | |
HRT-B[30] | 架构参考 | 50.3 | 13.7 | 82.8 | |
DeiT-B[35] | 知识蒸馏 | 86 | 17.5 | 81.8 | |
CoAtNet-0[37] | 串联拼接 | 25 | 4.2 | 81.6 | |
ConTNet-B[40] | 串联拼接 | 39.6 | 6.4 | 81.8 | |
MobileViT-S[41] | 串联拼接 | 5.6 | - | 78.4 | |
MobileViTV2-2.0[42] | 串联拼接 | 10.6 | 4 | 80.4 | |
ConFormer-S[43] | 并联拼接 | 37.7 | 10.6 | 83.4 | |
Mobile-Former-508M[44] | 并联拼接 | 14 | 0.508 | 79.3 | |
ViTc-1GF[47] | 嵌入块替换 | 17.8 | 4 | 79.1 | |
CCT[48] | 嵌入块替换 | 22.36 | 11.06 | 80.67 | |
LocalViT-S[49] | 前馈层替换 | 22.4 | 4.6 | 80.8 | |
ConViT-S[50] | 自注意力层替换 | 27 | 5.4 | 81.3 | |
BoTNet-S1-50[51] | 自注意力层替换 | 20.8 | 8.54 | 84.7 | |
LeViT-384[52] | 架构参考+局部替换 | 39.1 | 2.353 | 82.6 | |
CvT-21[53] | 架构参考+局部替换 | 32 | 7.1 | 82.5 | |
CeiT-S[54] | 嵌入块替换+前馈层替换 | 24.2 | 4.5 | 82 | |
Edgevits-S[56] | 架构参考+局部替换 | 11.1 | 1.9 | 81 | |
CMT-S[57] | 架构参考+局部替换 | 25.1 | 4 | 83.5 | |
ParC-Net-S[58] | 架构参考+局部替换 | 5 | 3.5 | 78.6 | |
Next-ViT-S[60] | 局部替换+创新混合策略 | 31.7 | 5.8 | 82.5 | |
EdgeNeXt-S[61] | 架构参考+局部替换 | 5.6 | 1.93 | 78.8 | |
Swin-ACmix-S[62] | 创新混合模块 | 51 | 9 | 83.5 |
Table 2. Performance comparison of hybrid models on the COCO dataset
表2. 混合模型在COCO数据集上的性能对比
任务 | 模型 | 结构 | #Params(M) | Flops(G) | AP(%) |
目标检测 | Faster R-CNN[39] | CNN | 60 | 150 | 35 |
RetinaNet[63] | CNN | 36 | 100 | 36 | |
DETR[36] | 串联拼接 | 41 | 86 | 42 | |
ViT-B/16-FRCNN[38] | 串联拼接 | - | - | 36.6 |
Table 3. Performance comparison of hybrid models on the ISIC dataset
表3. 混合模型在ISIC数据集上的性能对比
任务 | 模型 | 结构 | #Params(M) | Flops(G) | 数据集 | 指标 | 数值 (%) |
医学图像分割 | UNet[28] | CNN | 31.13 | 55.84 | ISIC | F1 | 84.03±0.87 |
UNeXt[26] | 架构参考 | 1.47 | 0.57 | ISIC | F1 | 89.70±0.96 |
参考文献
- LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.
- Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.
- He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 770-778.
- Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.
- Szegedy C, Ioffe S, Vanhoucke V, et al. Inception-v4, inception-resnet and the impact of residual connections on learning[C]//Proceedings of the AAAI conference on artificial intelligence. 2017, 31(1).
- Xie S, Girshick R, Dollár P, et al. Aggregated residual transformations for deep neural networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 1492-1500.
- Huang G, Liu Z, Van Der Maaten L, et al. Densely connected convolutional networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 4700-4708.
- Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 7132-7141.
- Tan M, Le Q. Efficientnet: Rethinking model scaling for convolutional neural networks[C]//International conference on machine learning. PMLR, 2019: 6105-6114.
- Liu Z, Mao H, Wu C Y, et al. A convnet for the 2020s[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 11976-11986.
- Iandola F N, Han S, Moskewicz M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 0.5 MB model size[J]. arXiv preprint arXiv:1602.07360, 2016.
- Howard A G, Zhu M, Chen B, et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications[J]. arXiv preprint arXiv:1704.04861, 2017.
- Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 4510-4520.
- Howard A, Sandler M, Chu G, et al. Searching for mobilenetv3[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2019: 1314-1324.
- Han K, Wang Y, Tian Q, et al. Ghostnet: More features from cheap operations[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 1580-1589.
- Tang Y, Han K, Guo J, et al. GhostNetV2: Enhance Cheap Operation with Long-Range Attention[J]. arXiv preprint arXiv:2211.12905, 2022.
- Zhang X, Zhou X, Lin M, et al. Shufflenet: An extremely efficient convolutional neural network for mobile devices[C].Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 6848-6856.
- Ma N, Zhang X, Zheng H T, et al. Shufflenet v2: Practical guidelines for efficient cnn architecture design[C]//Proceedings of the European conference on computer vision (ECCV). 2018: 116-131.
- Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.
- Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[J]. arXiv preprint arXiv:2010.11929, 2020.
- Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2021: 10012-10022.
- Liu Z, Hu H, Lin Y, et al. Swin transformer v2: Scaling up capacity and resolution[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022: 12009-12019.
- Han K, Wang Y, Chen H, et al. A survey on vision transformer[J]. IEEE transactions on pattern analysis and machine intelligence, 2022, 45(1): 87-110.
- Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.
- Wang W, Xie E, Li X, et al. Pyramid vision transformer: A versatile backbone for dense prediction without convolutions[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2021: 568-578.
- Valanarasu J M J, Patel V M. Unext: Mlp-based rapid medical image segmentation network[C]//Medical Image Computing and Computer Assisted Intervention–MICCAI 2022: 25th International Conference, Singapore, September 18–22, 2022, Proceedings, Part V. Cham: Springer Nature Switzerland, 2022: 23-33.
- Wang Z, Cun X, Bao J, et al. Uformer: A general u-shaped transformer for image restoration[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 17683-17693.
- Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention–MICCAI 2015: 18th International Conference, Munich, Germany, October 5-9, 2015, Proceedings, Part III 18. Springer International Publishing, 2015: 234-241.
- Dong X, Bao J, Chen D, et al. Cswin transformer: A general vision transformer backbone with cross-shaped windows[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 12124-12134.
- Yuan Y, Fu R, Huang L, et al. Hrformer: High-resolution transformer for dense prediction[J]. arXiv preprint arXiv:2110.09408, 2021.
- Sun K, Xiao B, Liu D, et al. Deep high-resolution representation learning for human pose estimation[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019: 5693-5703.
- Hinton G, Vinyals O, Dean J. Distilling the knowledge in a neural network[J]. arXiv preprint arXiv:1503.02531, 2015.
- 邵仁荣, 刘宇昂, 张伟, 等. 深度学习中知识蒸馏研究综述[J]. 计算机学报, 2022.
- 黄震华, 杨顺志, 林威, 等. 知识蒸馏研究综述[J]. 计算机学报, 2022, 45(3).
- Touvron H, Cord M, Douze M, et al. Training data-efficient image transformers & distillation through attention[C]//International Conference on Machine Learning. 2021: 10347-10357.
- Carion N, Massa F, Synnaeve G, et al. End-to-end object detection with transformers[C]//Computer Vision–ECCV 2020: 16th European Conference, Glasgow, UK, August 23–28, 2020, Proceedings, Part I 16. Springer International Publishing, 2020: 213-229.
- Dai Z, Liu H, Le Q V, et al. Coatnet: Marrying convolution and attention for all data sizes[J]. Advances in Neural Information Processing Systems, 2021, 34: 3965-3977.
- Beal J, Kim E, Tzeng E, et al. Toward transformer-based object detection[J]. arXiv preprint arXiv:2012.09958, 2020.
- Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J]. Advances in neural information processing systems, 2015, 28.
- Yan H, Li Z, Li W, et al. Contnet: Why not use convolution and transformer at the same time?[J]. arXiv preprint arXiv:2104.13497, 2021.
- Mehta S, Rastegari M. Mobilevit: light-weight, general-purpose, and mobile-friendly vision transformer[J]. arXiv preprint arXiv:2110.02178, 2021.
- Mehta S, Rastegari M. Separable self-attention for mobile vision transformers[J]. arXiv preprint arXiv:2206.02680, 2022.
- Peng Z, Huang W, Gu S, et al. Conformer: Local features coupling global representations for visual recognition[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2021: 367-376.
- Chen Y, Dai X, Chen D, et al. Mobile-former: Bridging mobilenet and transformer[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 5270-5279.
- Yoo J, Kim T, Lee S, et al. Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution[J]. arXiv preprint arXiv:2203.07682, 2022.
- Zhang Y, Li K, Li K, et al. Image super-resolution using very deep residual channel attention networks[C]//Proceedings of the European conference on computer vision (ECCV). 2018: 286-301.
- Xiao T, Singh M, Mintun E, et al. Early convolutions help transformers see better[J]. Advances in Neural Information Processing Systems, 2021, 34: 30392-30400.
- Hassani A, Walton S, Shah N, et al. Escaping the big data paradigm with compact transformers[J]. arXiv preprint arXiv:2104.05704, 2021.
- Li Y, Zhang K, Cao J, et al. Localvit: Bringing locality to vision transformers[J]. arXiv preprint arXiv:2104.05707, 2021.
- D’Ascoli S, Touvron H, Leavitt M L, et al. Convit: Improving vision transformers with soft convolutional inductive biases[C]//International Conference on Machine Learning. PMLR, 2021: 2286-2296.
- Srinivas A, Lin T Y, Parmar N, et al. Bottleneck transformers for visual recognition[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021: 16519-16529.
- Graham B, El-Nouby A, Touvron H, et al. Levit: a vision transformer in convnet's clothing for faster inference[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2021: 12259-12269.
- Wu H, Xiao B, Codella N, et al. Cvt: Introducing convolutions to vision transformers[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021: 22-31.
- Yuan K, Guo S, Liu Z, et al. Incorporating convolution designs into visual transformers[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021: 579-588.
- Jeevan P. Convolutional xformers for vision[J]. arXiv preprint arXiv:2201.10271, 2022.
- Pan J, Bulat A, Tan F, et al. Edgevits: Competing light-weight cnns on mobile devices with vision transformers[C]//Computer Vision–ECCV 2022: 17th European Conference, Tel Aviv, Israel, October 23–27, 2022, Proceedings, Part XI. Cham: Springer Nature Switzerland, 2022: 294-311.
- Guo J, Han K, Wu H, et al. Cmt: Convolutional neural networks meet vision transformers[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 12175-12185.
- Zhang H, Hu W, Wang X. Parc-net: Position aware circular convolution with merits from convnets and transformer[C]//Computer Vision–ECCV 2022: 17th European Conference, Tel Aviv, Israel, October 23–27, 2022, Proceedings, Part XXVI. Cham: Springer Nature Switzerland, 2022: 613-630.
- Yu W, Luo M, Zhou P, et al. Metaformer is actually what you need for vision[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022: 10819-10829.
- Li J, Xia X, Li W, et al. Next-ViT: Next Generation Vision Transformer for Efficient Deployment in Realistic Industrial Scenarios[J]. arXiv preprint arXiv:2207.05501.
- Maaz M, Shaker A, Cholakkal H, et al. Edgenext: efficiently amalgamated cnn-transformer architecture for mobile vision applications[C]//Computer Vision–ECCV 2022 Workshops: Tel Aviv, Israel, October 23–27, 2022, Proceedings, Part VII. Cham: Springer Nature Switzerland, 2023: 3-20.
- Pan X, Ge C, Lu R, et al. On the integration of self-attention and convolution[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022: 815-825.
- Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]//Proceedings of the IEEE international conference on computer vision. 2017: 2980-2988.