基于级联式逆残差网络的遥感图像轻量目标检测算法

源自:电子学报

作者:陈立  张帆  郭威  黄赟  李继中

“人工智能技术与咨询”   发布

摘 要

遥感场景下的高实时目标检测任务具有重要的研究价值与应用意义. 针对当前遥感图像目标检测模型由于目标多角度、排列密集以及背景复杂从而导致检测速度慢的问题, 提出一种级联式逆残差卷积结构(Cascaded Inverted Residual Convolution, CIRC). 该结构采用深度可分离卷积作为基本卷积单元, 快速提升模型计算能力;在此基础上, 通过转置通道矩阵与级联深度卷积, 并增加残差连接层数, 达到强化目标多维特征的目的;进一步,进行多级模块堆叠, 提高模型对目标的检测效果. 本文在RetinaNet基础上, 利用CIRC设计了一个快速的轻量化目标检测网络—CIRCN(Cascaded Inverted Residual Convolution Net). 同时, 在训练阶段引入角度变量并参与反向传播, 在推理阶段对水平框加入角度偏置, 有效提高定向目标与检测框匹配度. 在DOTA数据集上的实验结果表明, CIRCN在精度略受损失的情况下, 检测速度达到42 fps, 比基准算法提高了3.5倍. 结果验证了所提算法的有效性与可靠性.

关键词

遥感图像 / 目标检测 / 模型轻量化 / 深度可分离卷积 / 级联式逆残差卷积 / 通道混排

1 引言

目标检测(Object Detection)是计算机视觉和图像处理领域最具挑战性的分支之一,旨在提取目标特征并得到感兴趣区域,完成对象的检测与识别.近年来,随着遥感技术的快速发展,针对遥感图像的目标检测方法由于能够按照特定需求对海量数据进行自动化分析,因此被大量应用于城镇建设、交通规划、地表勘测等重要方面,具有重大的民生意义.

传统的目标检测方法,一般按照人工选择检测窗口、获取图像特征、设计分类器的步骤进行检测,这种方式会产生大量无关特征,增加算法复杂度的同时影响模型鲁棒性[1].随着深度学习在人工智能领域的全面铺开,基于卷积神经网络[2](Convolutional Neural Networks, CNN)的目标检测方法利用高效卷积运算的方式显著降低模型参数量,在水下生物检测[3]、车道线检测[4]、人脸识别[5]等诸多视觉场景中均取得良好结果.目前按照检测阶段的划分,将基于CNN的目标检测方法分为双阶段检测器和单阶段检测器[6].双阶段检测器使用区域候选网络(Region Proposal Network, RPN)生成候选兴趣区域,相比于单阶段检测器更具有精度优势;单阶段检测器则在一个阶段内完成目标的分类与回归操作,因此在检测速度方面更胜于双阶段检测器,代表算法有YOLO(You Only Look Once)[7]系列与SSD(Single Shot MultiBox Detector)[8]系列等.

尽管CNN配合GPU(Graphics Processing Unit)等计算设备已经大幅提高目标检测模型的检测速度,但是在遥感图像领域,卷积神经网络的计算量与存储量依然是制约其工业落地的一大瓶颈. 在图1所示的两种场景下,与自然场景下的水平拍摄角度不同,遥感图像以俯瞰视角成像,所包含的地表物体属于特定目标,具有角度任意性、空间密集性、尺度多变性以及背景复杂性等特点,为解决这些难点,研究者们对此付出了巨大努力. 对于小目标的检测改进,现有的遥感图像检测方法往往会引入特征金字塔网络[9](Feature Pyramid Network, FPN)并在其基础上进一步改良,用以更好的融合多维度特征,较为出名的有PANet[10]、AugFPN[11]以及BiFPN[12]等.然而,FPN及其变体引入大量计算参数,导致模型结构冗余;为适应目标的多角度特性, Ma等[13]提出的RRPN首次采取角度枚举法,利用密集锚框贴合目标的旋转角度,类似的方法还有EAST(Efficient and Accuracy Scene Text) [14]以及R2CNN(Rotational Region CNN)[15]等等,但是枚举过程需要大量的卷积计算支撑,频繁的数据输入输出增加多余计算量;在暴力枚举的思想基础上,Yang等[16]提出R3Det算法,利用特征精修模块(Feature Refined Module,FRM)同时提高检测速度与精度;Ding等[17]则是使用快速的旋转池化方式(PS RoI Pooling),在不需要增加锚框数的情况下,通过削减特征通道数来提高双阶段检测器的检测效率.上述方法从训练方式、特征融合、锚框设计等不同角度对遥感图像检测方式进行探索,在一定程度上改善了遥感图像的多类难题,但是由于网络仍然采用大量的普通卷积计算,在不考虑计算载体性能的情况下,当图像大小以及像素密度增加时,其时间复杂度将迅速提高,使得检测模型的推理时间很难满足实际应用场景下实时性的要求.因此,如何在保证检测精度的情况下,实现一种快速的遥感图像目标检测方法是值得研究的一个方向.

图片

图1 两种拍摄场景下的目标对比

(a) 水平拍摄角度 (b) 俯瞰拍摄角度    

鉴于遥感场景下目标检测模型效率不高的问题,为减少模型计算量,降低算法实际运行时间,结合模型轻量化思想,提出一种小体积计算、低延时功耗的级联式逆残差(Cascaded Inverted Residual Convolution, CIRC)轻量卷积方式,并利用CIRC的叠加性构建新的特征提取网络,同时对h-swish函数进行改进来优化基础网络的性能.本文在RetinaNet[18]的结构基础上引入旋转角度变量并结合CIRC,设计了基于级联式逆残差结构的目标检测网络(Cascaded Inverted Residual Convolution Net, CIRCN),实现对遥感图像目标的快速精准检测.

2 模型轻量化

相较于传统神经网络,卷积神经网络利用稀疏连接和权值共享有效减少模型训练参数[19],在图像处理方面拥有独特的优越性.可是,普通卷积难以满足特定场景及移动端设备对模型低延时的要求,这促使卷积神经网络模型结构开始朝轻量化方向发展.模型轻量化的方式主要包括结构轻量化、模型压缩、知识蒸馏、量化剪枝等方面.其中,结构轻量化直接从模型设计层面出发,设计轻便式网络结构来有效减少计算量,并降低模型实际运行时间.2017年,Landola等[20]提出SqueezeNet,该网络使用 卷积代替部分 卷积,并通过减少输入通道数以及后置降采样来减少参数;同年,谷歌提出MobileNet[21],引入深度可分离卷积[22]构建网络,大大减少模型大小和计算量;为解决MobileNet使用ReLU(Rectified Linear Unit) [23]函数破坏低维度特征信息的问题,MobileNetV2[24]在其基础上提出倒残差块(Inverted Residuals Block),该残差块结构只在输入与输出矩阵形状相同时使用,对输入通道先升维后降维,并使用Linear函数替换最后一层的激活函数ReLU6,从而避免非线性函数破坏太多信息;MobileNetV3[25]则使用自动网络架构搜索技术[26](Neural Architecture Search, NAS)来寻找最佳的神经网络结构,但这种方式在搜索阶段需要耗费巨大计算量,对设备要求较高;除了MobileNet系列外,旷视提出的ShuffleNet[27]系列网络提出分组点卷积(pointwise group convolutions)和通道混排(channel shuffle)方法,增加通道间信息交互的同时有效降低计算量.此外,Wang等[28]提出的PeleeNet网络以及Han等[29]提出的GhostNet都在上述轻量化代表模型的思想上进行改进,并取得较好的效果.

3 RetinaNet算法

2018年,Lin等[18]提出一种新的损失函数Focal Loss,用以解决单阶段检测器速度快但是精度落后于双阶段检测器的问题.Lin等人认为,造成精度落后问题的核心原因在于图像中前背景(foreground-background)样本的极端不均衡导致的.为了解决这一问题,Lin等这样定义Focal Loss:

图片

(1)

图片

(2)

其中, r为常数, p表示类别 y为1时所得到的预测概率.

可以发现,当 r=0时,Focal Loss即为普通的交叉熵函数,若 r>0,pt 的增加会导致系数 (1-pt)r 的降低,这就有效降低了简单样本的影响,使得模型更注重于困难样本的训练.为了验证Focal Loss的效果,Lin等设计了Retinanet算法,RetinaNet网络结构可分为残差网络[30](Residual Network, ResNet)、特征金字塔网络(Feature Pyramid Network, FPN)、分类子网络和回归子网络四个部分.首先,图像作为ResNet的输入,有效提取相应特征;其次,将相应特征通过FPN进行多尺度提取并强化利用,从而获得包含多层上下文语义信息的特征图(Feature Map);最后,将特征图送入分类子网络(Class Subnets)和回归子网络(Box Subnets)进行对象的分类与边框回归.

RetinaNet算法在单阶段检测算法中取得了较好的效果.原文实验结果表明,当骨干网络(backbone)选取为Resnet-101,图片输入的分辨率为800*800时,RetinaNet的平均精准率(Average Percision, AP)超越双阶段检测器中的Faster R-CNN算法,使得单阶段检测器在耗时更低的情况下,也能具备比双阶段检测器更优的性能.

4 CIRCN网络

4.1   网络整体结构

图2展示了CIRCN的网络整体结构,网络共分为3个部分:基础网络(CIRC网络)、特征金字塔网络以及分类与回归子网络.CIRC网络主要由 卷积核(图例蓝箭头所示)、 卷积核(图例绿箭头)以及CIRC模块(图例红箭头所示,具体操作详见4.2节)按照不同步长及重复次数顺序堆叠,用以扩张特征图通道,提取图像初始特征;特征金字塔网络将基础网络生成的特征提取层 C3(100×100)、 C4(50×50)和 C5(25×25) 作为输入,同时以 C5为基本特征层,首先进行上采样操作(图例黄箭头所示),两者进行加法操作(图例蓝方块所示)得到 P3(100×100)、 P4(50×50)与 P5(25×25) 三个尺度的特征图;之后进行卷积操作(图例紫箭头所示),得到尺寸更小的 P6(13×13)和 P7(25×25)两个特征图.分类与回归子网络分别由五个 3×3大小的卷积层顺序组成,其中,除最后一层外,其余四层均添加Relu函数.分类网络产生不同类别的可能得分,并通过Sigmoid函数形成概率分布;回归子网络则是在原有四元组坐标偏置基础上增加方向信息,产生偏置五元组 

图片

,利用五参数表示法生成旋转检测框并对其可视化.

图片

图2 CIRCN的网络整体结构

4.2   卷积轻量化

 4.2.1     深度可分离卷积单元

为有效减少计算参数,本文使用深度可分离卷积替代标准卷积对CIRC网络进行相关设计.基于通道域与空间域相互独立的假设,深度可分离卷积将标准卷积拆分为深度卷积(Depthwise Convolution)与点卷积(Pointwise Convolution)两个部分.图3和图4描述了普通卷积与深度可分离卷积的执行过程,假设输入特征图 F的尺寸为 HF×WF×CM,经过尺寸为 HK×WK×Cm×Cn的标准卷积核 K后得到尺寸为 HF×WF×Cn的输出特征 F',所需要的计算量为:

图片

(3)

其中,HK×WK与 HF×WF 分别是卷积核 K 和输入特征 F的大小, C1与 C2是输入特征和输出特征的通道数.

图片

图3 标准卷积执行过程

图片

图4 深度可分离卷积执行过程

在输入与输出特征尺寸相同的情况下,若使用深度可分离卷积进行操作,深度卷积首先对每个输入通道应用单个卷积核,此时所需要的计算量为:

图片

(4)

此时,再使用大小为 1×1的卷积核(点卷积)对深度卷积输出结果进行线性组合,此时需要的计算量为:

图片

(5)

因此,通过拆分卷积为深度方向和点方向两个步骤的方式,深度可分离卷积相较于标准卷积的计算量减少率为:

图片

(6)

式6中可以看出,深度可分离卷积大大减少了原有标准卷积的计算量,例如MobileNet使用 3×3的卷积核时,在精度损失很小的情况下降低了近9倍的计算时间.因此,本文使用深度可分离卷积作为基础卷积单元是有效的.

4.2.2    级联式逆残差结构

深度可分离卷积可以有效降低模型FLOPs(Floating Point of Operations),但是它却忽略了必要的逐元素操作(element-wise operation)所带来的内存访问成本(Memory Access Cost, MAC)提高,包括激活函数、张量加法等等.(除此之外,频繁的IO读写、GPU并行策略以及卷积核的加载等因素均会影响模型的检测速度.)因此,综合考虑上述因素及遥感图像的相关特性,本文提出包含通道混排的级联式逆残差模块,如图5所示.

图片

图5 两种步长的CIRC结构

(a)步长为1 (b)步长为2   

4.2.2.1    通道拆分与混排

根据输入输出通道数相同可以最大化降低内存访问成本[29]的原则,如图5(a)所示,在模块初始阶段(步长为1)进行通道拆分操作. 假设输入特征 F通道数为 L,在通道拆分层将其均分为 L1=L2=L/2, L1进入后续卷积层得到高维特征

图片

, L2利用跳跃连接直接与

图片

作拼接,使得输出特征通道数等同于输入特征.在图5(b)情况下,由于卷积步长为2,此时通道数需要扩充至原有数目的2倍,因此并不需要进行通道拆分.此外,由于遥感图像目标的特征通道繁杂,在骨干网络生成的 C3、 C4和 C5层,通道数分别达到了512、1 024和2 048,若在通道拼接后不作任何处理,会导致通道信息沟通阻塞,弱化重要的目标特性,包括边缘轮廓以及内部纹理等等.因此,为增强多通道间联系,在拼接操作之后使用ShuffleNet的通道混排(channel shuffle)操作:

图片

(7)

(8)

其中, Cm表示特征图 F的通道数, (g⋅n)表示对 Cm分成 g组,每组包含 n个通道;之后对四维矩阵 HF×WF×g×n进行 g和 n维度上的转置, 最后对矩阵重新进行维度融合,得到混排后的特征图矩阵HF×WF×Ct,通道混排的流程如图6所示.

图片

图6 通道混排流程

4.2.2.2 逆残差卷积级联

正向残差块利用逐点卷积对特征图通道先降维再升维的做法,在自然图像的检测模型中已被证明有助于提高精度[28].然而,卷积层提取的特征取决于原始特征维度,由于遥感图像的目标尺度差距大,排列密集程度高,因此需要更丰富的特征.若利用正向残差先对特征图进行压缩,卷积层所提取的特征会更加有限,从而导致检测精度的降低.因此,本文对残差模块进行改进,结合SandGlass模块思想[31],设计图5(a)、(b)虚线框内所示的级联式逆残差结构,该结构分为顺序分支和跳跃分支,分别可作如下数学表达:

图片

(9)

图片

(10)

图片

(11)

其中, F表示输入特征图,

图片

函数表示第 i 次点卷积和深度卷积, 

图片

表示顺序分支和跳跃分支的计算值.顺序分支由一个深度卷积级联一个逆残差模块组成,首先,深度卷积属于轻量化卷积方式,几乎不会对计算成本造成影响,同时可以弥补 1×1卷积无法编码空间特征信息的局限性,保证目标空间信息的完整性;其次,逆残差模块中的两个逐点卷积对特征图维度先升维再降维,这一过程可以看作是残差的“逆过程”,目的是为了增加深度卷积所处理的通道数,从而丰富特征数量,进一步提高检测精度.跳跃分支(步长为2)由两个深度卷积和一个逐点卷积组成,末尾的深度卷积用于特征图的缩放.本文相比ShuffleNet增加了跳跃分支的连接宽度,这有助于顶层高维特征保留更多的底层信息,从而有效缓解遥感图像中小目标特征的丢失问题,降低检测误差率.

4.2.2.3  激活函数改进

在低维空间尽可能保留感兴趣特征是十分必要的.常用的激活函数Relu因其以0为界的分段特性,使得对低维空间的特征流形破坏较大[25].因此,在最后一层逐点卷积之后,使用线性激活函数替代原有的Relu函数.同时,Relu函数的输出上限为无穷大,这会导致在低精度的情况下出现数值溢出,从而造成精度损失.因此,考虑到激活函数的缺陷以及计算成本,本文将h-swish函数设置为深度卷积之后新的激活函数,并对其进行简单改进,将h-swish函数的上限值设置为6.改进后的h-swish函数公式如下:

图片

(12)

4.2.3    整体流程

基于本文所设计的CIRC模块,将轻量级骨干网络的整体架构按表1所示方案设计如下.网络主要由级联式逆残差模块按照不同步长堆叠而成,前两层采用标准卷积,主要目的是对输入图像进行初始降采样与通道线性变换.阶段2至阶段5采用CIRC模块,根据已有研究[24],逆残差的卷积通道扩张倍数设置为5~10区间内时,会产生几乎相同的性能,因此,本文将通道扩张倍数设置为6.每个模块均按照步长先2后1 的顺序进行卷积操作,考虑到计算量,将步长为2的卷积操作重复次数设置为1,步长为1的卷积操作次数在阶段2和阶段3设置为7,阶段4和阶段5设置为3.

图片

表1 基于CIRC的基础网络整体流程

    

5 实验评估

为了更好的探究基于CIRC的轻量化模型CIRCN对遥感图像目标的检测性能,在DOTA[32]数据集上设计精度与速度的对比实验.实验运行环境见表2.

图片

表2 实验运行环境

5.1    数据集介绍

DOTA(Dataset for Object Detection in Aerial Images)是遥感图像领域的大规模公开基准数据集,用以评估计算机视觉任务的模型性能.本文使用的DOTA-v1.0版本包含来自多个传感器平台的约2 800张图像,图像大小从800×800像素到4 000×4 000像素不等,并按照1:2:3的数量比例分为验证集、测试集和训练集,数据集共标记15种常见类别的188 282个检测对象,包括直升机(Helicopter, HC)、游泳池(Swimming Pool, SP)、港口(Harbor, HA)、环岛(Roundabout, RA)、足球场(Soccer Ball Field, SBF)、储罐(Storage Tank, ST)、篮球场(Basketball Court, BC)、网球场(Tennis Court, TC)、船舶(Ship, SH)、大型车辆(Large Vehicle, LV)、小型车辆(Small Vehicle, SV)、田径场(Ground Track Field, GTF)、桥梁(Bridge, BR)、棒球场(Baseball Diamond, BD)和飞机(Plane, PL).

5.2    评估标准

评估标准按照性能指标分为精度评估标准与速度评估标准两大类.精度评估根据平均精度均值(mean Average Precision, mAP)进行评判,平均精度均值是 平均检测精度(Average Percision, AP)在多类别条件下的平均值,该指标融合召回率(Recall)与精准率(Percision),是目前目标检测模型最重要的精度评估指标;速度评估标准包括局部指标与整体指标,局部指标包括模型参数量、图像预处理时间、内存读取时间、实际运行时间,整体速度指标使用每秒检测帧数展开评估.其中,模型参数量表征模型容量与计算量,包括图节点的权重偏置以及卷积层参数;图像预处理时间指的是测试集原始图像被裁切为800×800 pixel规格子图的过程用时;内存读取时间包括模型加载和逐元素操作等消耗用时,实际运行时间指的是模型利用GPU在网络图结构上的实际推理时间,反映检测网络的实际效能;每秒检测帧数通过计算每秒处理的图像数,进而判断模型的整体检测速度.

5.3    参数设置

合理的参数调整对神经网络模型的训练与推理是有利的.数据预处理阶段,由于单张遥感图像分辨率过大,将数据集图像沿正向横纵轴统一裁剪为800×800像素的子图作为模型输入,子图像重叠步长为150像素.锚框(Anchor)设计阶段,为适应遥感图像目标的尺度特点,在五层特征图( P 3、 P 4、 P 5、 P 6、 P 7)的每一个像素点预设15个锚框,锚框尺度像素设置为32、64、128、256和512,横纵比设置为 {1/5,1/3,1/2,1,2,3,5},缩放比为 {1,21/3,22/3}.实验使用4块GPU开展训练与推理,批处理大小(Batchsize)设置为8.模型进行810 003次训练迭代,初始学习率(Learning Rate, LR)设置为 8e-5,在23 k次迭代间均匀攀升至 5e-4并保持不变,在650 k次迭代降至 5e-5.

5.4   对比实验

 5.4.1    速度对比实验

为评估本文模型性能,在上述参数配置下,进行检测速度对比实验.实验采用DOTA训练集与验证集开展训练过程,推理图像则采用测试集.实验共分析三类不同基础网络配置的RetinaNet-R模型以及两类常用遥感目标检测方法与CIRCN在DOTA上的速度性能差异.其中,RetinaNet-R表示加入角度信息后的RetinaNet算法,三类基础网络分别为ResNet50、MobileNetV2以及DarkNet53[33],两种遥感图像目标检测算法为R2CNN算法[15]和RRPN算法[13],模型共进行900k次训练迭代,测试集图片共划分为15 655张800×800像素的子图.记录检测模型的骨干网络参数量(Backbone Network Parameters, BNP)、网络参数量(Network Parameters, NP)、图像预处理时间(Preprocess Time, PT)、内存读取时间(Memory Access Cost, MAC)、实际运行时间(Running Time, RT)以及每秒检测帧数如表3所示.

表3 不同模型的速度性能比较

实验结果可由两方面展开分析:(1)整体上,相较于两种常见的遥感图像目标检测算法,本文算法的参数量只有97 MiB,整体缩减了约4倍体积,这极大提高模型的存储性能,使得工业设备便于开展进一步的多模型部署优化;同时,CIRCN在测试集上的内存读取和实际运行时间达到约47.46 s和294.12 s,耗时只有RRPN算法的7%和12%,检测速度达到42 fps,是RRPN算法速度的8倍,R2CNN算法速度的40倍,这表明本文算法在遥感图像领域具有明显的效率优势.(2)局部上,相较于不同基础网络配置的RetinaNet-R算法,CIRC参数量只有ResNet50与DarkNet53的11%与5%,但略高于MobileNetV2;算法的内存读取时间和实际运行时间相比基础网络为ResNet50的基准算法,减少了约近80%耗时,每秒检测帧数达到基准算法的3.5倍,这证明了CIRC模块在存储与运算上的高效性.

5.4.2    精度对比实验

为全面可靠的对模型性能进行评估,继续采用上述算法开展精度对比实验.其中,R2CNN算法和RRPN算法均以Faster-RCNN作为基础网络,在相同实验环境基础上重新训练至收敛,符合控制变量要求.所有算法模型均在DOTA测试集上推理,结果交由DOTA官方服务器获得不同类别的平均检测精度AP与mAP,如表4所示.图8展示了CIRCN在DOTA上的类别可视化检测结果.

图片

表4 不同算法在DOTA数据集上的检测精度(mAP) (%)

速度和精度对比实验的综合结果表明:(1)相比R2CNN算法与RRPN算法,本文算法在速度提升40倍与8倍的情况下,mAP下降了约2%和1%.这证明本文算法在精度损失很小的情况下,极大提升了遥感图像目标的检测速度;(2)相较于不 同基础网络配置的RetinaNet-R算法,基础网络为MobileNetV2的检测速度虽然略高于CIRC,但是两者的检测精度相比基准ResNet分别下降10.73%与3.2%,前者的精度降幅远高于后者,难以达到实际应用的要求, CIRC的精度损失对于高实时场景下的遥感图像目标检测可视化是可以接受的,这也反映出CIRC模块的轻量化结构设计更适用于遥感图像的目标特点.

由此可知,本文算法与其他算法在遥感图像不同指标的比较上均取得较优结果,生成模型在高实时检测状态下保证了检测精度,具备良好的可靠性.

图片

图7 DOTA部分类别检测结果

5.5   消融实验

为进一步判别CIRC内部模块对遥感图像目标检测的性能影响,本文消融实验按如下步骤进行:设置基准模型、分离网络模块、进行模型训练和测试图像推理.实验以普通逆残差结构为基准模块,激活函数采用Relu函数,之后在基准模块上依次加入通道混排、级联逆残差以及改进后的h-swish函数.为保证实验结果的可对比性,模型的训练与测试参数均保持严格一致.表5给出不同子配置网络消融后的精度变化.

图片

表5 CIRC模块消融实验

实验结果显示,通道混排操作通过融合遥感图像的多通道特征来增强目标的多维信息,达到初步强化的效果,提高模型2.13%的mAP值;级联逆残差模块通过更宽的跳跃连接融合高维度与低纬度的特征,对检测精度的提升作用最为显著,提高模型4.45%的mAP值;由于实验数据采用较高的float32精度,因此激活函数的作用并不显著,提高0.85%的mAP值.因此,三种模块均促进了模型检测精度的提升,这证明了CIRC结构设计的有效性.

6 结束语

本文提出了一个基于级联式逆残差网络的遥感图像轻量目标检测算法,在基础网络中使用深度可分离卷积快速提升模型计算能力,并提出级联式逆残差卷积结构,通过强化目标多维特征,提高模型对目标的检测效果.在DOTA数据集上的实验结果表明,在精度略受损失的情况下,本文算法相比基准算法大幅提升了对遥感图像目标的检测速度,相比常用的遥感图像目标检测算法同样具备较大的速度优势.由于级联式逆残差卷积结构属于轻量级卷积,在后续研究中将继续优化该模块的设计架构,例如进行更深层次的堆叠,或者引入注意力机制,从而弥补模型在精度损失上的不足;同时尝试移植到其它检测网络,并采用结构重参数化的训练方法,提升算法的普适性与鲁棒性.

声明:公众号转载的文章及图片出于非商业性的教育和科研目的供大家参考和探讨,并不意味着支持其观点或证实其内容的真实性。版权归原作者所有,如转载稿涉及版权等问题,请立即联系我们删除。

“人工智能技术与咨询”  发布

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值