APP下载

基于Ghost卷积与注意力机制的SAR图像建筑物检测算法

2022-08-02严继伟苏娟李义红

兵工学报 2022年7期
关键词:卷积建筑物图像

严继伟, 苏娟, 李义红

(火箭军工程大学 核工程学院, 陕西 西安 710025)

0 引言

合成孔径雷达(SAR)作为一种主动式微波传感技术,具有不受光照和天气条件影响、穿透能力强、能实现全天时全天候探测等特点。随着SAR成像技术的发展,SAR图像在军用与民用领域取得了广泛的应用。通过对SAR图像建筑物目标检测,可以快速获取建筑区域信息,在城市建设规划、军事侦察、灾情评估、目标打击等方面具有重要的研究意义。

随着合成孔径雷达图像数据的激增和计算机视觉领域的快速发展,深度卷积神经网络被引入来解决SAR图像中的目标检测问题。目前,常用的基于卷积神经网络的目标检测方法主要分为两阶段检测算法与单阶段检测算法。其中,两阶段检测算法主要有候选区域提取和候选区域定位分类两个步骤,因此检测速度较慢。最具代表性的两阶段检测算法为R-CNN系列等。而单阶段检测算法直接在图像中选取目标锚框并预测位置与类别,是一种兼具精度与速度的目标检测方法。YOLO系列、SSD、Centernet等都是著名的单阶段检测算法。

深度卷积神经网络在SAR建筑物检测方面也有广泛的应用。文献[11]提出借助先验信息(2D建筑物图像或可见光图像)对SAR建筑物图像展开分析,使用合成孔径雷达层析成像技术区分出建筑物区域和非建筑物区域,并以此制作数据集,经过模型训练后实现了对SAR图像中柏林城区的建筑物检测。文献[13]提出一个多尺度的卷积神经网络模型,直接从SAR图像斑块中提取多尺度特征来检测建筑物,并在北京地区的高分辨率SAR图像上进行实验验证。文献[14]分析了SAR图像中临近像素之间的相关性,将结构化预测引入网络之中,采用多级特征对像素进行分类,以此实现了SAR图像中的建筑物检测。

SAR图像中的建筑物目标常以任意方向密集排列,使用传统的水平矩形框进行检测容易对相邻目标产生影响,因此本文提出使用旋转矩形框检测SAR图像中的建筑物目标。基于旋转矩形框的目标检测算法具有如下优势:1)检测时可以充分考虑建筑物的方向性问题,检测结果表征出目标的方向信息;2)密集排列时分离出单个建筑物,减少漏检现象的发生;3)滤除单个建筑物周围存在的背景信息,避免对检测效果造成影响。因此基于旋转框的目标检测算法在SAR图像建筑物检测中具有重要研究前景。现阶段的基于旋转矩形框的检测算法也有两种,其中,DRbox-v2、SCRDet等都是典型的两阶段检测器,R-centernet、R3Det、EAST、FOST等均为单阶段检测器。

经典的深度卷积神经网络模型往往伴随着大量的参数与计算量,在训练过程中占用了计算机的内存,检测时降低效率。因此,轻量的卷积神经网络具有广阔的应用前景,能够胜任实时性要求高的目标检测任务。轻量化的目标检测算法有MobileNet系列、GhostNet、ShuffleNet等。

本文在基于旋转矩形框的单阶段目标检测算法R-centernet的基础上,提出了一种更加轻量化的改进算法,用于SAR图像中的建筑物检测。首先用Ghost卷积替换原始网络中的传统卷积,搭建Ghost-ResNet网络模型,降低参数量;其次提出融合宽高信息的通道注意力模块,提高检测精度,同时保证较低的参数量;然后改进上采样方法,进一步减小网络的计算量;最后使用改进算法对数据集进行训练与测试,验证改进算法在SAR图像建筑物检测应用中的性能。

1 SAR图像建筑物检测算法

1.1 R-centernet算法基本原理

目前常见的目标检测算法多使用水平矩形框从图像中穷举出目标锚框,而后进行分类与定位,检测效率较低,检测速度较慢。Centernet则提出一种基于关键点估计的目标检测方法,在检测过程中寻找关键点来估计目标的中心点位置,而后回归其他属性(大小、空间位置、方向、姿态等)。

R-centernet作为Centernet的改进版本,是一种旋转目标检测算法,在水平框的基础上引入一个角度参数进行训练和预测,最终回归了目标的四个特征:热力图特征、中心点、尺寸和角度,并以此确定目标在图像中的精确位置和方向。其算法结构如图1所示。

图1 R-centernet算法结构Fig.1 Structure of the R-centernet algorithm

如图1所示,图像输入进R-centernet后首先经过主干网络ResNet50(Residual Networks 50)进行特征提取,而后输入反卷积(DCN)模块,该模块的主要作用是上采样。最终得到四个预测结果:热力图、中心点坐标、宽高和角度。因此,损失函数由三部分组成:热力特征损失、位置损失(中心点偏移损失、宽高预测损失)、旋转角度损失。计算公式如下:

=+++

(1)

式中:表示总损失值;表示热力特征损失;为预测框中心点偏移误差;为预测框宽高的误差;为预测框的旋转角度误差;、、为对应权重。

图2 改进R-centernet算法结构Fig.2 Structure of the improved R-centernet algorithm

1.2 改进的R-centernet算法

在SAR图像建筑物检测过程中,原始R-centernet算法需要大量参数和浮点运算来获得检测精度的收益,随之带来的是检测速度的下降。本文改进了R-centernet算法,在保证检测精度的基础上,降低网络参数的数量,使SAR图像中建筑物的检测既高效又有效。

改进R-centernet算法的网络结构如图2所示。图中使用红色虚线框标出的部分为改进部分,主要包括:1)使用Ghost卷积替换传统卷积,将主干网络由ResNet50改进为Ghost-ResNet;2)在Ghost-ResNet中添加融合宽高信息的通道注意力机制,如图2中WH-ECA部分所示;3)改进了原始算法中的DCN模块,使用更加适用于轻量化网络的上采样方法。

1.2.1 Ghost卷积在残差网络中的应用

由于计算性能和存储空间的限制以及对检测速度的要求,目标检测网络在保证高精度的基础上需尽量做到轻量化。本文以单阶段检测算法R-centernet为基础,以ResNet50为主干网络,采用Ghost卷积(Ghost Convolution)代替网络中的传统卷积方法,在达到近似效果的同时,减少了网络的参数量。

传统卷积过程与Ghost卷积过程如图3所示。图3中:、、分别为输入特征图尺寸的通道数、商和宽,′、′、′分别为输出特征图尺寸的通道数、高和宽,采用的卷积核尺寸为×。Ghost卷积主要分为三个部分:1)输入特征图经过传统卷积生成本征特征图,该特征图的通道数小于输出特征图的通道数;2)将得到的本征特征图进行Depthwise卷积运算得到Ghost特征图,其中Depthwise卷积在每个通道上运行,卷积核的数量与上一层的通道数相同,计算量远小于传统卷积;3)将本征特征图与Ghost特征图拼接得到最终输出结果。

图3 传统卷积结构和ghost卷积结构Fig.3 Structures of traditional convolution and ghost convolution

Ghost卷积并未完全舍弃传统卷积部分,而是先采用传统卷积生成少量通道数的特征图,再生成Ghost特征图。该方法在降低计算量的同时,保证了对特征的识别性能,是一种高效且有效的卷积方式。

当输入特征图的尺寸为××,采用的卷积核尺寸为×,输出特征图尺寸为′×′×′时,传统卷积与Ghost卷积过程中所需的参数量分别为(2)式和(3)式所示。

=×′××

(2)

=×××+×××

(3)

式中:为本征特征图的通道数;为线性运算的内核个数,×为线性内核的尺寸大小,且×≪×。

因此传统卷积与Ghost卷积的参数量之比为

(4)

通过理论分析发现,传统卷积与Ghost卷积得到的参数量之比为′,且随着本征特征图通道数的减少,Ghost卷积的参数量相较于传统卷积更少。当跳过传统卷积的步骤,直接采用线性运算生成Ghost特征图时,参数量达到最小。

本文以ResNet50为主干网络,使用Ghost卷积替换传统卷积,构成了Ghost-ResNet网络结构。ResNet50和Ghost-ResNet的组成结构如图4所示。

图4 ResNet50和Ghost-ResNet的组成模块Fig.4 Modules of ResNet50 and Ghost-ResNet

从图4中可以看出,两个模块的结构相似,Ghost-ResNet将Ghost卷积与深度卷积(DW Conv)有效结合,在两个Ghost卷积之间添加深度卷积,将特征图的尺寸大小降为输入特征的1/2,并以此达到ResNet50组成结构中降采样的效果。

1.2.2 注意力机制

由于二面角反射效应存在,SAR图像中建筑物的呈现形式主要为L型或直线型亮线,与周围背景有着明显的区别。因此,本文在R-centernet中添加注意力机制,增强网络对图像中显著特征较强的建筑物区域的特征提取能力。

最具代表性的通道注意力模块仍然是挤压和激励网络(SENet),高效通道注意力机制(ECANet)作为SENet的改进算法,在保持网络显著特征提取能力的同时,有效降低计算量,使之更加适合轻量化网络。SENet及ECANet的模型结构如图5所示。图5中,为Sigmoid映射,为降维比例。

图5 SENet和ECANet的结构图Fig.5 Structures of SENet and ECANet

SENet首先对输入图像进行通道上的全局平均池化(GAP),然后使用降维结构的全连接层以及非线性Sigmoid函数生成通道权重。ECANet区别于SENet,采用不降维的近邻操作代替全连接层来捕获不同通道之间的关系,重新生成通道权重。然而,两者均仅考虑了通道之间的关系,重视生成通道权重而忽视了显著目标位置信息的重要性。

本文在ECANet的基础上进行改进,借鉴Coordinate Attention(CA)的思想,提出一种融合宽高信息的通道注意力机制(WH-ECA),其模型结构如图6所示。

图6 WH-ECA模型结构Fig.6 Model structure of WH-ECA

如图6所示,对于尺寸为××的输入图像,(,)为输入像素值,首先使用尺寸为(,1)和(1,)的池化核分别沿着图像的宽、高方向对每个通道进行平均池化操作,此时输出结果、分别为(5)式和(6)式所示:

(5)

(6)

当输入为××时,全局池化操作的计算量为

=××

(7)

而沿着宽高方向分别进行池化操作的计算量为

=××1+×1×

(8)

由(7)式、(8)式可知,两种方法的计算量之比为(×)(+),因此本文采用的分方向池化的方法不仅可以实现从宽高分别对通道编码,从而确定显著区域的位置信息,而且占用了更少的参数量。

将上述产生的两个特征图进行张量拼接,而后使用ECANet中的近邻操作捕获通道关系,对各通道重新编码,公式如下:

=[,]

(9)

式中:表示该部分的输出结果;表示近邻操作。

然后沿着空间维度将上述结果分解为单独张量和,通过Sigmoid函数分别生成每个通道在宽高方向上的权重,如(10)式、(11)式所示:

=()

(10)

=()

(11)

此时WH-ECA的最终输出结果如(12)式所示:

(,)=(,)×()×()

(12)

式中:(,)为输出的像素值;(,)为输入的像素值;和分别为每个通道在宽高方向上的权重。

本文提取了图像经过两层网络得出的特征图进行对比分析,如图7所示。其中图7(a)为输入的原始SAR图像数据,经过原始R-centernet网络提取后的L2层热力图输出结果如图7(b)所示,在原始网络中添加ECANet注意力模块后得到的热力特征如图7(c)所示,图7(d)为融合WH-ECA注意力模块后的输出热力图。

图7 特征提取后的热力图Fig.7 Heat map after feature extraction

热力图中红色表示显著性较高的区域,经过对比分析发现,L2层热力图中目标与周围背景的差异不大,融合ECANet得到的热力图虽然呈现出目标的显著性特点,但是存在目标边界模糊,不利于精确定位目标位置等问题。而融合了WH-ECA注意力模块得到的热力图中背景信息得到抑制,突出了目标特征,而且图中目标的边界清晰,有利于定位中心点坐标和回归准确的宽高信息。

本文提出的WH-ECA将原始ECANet中的全局池化改进为分别在宽高方向上进行平均池化,主要具有以下3点优势:1)能够有效分析各通道之间的关系,本质上起到通道注意的作用;2)利用特征图的宽高信息准确定位显著区域;3)WH-ECA简单高效,保持较少的参数量,适用于轻量级网络。

1.2.3 上采样改进

R-centernet通过ResNet50对图像进行特征提取之后,将特征图像输入反卷积(DCN)模块实现上采样。反卷积是卷积的逆过程,其对网络中的参数进行学习后,在特征图中插入像素值达到上采样的目的。反卷积具有以下缺陷:1)对于特征图每个位置采用相同的上采样核,不能捕捉到特征图信息;2)引入大量参数、计算量增大。

为了有效解决上述问题,本文采用CARAFE (Contenet-Aware Reassembly of Features)上采样代替反卷积,其结构如图8所示。CARAFE上采样过程主要分为两个部分——核预测和特征重组。

图8 CARAFE上采样结构Fig.8 Up-sampling structure of CARAFE

CARAFE上采样的算法流程如下:

对尺寸为××的输入特征图进行通道压缩处理,得到尺寸为××的结果,该步骤降低了后续的计算量,为通道压缩后的通道数。

利用Softmax函数进行归一化处理,使得上采样核的权重之和为1。

将输入特征图与预测的上采样核进行卷积运算得到最终的上采样结果。

CARAFE上采样过程的参数量如(13)式所示:

(13)

2 实验结果与分析

2.1 实验平台与参数设置

本文使用的硬件平台包括计算机中央处理器(CPU):intel®CoreTMi7-6850KCPU@3.60 GHz×12和图形处理器(GPU):NVIDIA TITAN Xp GPU(12 GB显存);深度学习框架为Pytorch;编程语言为C语言和python语言;操作系统为Ubuntu 16.04 LTS。

预设训练参数:动量为0.9,初始学习率为0.001,权重衰减系数为0.000 5,批训练数设置为1,为避免训练过程中出现过拟合,设置迭代次数为150。本文各检测算法的IoU阈值设置为0.5,置信度阈值为0.45,NMS阈值设定为0.3。

2.2 数据集

本文以SBD(SAR Building Dataset)数据集为基础,采用旋转矩形框进行重新标注。经过筛选后,数据集中包含了416×416像素和512×512像素两种尺寸的图像共1 087张,其中建筑物数量为12 001个;数据来源主要包括TerraSAR、高分三号卫星、美国桑迪亚国家实验室等机载、星载平台的合成孔径雷达获取的图像;信号波段包括X波段、C波段和Ku波段;图像分辨率为0.5~5 m;极化方式包含HH、HV、VH、VV。将数据集按照8∶2的比例随机分配成训练集与测试集。

2.3 模型训练

本文以R-centernet为基础算法,使用Ghost卷积、WH-ECA注意力模块和CARAFE上采样进行改进,并分别进行训练与测试。本文记录了各算法在训练过程中的损失函数值(平均损失),并绘制了如图9所示的损失函数变化曲线。由图9可知,原始算法与三种改进算法随着迭代次数的增加,损失函数值均能收敛。其中同时融合了Ghost卷积、WH-ECA注意力模块和CARAFE上采样的算法下降最快且收敛后的损失值最小。

图9 损失函数曲线变化图Fig.9 Loss function curve

2.4 测试结果分析

为了量化各改进算法在SAR图像建筑物目标上的检测性能,本文在测试时使用准确率Precision、召回率Recall和F1分数进行定量分析,定义如下:

(14)

(15)

(16)

式中:为准确率;为召回率;表示F1分数,F1分数越高,证明准确率与召回率之间越平衡,检测效果越好;为真值框为正例且预测框为正例的目标数量;为真值框为反例且预测框为正例的目标数量;为真值框为反例且预测框为反例的目标数量。同时引入参数量、浮点数和检测速度来衡量网络模型大小。

各检测算法的实验结果对比如表1所示,从表中可以看出将主干网络替换成Ghost-ResNet时,参数量和浮点数降低,然而F1分数也随之下降,证明Ghost卷积虽然减小了网络负担,但是影响了算法对SAR建筑物的检测能力;WH-ECA作为轻量化的注意力模块,给F1分数带来了3.5%的提升,且带来的参数量和浮点数增加幅度很小;使用CARAFE上采样代替DCN模块,降低了参数量的同时,也提高了1.4%的F1分数。

表1 实验结果对比

如表1第四行所示,本文使用单阶旋转检测器R3Det对SAR图像建筑物数据集进行检测,以轻量化的MobileNetV2-FPN为主干网络,测试结果准确率为83.2%,召回率为79.9%,F1分数达到81.5,检测速度为28.5帧/s。由于R3Det在预测过程中添加了边界优化模块,因此检测器的网络参数量和浮点数虽然较少,但是检测速度反而更慢。

综上所述,本文所提出的轻量化的SAR建筑物检测算法达到了89.6%的准确率和81.8%的召回率,同时检测速度达到44.2帧/s。相比于原始的R-centernet和R3Det算法,准确率、召回率和检测速度均有明显提升。

表2为测试集中部分图像的检测结果,为体现算法对不同场景下建筑物目标的检测性能,本文选取了以下四种排列方式的建筑物展开对比实验:独立建筑物、复杂场景下建筑物、特殊形状建筑物和密集排列建筑物。

从表2中的检测结果可以看出,原始算法虽能检测出目标,但是对目标边界的定位比较模糊,造成矩形框角度偏差大、未能完全包围目标等情况,而本文算法添加了融合宽高信息的通道注意力模块,分别在图像的宽高方向上进行平均池化,能够准确捕捉目标的位置信息和边界信息,在预测时可以准确回归目标的中心点坐标、宽高值和旋转角度,因此检测结果中矩形框准确包围目标;原始算法在检测密集排列建筑物图像时出现了漏检与误检,原因是原始算法中的DCN模块在上采样过程中对每个位置使用相同的核,未考虑特征图内的信息,而本文的改进算法使用CARAFE上采样代替DCN模块,结合对不同位置生成不同的上采样核,充分捕捉到了特征图信息,在分辨率提高的过程中不会造成信息的遗漏,很好地降低了误检和漏检。在对特殊形状建筑物进行检测时发现,本文所提算法能够检测出非规则形状的SAR图像建筑物,并且旋转角度对比原始算法更加准确。

表2 SAR图像建筑物测试结果对比

3 结论

本文针对目前卷积神经网络参数量大、占用计算资源多等问题提出了一种轻量化的R-centernet算法,并应用于SAR图像建筑物检测领域中。得到以下主要结论:

1)在主干网络中使用Ghost卷积替换传统卷积组成新的网络Ghost-ResNet,极大降低了模型的参数量,提高了检测效率,但是牺牲了检测精度。

2)本文所提出的融合宽高信息的通道注意力模块能够较好地捕捉显著区域在图像中的空间信息,有利于准确定位目标位置,提高了检测精度,同时只增加了少量的网络参数。

3)使用CARAFE上采样代替DCN模块,在上采样过程中对不同位置生成不同的上采样核,充分融合特征图信息,增强了网络的特征提取能力。CARAFE上采样相比于DCN模块引入了更加少量的参数,对网络负担更小。

4)在旋转标注的SAR图像建筑物数据集中的检测结果表明,相比于原始算法,本文所提的改进算法在检测精度与检测速度上均有提升,证明了轻量化网络在SAR图像建筑物检测应用方向的可行性。

[1] HU L, ZHANG J, GAO F. A building extraction method using shadow in high resolution multispectral images[C]∥Proceedings of International Geoscience and Remote Sensing Symposium. Vancouver, BC, Canada: IEEE, 2011: 24-29.

[2] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, US:IEEE, 2014: 580-587.

[3] GIRSHICK R. Fast R-CNN[C]∥Proceedings of IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 1440-1448.

[4] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]∥Proceedings of the 2015 neural information processing systems(NIPS). New York,NY,US: Curran Associates Inc., 2015: 91-99.

[5] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, US:IEEE, 2016: 779-788.

[6] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]∥Proceedingts of IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, US: IEEE, 2017: 6517-6525.

[7] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL].[2021-04-05].http:∥arxiv.org/abs/1804.02767.

[8] BOCHKOVSKIY A, WANG C Y, LIAO H. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. [2021-04-05].http:∥arxiv.org/abs/2004.10934.

[9] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]∥Proceedings of European Conference on Computer Vision. Berlin,Germany: Springer, 2016: 21-37.

[10] ZHOU X Y, WANG D Q, KRHENB?HL P. Objects as points[EB/OL].[2019-04-26].http:∥arxiv.org/abs/1904.07850.

[11] SHAHZAD M, MAURER M, FRAUNDORFER F, et al. Buildings detection in VHR SAR images using fully convolution neural networks [J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(2): 1100-1116.

[12] ZHU X X, BAMLER R. Very high resolution space borne SAR tomography in urban environment [J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(12): 4296-4308.

[13] LI J, ZHANG R, LI Y. Multiscale convolutional neural network for the detection of built-up areas in high-resolution SAR images[C]∥Proceedings of 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). Piscataway,NJ,US: IEEE, 2016: 910-913.

[14] WU Y, ZHANG R, LI Y. The detection of built-up areas in high-resolution SAR images based on deep neural networks[C]∥Proceedings of International Conference on Image and Graphics. Berlin,Germany:Springer, 2017: 646-655.

[15] AN Q, PAN Z, LIU L, et al. DRBox-v2: an improved detector with rotatable boxes for target detection in SAR images [J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(99): 8333-8349.

[16] YANG X, YANG J, YAN J, et al. SCRDet: Towards More Robust Detection for Small, Cluttered and Rotated Objects[C]∥Proceedings of 2019 IEEE/CVF International Conference on Computer Vision (ICCV). Piscataway,NJ,US: IEEE, 2019: 8231-8240.

[17] YANG X, LIU Q, YAN J, et al. R3Det: refined single-stage detector with feature refinement for rotating object[EB/OL].[2021-04-05].http:∥arxiv.org/abs/1908.05612.

[18] ZHOU X Y, YAO C, WEN H, et al. EAST: an efficient and accurate scene text detector[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI,US:IEEE, 2017: 2642-2651.

[19] LIU X B, LIANG D, YAN S, et al. FOTS: fast oriented text spotting with a unified network[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT,US:IEEE, 2018: 5676-5685.

[20] HOWARD A G, ZHU M L, CHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications[EB/OL].[2017-05-27].http:∥arxiv.org/abs/1704.04861.

[21] SANDLER M, HOWARD A G, ZHU M L, et al. Inverted residuals and linear bottlenecks: mobile networks for classification, detection and segmentation[EB/OL]. [2018-01-12].http:∥arxiv.org/abs/1801.04381.

[22] HOWARD A, SANDLER M, CHU G, et al. Searching for MobileNetV3[C]∥Proceedings of IEEE International Conference on Computer Vision. Seoul, South Korea:IEEE, 2019: 1314-1324.

[23] HAN K, WANG Y H, TIAN Q, et al. GhostNet: more features from cheap operations[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Seattle, WA,US:IEEE, 2020: 1577-1586.

[24] ZHANG X Y, ZHOU X Y, LIN M X, et al. ShuffleNet: an extremely efficient convolutional neural network for mobile devices[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT,US:IEEE, 2018: 6848-6856.

[25] LI X, SU J, YANG L. Building detection in SAR images based on bi-dimensional empirical mode decomposition algorithm [J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(4): 641-645.

[26] HU J, SHEN L, ALBANIE S, et al. Squeeze-and- excitation networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

[27] WANG Q, WU B, ZHU P, et al. ECA-Net: efficient channel attention for deep convolutional neural networks[C]∥Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, WA,US:IEEE, 2020: 11531-11539.

[28] HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design[EB/OL].[2021-03-15]. https:∥dblp.org/rec/journals/corr/abs-2103-02907.

[29] WANG J Q, CHEN K, XU R, et al. CARAFE: content-aware reassembly of features[C]∥Proceedings of IEEE International Conference on Computer Vision. Seoul, South Korea:IEEE, 2019: 3007-3016.

[30] 李响, 苏娟, 杨龙. 基于改进YOLOV3的合成孔径雷达图像中建筑物检测算法[J]. 兵工学报, 2020, 41(7): 1347-1359.

LI X, SU J, YANG L. A SAR image building detection algorithm based on improved YOLOV3 [J]. Acta Armamentarii, 2020, 41(7): 1347-1359. (in Chinese)

猜你喜欢

卷积建筑物图像
基于全卷积神经网络的猪背膘厚快速准确测定
基于图像处理与卷积神经网络的零件识别
My Hometown
基于深度卷积网络与空洞卷积融合的人群计数
爆炸过后
A、B两点漂流记
卷积神经网络概述
火柴游戏
名人语录的极简图像表达
一次函数图像与性质的重难点讲析