APP下载

YOLOv5-LR:一种遥感影像旋转目标检测模型

2024-02-02高明明李沅洲南敬昌周芊邑

红外技术 2024年1期
关键词:矩形框滑动损失

高明明,李沅洲,马 雷,南敬昌,周芊邑

〈图像处理与仿真〉

YOLOv5-LR:一种遥感影像旋转目标检测模型

高明明1,李沅洲1,马 雷2,南敬昌1,周芊邑3

(1. 辽宁工程技术大学 电子与信息工程学院,辽宁 葫芦岛 125105;2. 中国科学院自动化研究所,北京 100190;3. 辽宁工程技术大学 电气与控制工程学院,辽宁 葫芦岛 125105)

真实遥感图像中,目标呈现任意方向分布的特点,原始YOLOv5网络存在难以准确表达目标的位置和范围、以及检测速度一般的问题。针对上述问题,提出一种遥感影像旋转目标检测模型YOLOv5-Left-Rotation,首先利用Transformer自注意力机制,让模型更加注意感兴趣的目标,并且在图像预处理过程中采用Mosaic数据增强,对后处理过程使用改进后的非极大值抑制算法Non-Maximum Suppression。其次,引入角度损失函数,增加网络的输出维度,得到旋转矩形的预测框。最后,在网络模型的浅层阶段,增加滑动窗口分支,来提高大尺寸遥感稀疏目标的检测效率。实验数据集为自制飞机数据集CASIA-plane78和公开的舰船数据集HRSC2016,结果表明,改进旋转目标检测算法相比于原始YOLOv5网络的平均精度提升了3.175%,在吉林一号某星推扫出的大尺寸多光谱影像中推理速度提升了13.6%,能够尽可能地减少冗余背景信息,更加准确检测出光学遥感图像中排列密集、分布无规律的感兴趣目标的区域。

遥感图像;滑动窗口;注意力机制;旋转目标检测;YOLOv5

0 引言

目标检测任务一直是计算机视觉的核心问题,它的目的是对图像中的目标进行定位。就遥感而言,目标检测是一项与各种应用密切相关的关键任务,例如,农作物收获分析、资源地理制图、军事航海、情报侦察、灾害管理、交通规划等[1-2]。由于其应用的广泛性,遥感图像有着各种感兴趣的对象,这些对象中自身存在任意方向旋转、多尺度、小目标、密集分布等情形,因此,研究目标检测算法如何适应当前大量多样化的遥感数据,具有重大的研究意义和应用价值[3-4]。

近年来,深度学习的进展为目标检测和定位提供了突破。在文献[5]中,卷积神经网络(Convolutional Neural Networks,CNNs)已经取代了传统的目标检测算法,增加网络深度使得它可以检测具有复杂背景的遥感图像中的小物体[6]。基于CNN的目标检测算法主要分为两类,第一类是两阶段目标检测算法,如SPP-Net[7]、Faster R-CNN[8-9]等。这种类型的方法非常准确,但是检测速度非常慢。第二类算法直接将图像输入到网络中来预测物体的类别和位置信息,省去了区域检测过程,转化为回归问题,从而大幅提高了算法的检测速度,这种类型常见算法包括SSD[10]、YOLO[11-14]系列等[15]。然而,上述适用于自然场景图像进行多分类的目标检测算法,当遇到当前大量多样化的遥感数据时,检测性能难以满足实际需求。

面对自然场景图像,原始的YOLOv5网络在众多优秀的检测方法中表现突出,目标检测边框为水平矩形框,但由于在真实的遥感图像中,目标呈现任意方向分布的特点,采用与坐标轴平行的一般矩形框,难以准确表达检测目标的位置和范围[16]。遥感图像具有超大的图像尺寸[17],整幅遥感影像尺寸往往可达20000×20000以上,对于现阶段的计算硬件资源,针对常规图像的深度学习目标检测算法无法直接处理大尺寸的遥感图像,因此普遍采用带有重叠区域的滑动窗口切割法,将图片切割成尺寸合适的子图[18],这样无疑加大了网络的计算量,导致检测速度明显下降。

针对上述问题,本文在YOLOv5的基础上进行模型改进,首先采用旋转矩形框的表示方式,应用Transformer自注意力模块[19]来增强网络对目标与图像背景的区分能力[20],引入角度损失函数,增加旋转参数,使结果更紧凑地框选出目标。再对数据进行预处理通过Mosaic方法进行数据增强,随机缩放增加小目标,让网络的鲁棒性更好。采用K-Means方法进行聚类得到预设锚框的长度和宽度。其次,本文在网络浅层阶段,增加滑动窗口,来提高大尺寸遥感稀疏目标的检测效率,在保证检测精度的前提下,进一步来提高检测的速度。最后,提出旋转检测网络YOLOv5-LR,以飞机数据集CASIA-plane78和舰船数据集HRSC2016[21]作为实验数据,测试网络性能[22]。

1 一种遥感影像旋转目标检测模型

1.1 改进YOLOv5的网络结构

旋转检测网络YOLOv5-LR结构如图1所示。首先,对Backbone网络CSPDarkNet53添加Transformer自注意力模块,只增加了少量参数,就可以增强网络对目标与图像背景的区分能力。其次,由于卷积神经网络具有强大的特征表示能力和回归能力,在进行多层的卷积操作之后,可以进行更深层次的特征提取,并且卷积神经网络具有旋转不变性,所以本文认为经过多层网络后能够提取到目标的角度信息。因此在Detect层,引入一个旋转角度参数,通过构造新的角度损失函数对模型进行约束,使得YOLOv5-LR能够完成较为精准的旋转目标检测。最后,本文在YOLOv5网络特征提取与特征融合阶段之间,增加CBS卷积模块、全局平均汇聚层以及单层Conv卷积,构成判断滑动窗口分支,可以有效进行提前判读、加快检测速度。

图1 YOLOv5-LR的网络结构

1.2 Transformer自注意力机制

当在人工处理一张光学遥感图像时,通常会自然地关注到你感兴趣目标(舰船、飞机等),并且会忽略掉一些背景信息(完全是海面、市区房屋建筑的部分等),例如,当人们想要在一个白色书架里寻找一些书本,目光主要会停留在书本上面,而后面的白色书架是带有什么花纹信息则往往不会被注意到。因此,人类利用视觉系统观察世界时,对每一个位置的注意力分布是不相同的。由于人类的注意力是有限的,为了节省这种资源,人们在面对自己感兴趣的目标时,会投入更多的注意力,而对自己想要寻找的目标以外的事物会投入较少的注意力。研究者将人类这种现象模拟到机器学习中,“注意力机制”因此诞生。

Transformer模型最初是应用在文本数据上的,现在已经推广到各种深度学习的任务中。它完全基于注意力机制,没有任何卷积层或循环神经网络层,与先前循环神经网络实现输入表示的自注意力机制(self-attention)相比,更加轻量化。本文将第9层C3模块中的Bottleneck替换为Transformer块,相比于传统的Transformer结构,仅仅使用了Encoding部分。这样做的好处是告知模型哪里更需要关注,并赋予其较大权重,而不存在目标的背景区域就赋予一个更小的权重,让模型像人类视觉一样注意到感兴趣的目标,同时在接下来引入判断滑动窗口分支时,也会起到一个结合全局信息的作用。

1.3 旋转矩形框

原始的YOLOv5面对自然场景下的目标表现良好,检测结果呈水平矩形框。但由于光学遥感图像是从空对地进行拍摄,目标的形状、方向有任意分布的特点,使用水平矩形框难以精准地对目标的位置信息进行描述。例如,以-平面作为图像边框的坐标轴,则水平矩形框与坐标轴平行,若目标边缘与坐标轴之间的夹角较大,则水平矩形框的冗余信息也较大,此时如果采用旋转矩形框,冗余信息则明显减少,如图2所示。因此,本文引入角度损失函数,增加一个旋转角度参数,使得检测结果更加紧凑地框选出目标。

水平矩形框的参数包括检测框的中心点的横、纵坐标,以及高度、宽度4个参数,通常表示为(,,,)。旋转检测方法即使用带有角度的旋转包围盒,框选感兴趣对象进行目标检测,相比一般水平矩形框,新增一个方向角度参数,使用五参数表示法(,,,,)。但由于旋转角度定义的方式非唯一,五参数表示法主要分为OpenCV定义法和长边定义法两类,如图3所示。

图2 水平矩形框(a)与旋转矩形框(b)示意图

图3 旋转框定义法。(a) OpenCV定义法;(b)长边定义法

1.4 滑动窗口分支

遥感图像具有超大的图像尺寸,而检测器所感兴趣区域的分布相对于整幅图像极其稀疏,当前主流目标检测器想要对整幅遥感图像进行检测,普遍采用对图像进行切片操作或使用滑动窗口扫描整幅图像。为了避免绝大部分窗口仅包含简单背景,却浪费大量计算资源,导致检测速度降低,本文尝试在网络模型的浅层阶段,增加滑动窗口分支。例如,窗口内全部是海面、云雾,本文认为这类滑动窗口是易于和含有目标的图像区分的,即易于被分类网络所区分的。因此通过滑动窗口分支,图像可以在进入模型深层阶段之前被判断是否含有目标或是否属于简单背景,如图4所示,如果当存在感兴趣区域的概率大于给定阈值,则图像顺利进入模型深层阶段,当其概率小于给定阈值,则跳出模型网络。

本文引入的滑动窗口分支主要由3个子模块组成,其结构如图5所示,首先加入YOLOv5网络中特征提取的基础组件,由卷积层(convolution)、批量规范化层(Batch normalization)以及激活函数(Sigmoid weighted Liner Unit),其主要作用为对模型Backbone提取的特征进行通道降维。其次加入全局平均池化层(Global Average Pooling Layer),对上一个模块提取的特征信息进行空间降维。最后,添加一个普通卷积层,它相当于一个全连接层,对池化操作后的特征信息进行提取,Sigmoid整理后,得到最终的输出结果,即代表滑动窗口内存在目标的概率大小。

图4 模型滑动窗口分支流程

图5 滑动窗口分支结构

1.5 损失函数

在深度学习中,需要可视化一个模型的优劣程度,因此通常会定义出一个函数,并希望通过各种优化策略把它下降到最低点,即损失函数。

YOLOv5的损失主要由3部分组成:首先是分类损失,采用的是二值交叉熵损失(Binary Cross Entropy Loss)。分类损失函数公式如式(1)所示:

其次是置信度损失,仍使用二值交叉熵损失,公式如式(2)所示:

最后是定位损失,采用CIoU损失函数。CIoU公式本文不再赘述,定位损失函数如式(3)所示。

为了得到旋转矩形框来更加紧凑地框选出目标,本文增加一个旋转角度参数,引入角度损失函数ang,使得总体损失值对处理真实目标矩形框的位置、大小和旋转角度变得敏感起来。由于光学遥感数据集大多数采用四点式(,,,)标注方式,或八点式(1,1,2,2,3,3,4,4)标注方式,没有直接给出角度信息,本文可利用点位坐标来自动计算真实矩形框的角度。先回归,再预测目标矩形框的宽高与中心点坐标,再将矩形框进行一定角度的旋转,来逼近真实目标矩形框的位置。因此本文设计角度损失函数采用L2范数损失函数,如式(4)所示:

本文针对预先判断感兴趣区域的滑动窗口分支,定义滑动窗口损失函数如式(5)所示:

所以在训练过程中,总损失函数由分类损失、置信度损失、定位损失、角度损失以及滑动窗口损失组成,总损失函数如式(6)所示:

式中:cla、conf、loc、ang、slid均为可调节的权重参数,用于平衡不同 loss之间的重要度。

2 实验与结果分析

2.1 数据集

本文实验使用的光学遥感数据集为实验室自制飞机数据集CASIA-plane78[23]和公开的舰船数据集HRSC2016。CASIA-plane78数据由国产自主产权系列卫星拍摄,从多景超高分辨率图像中切取机场部分,最终制作尺寸为4096pixel×4096pixel,包含多种成像条件的机场图像,共计534幅。数据集细分为28类,带有具体型号的飞机目标。由于图像分辨率较高,不加入滑动窗口分支训练时,无法直接输入到目标检测器进行训练预测,所以将数据集切片处理,保留500的重叠区域,以1024pixel×1024pixel进行滑动窗口切割,最终制作训练集包含10495幅含有目标的图像,1350幅简单背景图像,制作验证集4437幅图像,测试集共计3820幅图像。

HRSC2016数据集是公开的光学遥感舰船检测数据集,包含有1061幅从Google地球收集的遥感图像。由于其像素大小分布差异较大,本文在构建数据集时使用数据增强来扩充样本的数量,并统一将图像的尺寸调整为1024pixel×1024pixel,并最终生成1125幅图像组成的训练集以及780幅图像组成的测试集。

2.2 评价指标

目标检测中常见的性能评估指标有:精确率(Precision)、召回率(Recall)、平均精度均值(mAP)、速度评估指标(FPS)等。

精确率又称查准率,指模型预测的所有目标中预测正确的比例,可评估预测的准不准。召回率又称查全率,指所有真实目标中,模型预测正确的目标比例,可评估预测的全不全。精确率与召回率的计算如式(7):

式中:TP为预测正确的矩形框数量,即真样本。FP作为非目标但预测为目标的数量,即假样本。FN为真实目标漏检的数量。而AP为精确率-召回率曲线p(r)与坐标轴所围成的面积,衡量的是学习出来的模型在每个类别上的好坏,其值越高则代表算法在该数据集上的表现越好。平均精度均值(mAP)就是取所有类别上AP的平均值,表示的是学习出的模型在所有类别上的好坏。AP公式如式(8)所示:

速度评估指标FPS常用来衡量目标检测模型的运行速度,它的数值大小表示的是在每秒钟能够推理的图像的数量。通常视频播放速度为24FPS,因此目标检测算法想要满足高速实时性的要求,运行速度就要达到至少24FPS。

2.3 实验平台

本文所有实验在Ubuntu20.04.2LTS系统下进行,使用深度学习框架pytorch1.10.1,CUDA版本为11.4,显卡为四块NVIDIA GeForce RTX 3090。模型训练的迭代次数设置为500,Batch size设置为64。初始学习率为0.01,在训练过程中采用余弦退火策略动态调整,动量设置为0.937,权重衰减率设为0.0005。

2.4 实验结果

本文算法在YOLOv5网络的基础上进行改进。在CASIA-plane78数据集上对Faster R-CNN、YOLOv4、YOLOv5以及本文改进后的算法YOLOv5-LR对FPS以及mAP进行对比,数据如表1所示。可以看出,相较于其他网络,本文模型在检测速度、以及检测精度有比较优秀的表现。原始YOLOv5网络虽然检测速度最快,但是检测精度相较于本文模型较低。本文提出改进算法YOLOv5-LR在保证了检测速度相差不大,满足实时检测的需求,mAP值提升了3.42%。

表1 CASIA-plane78数据集不同检测方法对比

除此之外,通过对CASIA-plane78数据集的大量测试结果进行观察,发现在用滑动窗口扫描整幅图像,且滑动窗口附有重叠区域的情况下,当感兴趣目标恰好落在重叠区域时候,感兴趣目标会被检测器多次检测到,并误将一个物体当成了两个物体。这样会使同一个感兴趣目标被多个矩形框重叠框选。经过分析,本文认为检测器在检测的后处理部分的非极大值抑制算法(Non Maximum Suppression,NMS)不够准确,仅仅通过设置阈值来保留置信度最高的矩形框,剔除其他与该框重叠的矩形框。通常情况下,阈值被定义为某一个数值,它常与置信度最高的矩形框与其他各个矩形框的重叠面积进行比较,即两个框之间的IoU大于阈值则后者为冗余框。

图6为改进前后部分检测结果对比图,其中,第一行为原始YOLOv5检测结果;第二行为改进算法YOLOv5-LR检测结果。可以看出原始网络在排列密集、分布无规律的小型飞机目标,会出现漏检,一个目标被检测为多个目标的情况,如图6(a1)、(a2)和(a3);使用改进后的YOLOv5-LR没有发生多检、漏检的情况如图6(b1)、(b2)和(b3)。YOLOv5对于排列密集的大型目标很不友好,检测得到的矩形框由于相互之间重叠情况较多、检测矩形框的内部冗余背景较大,使得观察结果较为困难,且会出现误检的现象如图6(a4)。而改进后的YOLOv5-LR算法引入角度损失函数,增加一个旋转角度参数,在这种情况下,能够更加紧凑地框选出密集大型目标如图6(b4),检测结果更为简单明了。

以上方法存在以下问题,例如,对重叠区域进行合并检测结果时,两个大小不同的矩形框框选同一个感兴趣区域,如图7(a)所示,且矩形框的位置关系为大框包含小框,然而IoU正好小于阈值,检测器不会自动删除某一个矩形框,而是都保留了下来,但显然其中一个是冗余框。如果仅仅将阈值调小,检测器会过滤掉其中一个矩形框,那个矩形框一定是两框之中置信度较小的矩形框。重要的是不能确定置信度较小的矩形框也是在包含关系中较小的那一个矩形框。这样意味着仅仅过滤置信度较小的矩形框也许会将大的、包含整个目标的矩形框给删除掉,留下一个小的、仅仅包含目标部分区域的矩形框,如图7(b)所示。

因此,本文对后处理部分的非极大值抑制算法NMS进行改进,增加一项过滤冗余框的规则,即在滑动窗口的重叠区域里,如果出现上述大框包含小框的情况,优先去删除较小的矩形框,保留包含范围较大的矩形框。由于这种做法是在检测过程的后处理部分,不会影响网络对本身就存在重叠的目标进行检测的精度,并且在整幅图像对应的滑动窗口的重叠区域中,能够保留更完整的目标,同时会解决“多检”的情况。如图7(c)所示。改进后的非极大值抑制算法NMS已应用到YOLOv5-LR,效果如图7(d)所示。

为了体现本文改进YOLOv5的有效性,针对长宽比更大的舰船数据集HRSC2016进行了目标检测算法性能比较,与目前现有旋转目标检测算法以及原始YOLOv5进行了对比,如表2所示,本文改进算法YOLOv5-LR相比于原始YOLOv5的检测精度提升了2.93%。

图6 数据集CASIA-plane78不同方法的检测结果。(a) YOLOv5算法;(b)改进后YOLOv5-LR算法

图7 不同NMS结果对比。(a)原检测结果;(b)调整NMS阈值结果;(c)改进NMS;(d)YOLOv5-LR结果

表2 HRSC2016数据集不同检测方法对比

图8展示了原始YOLOv5及改进算法YOLOv5-LR的检测效果。第一行为原始YOLOv5检测结果;第二行为改进算法YOLOv5-LR检测结果。如图8(a1)所示,当舰船目标的边界长、宽,相对于光学图像的边界较为平行的时候,原始网络检测结果良好,冗余背景信息不多但依旧存在。在改进网络检测结果图8(b1)中,在矩形框范围内尽可能剔除不必要的背景信息,针对这种情况检测效果提升不大,但在光学遥感图像的拍摄中,舰船目标不可能总是平行于整幅图像的边界,由于这种随机性的存在,原始网络仅仅在这种情况下表现良好,并不能体现算法的适用性。

当舰船目标分布密集且舰船较大,原始YOLOv5会出现定位不准确、漏检的情况,如图8(a2)、(a3)和(a4)。本文发现,造成漏检严重的情况是因为舰船目标相对于其他目标,长宽比较大,因此使用正矩形框选目标后,目标常位于矩形框的对角线处,而对角线两侧包含大量冗余背景信息,这样会使得整个矩形框的范围比较大,在面对密集排列目标时,一个已经包含整个目标的矩形框会覆盖另一个目标的部分区域,这样使得本来另一个目标的矩形框与该矩形框的IoU值比较大,导致非极大值抑制算法NMS的错杀。由于目标密集,多个目标的多尺度检测框重叠区域较大,因此仅调小NMS的阈值可能造成更多的漏检,调大阈值可能造成更多的误检、多检。改进算法YOLOv5-LR,利用自注意力机制增强了网络对目标与背景的辨别能力,增加角度损失函数,来使得矩形框具备角度参数,让检测结果更加紧凑地框选出目标、剔除冗余信息,有效解决遥感图像因目标排列密集、尺度变化多样导致的漏检、定位不准确的问题。

本文引入的滑动窗口分支,在大尺寸光学遥感图像稀疏目标场景中,对输入图像使用提前判读操作。当滑动窗口是不存在感兴趣目标(舰船、飞机等)的简单背景滑窗,不去进行复杂的深层网络检测任务。实验表明,与原始YOLOv5网络相比,YOLOv5-LR引入的滑动窗口分支,对大尺寸光学遥感图像的推理速度明显优于对先对图像进行切割、小尺寸图像逐个进行检测、合并检测结果的大尺寸光学遥感图像的传统检测步骤。

常见的光学遥感图像数据集,如本文使用的HRSC2016是对原始遥感图像进行了切割,只保留了部分感兴趣区域制作为数据集样本。而整幅遥感影像尺寸往往可达20000×20000以上,当前公开的遥感图像数据集较少,本文引入滑动窗口分支的实验基于吉林一号某星推扫出的大尺寸多光谱影像。本文对12景光学遥感图像进行测试,在YOLOv5-LR未加入滑动窗口分支前对整幅图像的推理时间为24705ms,在加入滑动窗口分支后推理时间缩短至21336ms,在推理精度不降低的情况下,推理速度提升了13.6%,如图9展示了大尺寸光学遥感图像的旋转目标检测的部分结果。

图8 大尺寸光学遥感图像的旋转目标检测的部分结果

(a) YOLOv5算法 (b)改进后YOLOv5-LR算法(a) YOLOv5 algorithm (b) Improved YOLOV5-LR algorithm

3 结束语

本文提出了基于改进YOLOv5的遥感旋转目标检测算法YOLOv5-LR。首先利用Transformer自注意力机制增强网络对目标与图像背景的区分能力,引入旋转角度参数,使得原检测网络选取目标的正矩形,变为包含角度参数的旋转矩形框,并对图像后处理部分的非极大值抑制算法NMS进行改进。其次,本文尝试在网络模型的浅层阶段,增加滑动窗口分支,来提高大尺寸遥感稀疏目标的检测效率,在保证检测精度的同时,进一步提高检测速度。

实验表明,本算法在CASIA-plane78和HRSC2016数据集上取得良好的表现,与原始YOLOv5网络相比在精度上有所提升,增强了冗余背景信息的剔除能力,有效解决遥感图像因目标排列密集、尺度变化多样导致的多检、漏检、定位不准确的问题。在遥感图像方面,YOLOv5-LR的旋转检测框更适合拟合目标形态,不仅保持了先进检测算法的精度,同时实现了更快的检测速度。引入滑动窗口分支之后,对于大尺寸光学遥感图像的推理速度有所提升,但是对于不包含简单背景的大尺寸光学遥感图像来说,引入滑动窗口分支可能会导致推理速度更慢。因此,研究如何更高效地对大尺寸光学遥感图像进行检测,并基于旋转框来自动区分目标首尾将是本文后续研究的一个方向。

[1] ZHANG X, CHEN G, LI X, et al. Multi-oriented rotation-equivariant network for object detection on remote sensing images[J]., 2022, 19: 1-5.

[2] WANG Yi, Syed M A B, Mahrukh K, et al. Remote sensing image super-resolution and object detection: Benchmark and state of the art[J]., 2022, 197: 116793.

[3] XI Y Y, JI L Y, YANG W T, et al. Multitarget detection algorithms for multitemporal remote sensing data[J]., 2022, 60: 1-15.

[4] WANG Y Q, MA L, TIAN Y. State-of-the-art of ship detection and recognition in optical remotely sensed imagery[J]., 2011, 37(9): 1029-1039.

[5] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks [J]., 2017, 60(6): 84-90.

[6] WANG W, FU Y, DONG F, et al. Semantic segmentation of remote sensing ship image via a convolutional neural networks model[J]., 2019, 13(6): 1016-1022.

[7] HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]., 2015, 37(9): 1904-1916.

[8] REN S, HE K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]., 2017, 39(6): 1137-1149.

[9] FANG F, LI L, ZHU H, et al. Combining faster r-cnn and model-driven clustering for elongated object detection[J]., 2020, 29: 2052-2065.

[10] LIU W, Anguelov D, Erhan D, et al. SSD: single shot multibox detector[C]//, 2016: 21-37.

[11] Redmon J, Divvala S, Girshick R, et al. You Only Look Once: unified, real time object detection[C]//, 2017: 6517-6525.

[12] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger[C]//, 2017: 6517-6525.

[13] Redmon J, Farhadi A. Yolov3: An incremental improvement[C]//, 2018, arXiv:1804.0276.

[14] Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4:Optimal Speed and Accuracy of Object Detection [C]//, 2020. arXiv: 2004.10934.

[15] ZHU Wentao, LAN Xianchao, LUO Huanlin, et al. Remote sensing aircraft target detection based on improved faster R-CNN[J]., 2022, 49(6A): 378-383.

[16] LI D, ZHANG J. Rotating target detection for tarpaulin rope based on improved YOLOv5[C]// 5th(ICAIBD), 2022: 299-303.

[17] YANG X, YANG J R, YAN J C, et al. SCRDet: Towards more robust detection for small, cluttered and rotated objects[C]//2019(ICCV), 2019: 8232-8241.

[18] WANG B R, LI M. A structure to effectively prepare the data for sliding window in deep learning[C]//6th(ICSIP), 2021: 1025-2018.

[19] Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16×16 words: transformers for image recognition at scale[J/OL]., 2010, https://arxiv.org/abs/2010.11929.

[20] LAN Lingxiang, CHI Mingmin. Remote sensing change detection based on feature fusion and attention network[J]., 2022, 49(6): 193-198.

[21] LIU Z, WANG H, WENG L, et al. Ship rotated bounding box space for ship extraction from high-resolution optical satellite images with complex backgrounds[J]., 2017, 13(8): 1074.

[22] LI Y, LI M, LI S, et al. Improved YOLOv5 for remote sensing rotating object detection[C]//6th(CCISP), 2021: 64-68.

[23] Institute of Automation. Chinese Academy of Sciences Remote sensing artificial intelligence algorithm competition platform[EB/OL]. https://www.rsaicp.com/portal/dataDetail?id=34.

YOLOv5-LR: A Rotating Object Detection Model for Remote Sensing Images

GAO Mingming1,LI Yuanzhou1,MA Lei2,NAN Jingchang2,ZHOU Qianyi3

(1.,,125105,;2.,,100190,;3.,,125105,)

In a real remote sensing image, the target is distributed in any direction and it is difficult for the original YOLOv5 network to accurately express the location and range of the target and the detection speed is moderate. To solve these problems, a remote sensing image rotating target detection model, YOLOv5-Left-Rotation, was proposed. First, the transformer self-attention mechanism was used to make the model pay more attention to the targets of interest. In addition, Mosaic data were enhanced in the image preprocessing, and the improved Non-Maximum Suppression algorithm was used in post-processing. Second, an angle loss function was introduced to increase the output dimensions of the network, and the prediction box of the rotating rectangle was obtained. Finally, in the shallow stage of the network model, a sliding window branch was added to improve the detection efficiency of large-sized remote sensing sparse targets. The experimental datasets were the self-made aircraft dataset CASIA-plane78 and the public ship dataset HRSC2016. The results show that the average accuracy of the improved rotating target detection algorithm is improved by 3.175% compared with that of the original model, and the reasoning speed is improved by 13.6% in a large multispectral image swept by a Jilin-1 satellite. It can optimally reduce the redundant background information and more accurately detect the densely arranged and irregularly distributed areas of objects of interest in optical remote sensing images.

remote sensing images, sliding window, attention mechanism, rotating object detection, YOLOv5

TP391

A

1001-8891(2024)01-0043-09

2022-11-18;

2022-12-30.

高明明(1980-),女,博士,副教授,博士生导师,中国电子学会会员,主要研究方向为:人工智能、智能感知、微波毫米波技术等。

李沅洲(1999-),男,硕士,硕士研究生,主要研究方向为遥感图像处理和目标识别。E-mail:yuanzhou.li@foxmail.com

国家自然科学基金青年科学基金(61701211);辽宁省应用基础研究计划项目(2022JH2/101300275);辽宁省应用基础研究计划项目(22-1083);北京市科技计划项目(Z201100005820010)。

猜你喜欢

矩形框滑动损失
胖胖损失了多少元
多模态卷积神经网络的物体抓取检测
一种汽车式起重机防倾翻方法的研究
玉米抽穗前倒伏怎么办?怎么减少损失?
一种新型滑动叉拉花键夹具
Big Little lies: No One Is Perfect
共享单车有了“家”
一般自由碰撞的最大动能损失
损失
滑动供电系统在城市轨道交通中的应用