APP下载

基于改进DeepLabv3+的轻量化作物杂草识别方法

2024-03-28曲福恒李金状杨勇康镇南严兴旺

关键词:轻量化

曲福恒 李金状 杨勇 康镇南 严兴旺

摘要:为在存储资源与计算能力有限的设备上实现田间作物和杂草的识别,本文提出一种基于改进DeepLabv3+的轻量化语义分割网络。首先,以MobileNet v2作为DeepLabv3+的特征提取骨干网络,提出双分支残差模块替换倒残差模块,并删除后两层卷积以降低模型参数量。其次,在空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模块中引入分组逐点卷积,使用深度扩张卷积替换标准卷积,并将卷积后的特征图进行多尺度特征融合增强对作物和杂草深层特征的提取能力。最后,将原有的非线性激活函数替换为Leaky ReLU激活函数来提升分割精度。实验结果表明:改进后网络的mIOU达到86.75%,参数量仅为0.69M,FPS达到了98,与原始DeepLabv3+以及3个典型轻量化语义分割网络的相比,参数量最小,在对比的轻量化网络中具有最高的分割精度。

关键词:作物和杂草识别;轻量化;语义分割;DeepLabv3+;MobileNet v2;多尺度特征融合

中图分類号:中图分类号S451;TP391.41文献标志码:A文献标识码

Lightweight crop and weed recognition method based on imporved DeepLabv3+

QU  Fuheng1,LI Jinzhuang1, YANG Yong1,2*, KANG Zhennan1, YAN Xingwang1

(1 College of Computer Science and Technoloy, Changchun University of Science and Technology,Changchun,Jilin 130022, China;

2 College of Education, Changchun Normal University,Changchun,Jilin 130032, China)

Abstract: To achieve field crop and weed recognition on devices with limited storage resources and computational capabilities, a lightweight semantic segmentation network based on improved DeepLabv3+ is proposed. Firstly, MobileNet v2 is used as the feature extraction backbone for DeepLabv3+, where the residual modules are replaced with dual-branch residual modules and the last two convolutional layers are removed to reduce the model parameters. Secondly, group-wise pointwise convolution is introduced in the Atrous Spatial Pyramid Pooling module, replacing standard convolutions with depthwise dilated convolutions, and performing multi-scale feature fusion on the convolved feature maps to enhance the extraction of deep features for crops and weeds. Lastly, the original non-linear activation functions are replaced with the Leaky ReLU activation function to improve segmentation accuracy. Experimental results show that the improved DeepLabv3+ achieves an mIOU (Mean Intersection over Union) of 86.75% with only 0.69M parameters, and achieves an FPS (Frames Per Second) of 98. Compared to the original DeepLabv3+ and three typical lightweight semantic segmentation networks, it has the lowest parameter count and the highest segmentation accuracy among the compared lightweight networks.

Key words: crop and weed identification;lightweight;semantic segmentation;Deeplabv3+;MobileNet v2;multi-scale feature fusion

田间杂草与农作物竞争水、养分和空间等资源,影响农作物的生长和产量[1],去除田间杂草十分重要。使用无人机等智能设备进行大范围农药喷洒可以大幅度提高除草效率[2],节约人力成本。但是,大范围喷洒不仅会造成土壤污染,也会导致农作物中存在大量的农药残留。采用计算机视觉技术对田间的作物和杂草进行识别、监测,对于降低农业生产成本、保护生态环境具有重要意义。

目前,国内外学者提出了多种基于计算机视觉技术识别杂草的方法[3-5]。虽然传统机器学习算法对杂草进行识别有一定的效果,但是特定的特征需要手动选择和校准。这就使传统机器学习算法在处理复杂的田间环境时存在抗干扰能力弱,适用性较差等问题。与传统机器学习算法相比,深度学习算法无须手动选择和校准,能够自动学习数据的浅层特征与深层特征,抗干扰能力强。Kim等[6]提出了一种单阶段训练的语义分割模型MTS-CNN,在作物杂草田间数据集(CWFID)[7]、水稻苗和杂草数据集[8]上,平均交并比(mIOU)分别达到了83.72%和82.6%。Zou等[9]使用改进U-Net模型对杂草进行分割,使用预训练和微调2种方法进行训练,训练后杂草的交并比(IOU)为92.91%。Wang等[10]提出了一种双注意力网络,基于编码阶段的分支注意力块和解码阶段的空间注意力块以弥合高级特征和低级特征,在杂草分割数据集上优于ExFuse[11]、DeepLabv3+[12]和PSPNet[13]。

上述深度学习模型主是对作物和杂草识别精度的提升,但是参数量大、复杂度高、识别速度慢,不适合存储资源和计算能力有限的设备,采用的轻量化网络虽然参数量减少,但识别精度不高。因此,本文对经典的DeepLabv3+网络进行改进,使用改进后的MobileNet v2作为特征提取骨干网络降低参数量;其次,在ASPP[12]中引入分组逐点卷积、将标准卷积替换为带有不同扩张率的深度扩张卷积[15-16],对卷积后的特征图进行多尺度特征融合,改进后的ASPP模块能够在降低参数量的同时提升对作物和杂草深层特征的提取能力;最后,使用Leaky ReLU激活函数替换ReLU激活函数,提高分割的准确性。

1 资料与方法

1.1 数据获取与处理

1.1.1 数据获取

为实现农作物与杂草的识别,需要采集相关图  像数据,建立作物及其杂草数据集。实验数据于2020年6月—7月采集自吉林省长春市吉林农业大学试验田内,使用大疆无人机进行拍摄,无人机飞行高度为30~50 m,拍摄的图像尺寸为4 000 px×3 000 px,分辨率为72 dpi,采集后的图像以JPG格式保存。无人机拍摄的有大豆作物及其伴生杂草,杂草为禾本科杂草和阔叶型杂草2种,其余部分是土地,采集图像如图 1所示。

1.1.2 数据处理

为使模型充分学习图像中作物和杂草的语义特征并减小输入模型中图像的尺寸,实验将无人机采集的图像切分成200 px×200 px,切分后删除部分冗余图像。然后,采用开源标注工具LabelMe对切分后的图像进行语义标注,建立标准的语义标注数据集,使切分后的图像与标注图像一一对应,如图2所示。

同时,为提高模型的泛化能力,采用图像翻转、旋转等方法扩充数据。扩充后的数据集共有4 435张图像,以9∶1的比例分为训练集和测试集。标记数据共有4类有效标签类别,分别是大豆作物、禾本科杂草、阔叶型杂草和土地。

1.2 构建轻量化的语义分割模型

1.2.1 改进DeepLabv3+网络

改进后的輕量化网络结构如图3所示,由编码层和解码层构成。首先,为防止多倍下采样导致特征图尺寸过小,影响网络对作物与杂草的边界信息提取,将MobileNet v2网络由下采样32倍降低为16倍。由于本文数据集分割的种类与Pascal VOC等数据集相比较少,为避免通道数过多导致卷积运算产生冗余的特征信息,对MobileNet v2网络进行通道剪枝,去除后两层卷积。此外,提出一种双分支残差(Dual-branch Residuals)模块替换MobileNev2中的倒残差(Inverted residual)模块,在保持类似特征提取效果的同时降低网络的参数量,使用改进后的MobileNet v2网络作为特征提取骨干网络。虽然改进后的MobileNet v2网络减少了参数数量,但仍然主要关注浅层特征的提取,需要进一步增强对深层语义信息的提取能力,以提高作物和杂草分割的准确度。

原始的空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模块参数量大,并且对于输入的特征进行直接卷积融合不利于区分作物和杂草的差异特征。因此,本文对ASPP模块进行改进,在ASPP模块中引入分组逐点卷积,对特征提取骨干网络输入的特征图的通道数量采取先降低维度再升高维度的策略,使用带有扩张率的深度可扩张卷积替换标准卷积,并将卷积后产生的特征图进行多尺度特征融合区分作物和杂草的特征差异,在降低模块参数量的同时提升作物与杂草深层语义信息的提取效果。最后,为防止反向传播过程中部分特征消失影响分割精度,采用Leaky ReLU激活函数替换ReLU激活函数。

1.2.2 改进MobileNet v2网络

1.2.2.1 深度扩张可分离卷积

传统的卷积神经网络往往使用大尺寸的卷积核用于获取广泛的感受野,但是这种方法大大增加了网络的参数量。与传统卷积不同,深度可分离卷积(Depthwise Separable Convolution)[15-16]通常采用3×3的小卷积核,将传统卷积的一次卷积拆分为深度卷积(Depthwise Convolution)和逐点卷积(Pointwise Convolution)2个独立操作,同时考虑通道和空间两个维度的变化,极大的降低了网络的参数量,深度卷积和逐点卷积如图4所示。

假设输入特征映射的大小为Dk,特征映射通道数为M,卷积核的大小为DF,共有N个,则深度可分离卷积与传统卷积的计算量之比为:

(DK·DK)·(M·DF·DF)+M·(N·DF·DF)(DK·DK·M)·(N·DF·DF)=

1N+1D2K。(1)

由公式(1)可知,在使用3×3的卷积核时,深度可分离卷积的参数量仅为标准卷积的19~18,减少了模型需要训练的参数量,提高了模型的训练效率。

虽然,使用深度可分离卷积有效降低了网络的参数量,然而,小卷积核意味着较小的感受野,这导致每个卷积操作生成的像素点在输入特征图上的映射范围减小,不利于网络学习不同类别的特征。为了不增加模型的参数量的同时提升对作物和杂草特征的提取能力,本文在深度可分离卷积中引入了扩张卷积(Dilation Convolution),如图5所示。

扩张卷积引入了一个称为扩张系数(Dilation Rate)的超参数,该参数定义了卷积核与输入特征图中像素点运算时的间距。假设d为扩张系数、k为原始卷积核大小,则加入扩张卷积后的卷积核大小与原始卷积核大小之间关系的公式如下所示:

K=k+(k-1)(d-1)。(2)

从图 5中可以看出,在使用3×3大小的卷积核时,感受野的范围与使用7×7大小的卷积核相同,扩张卷积感受野计算公式如下所示:

Fi+1=(2i+2-1)(2i+2-1)。(3)

其中,i+1表示扩张系数,Fi+1为计算后感受野的大小。

1.2.2.2 双分支残差模块(Dual-branch Residuals)

为了在减少模型参数量的同时保持相似的特征提取能力,本文借鉴了ShuffleNet 网络[14]的思想,对MobileNet v2中的倒残差模块进行改进,提出了一种双分支残差模块,模块结构如图6所示。

在MobileNet v2的倒残差模块中引入了通道划分(Channel Split)与通道重排(Channel Shuffle)。首先,将单分支改为双分支,每个分支的通道数量为输入通道数量的一半。然后,在进行深度卷积之前,通过逐点卷积将输入的通道数量升高为原来数量的6倍。随后,使用带有扩张率的深度可分离卷积,在不增加模块参数量的同时增强对作物与杂草特征信息的提取能力。2个分支的卷积输出结果采用叠加的方式实现多尺度特征融合。最后,使用通道重排对特征通道重洗,实现2个分支间的信息流动。

1.2.3 分组卷积

分组卷积将输入的特征图分成多个组,然后每组分别进行卷积运算。分组卷积最早使用在AlexNet网络,由于当时的硬件资源有限,AlexNet网络的卷积操作无法全部放在单个GPU上完成,因此使用2个GPU进行分布式训练,最后将它们的训练结果融合。与标准卷积相比,分组卷积可以减少计算成本和参数数量,并且保持类似或稍好的性能,如图7所示。

假设输入特征图的大小为Dk,通道数为M,卷积核的大小为DF,共有N个卷积核,分组数为g,则分组卷积的计算量为:

DK×DK×M×N×DF×DF×1g。(4)

与标准卷积相比,分组卷积所需的参数量仅为标准卷积的1g。

1.2.4 GMASPP(ASPP with grouping convolution and multi-scale feature fusion)

由于作物与杂草的特征相似度高,为了提高ASPP模块的轻量化和高效性,更有效地捕捉作物和杂草之间的差异信息,并消除因使用不同扩张率引起的特征提取不连续等问题,对ASPP模块进行改进,改进后的模块如图8所示。

在第一个分支中使用扩张率为2的1×1卷积,将输入的特征图进行升维。在ASPP模块的第二至第五分支前引入分组逐点卷积,将特征骨干网络输入的通道数为96的特征图分为4组,分组后的每个分支特征图的通道数量为16。各分支将原始的3×3扩张卷积替换为带有不同扩张率的深度扩张卷积,以减少模块的参数量并学习深层特征。为了更好的区分作物和杂草的差异特征,消除扩张卷积造成的特征提取信息不连续问题,对使用不同扩张率的深度扩张可分离卷积产生的特征图进行多尺度特征融合,融合后的特征图使用分组逐点卷积进行升维。为了在多尺度特征融合中实现特征对齐,采用深度扩张卷积以确保通道对齐,卷积后的特征图具有相同的尺寸。在最后一个分支中使用全局平均池化提取特征。实现了减少模块参数量的同时提高模块对深层特征的提取能力。

1.2.5 Leaky ReLU激活函数

与ReLU、ReLU6不同,Leaky ReLU激活函数具有一个小的线性斜率(一般设置为0.01),在输入小于0时,会有一个比较小的输出值,在反向传播过程中具有微小的梯度,避免了神经元”死亡”问题。

数学公式如式(5)所示:

f(x)=max(αx,x)。(5)

2 结果与分析

2.1 实验环境及参数配置

软件环境:Ubuntu 14.04.5 LTS 64位操作系统,基于PyTorch 1.12.1,使用的开发软件为PyCharm。硬件环境:CPU型号为Intel CoreTM i7-4790,计算内存32 GB;GPU型号为NVIDIA GeForce GTX 1080,8GB显存。参数配置:采用动量为0.9的随机梯度下降(Stochastic Gradient Descent,SGD)算法优化,初始学习率为0.01,权重衰减为0.0001,使用Poly策略调整学习率,以8张图像为一个批次进行200个周期迭代,使用交叉熵作为损失函数。

2.2 评价指标

实验从分割效果、参数量、复杂度、识别速度4个方面对模型性能进行评价。实验结果通过混淆矩阵计算了2个语义分割网络中常用的評价指标,分别各类别交并比(Intersection over Union,IOU)和平均交并比(Mean Intersection over Union,mIOU),数学表达式如式(6)、式(7)所示,其中TP表示真的正例,FP表示假的正例,FN表示假的负例,TN表示真的负例。使用参数量(Params)评价模型的大小;使用浮点运算数(Floating-Point Operations,FLOPs)衡量模型的复杂度;使用平均帧数(Frames Per Seconds,FPS)衡量模型的识别速度。

交并比是指预测类别的标签与真实类别标签之间的交集和它们之间并集的比值,数学表达式如下:

IOU=TPTP+FP+FN。(6)

平均交并比是对所有类别的交并比的结果求和,然后平均,数学表达式如下:

mIOU=∑NiIOUiN。(7)

2.3 消融实验

为验证本文采用的数据增强方法对模型泛化能力的影响,使用改进后的轻量级DeepLabv3+在原始数据和增强后的数据上进行实验,实验结果如表1所示。

实验结果表明,通过对数据进行增强扩充,与原始数据相比,测试数据集上的各项指标都有所提高。具体而言,大豆的交并比提高了1.08%,禾本科杂草的交并比提高了2.45%,阔叶型杂草的交并比提高了4.24%,土地的交并比提高了1.13%,平均交并比提高了1.72%。

为验证改进的MobileNet v2在DeepLabv3+网络上的有效性,使用Xception、MobileNet v2、ShuffleNet v2、GhostNet和改进后的MobileNet v2作为特征提取骨干网络进行对比,实验结果如表2所示。

实验结果表明,与使用Xception作为特征提取骨干网络相比,改进后的MobieNetv2网络的mIOU相差仅为2.37%,参数量大幅降低;与使用MobieNetv2作为特征提取骨干网络相比,改进后的MobieNetv2网络的mIOU相差仅为1.34% ,参数量降低了约55%。与2个轻量级网络ShuffleNet v2和

GhostNet相比,使用本文改进后的MobileNet v2参数量最小,mIOU和FPS最高。其中,对大豆和禾本科采草的分割精度均优于这2个轻量级网络,对阔叶型杂草高于ShuffleNet v2,略低于GhostNet。

为评估改进后的GMASPP模块在轻量化语义分割网络中的有效性,本文使用改进后的MobileNet v2作为特征提取骨干网络,分别添加ASPP、文献[17]改进的ASPP模块、CSASPP模块和GMASPP模块进行对比,计算了交并比、平均交并比、参数量、计算复杂度4个评价指标,实验结果如表3所示。

从表3中可以看出,使用本文的GMASPP模块与ASPP、文献[17]和CSASPP[18]相比,在分割效果、模块参数量和复杂度上均更具优势。与原始的ASPP相比,大豆的分割精度提升了0.31%,与文献[17]相比,提升了1.25%,比使用CSASPP提升了0.62%。对杂草的分割精度均高于原始的ASPP,mIOU相比于ASPP提升了0.79%,相比于文献[17]提升了0.17%,相比于CSASPP提高了0.24%。在使用同一特征提取骨干网络时,与ASPP、文献[17]和CSASPP相比,参数量均大幅降低。

表4比较了使用不同激活函数对作物和杂草分割精度的影响。可以看出,改进后的算法在使用原始的ReLU6激活函数和ReLU激活函数时,对大豆的分割效果较好,但在阔叶型杂草的分割上效果不佳,mIOU较小。在逐步替换为LeakyReLU激活函数时,阔叶型杂草的分割精度逐步提升,在完全替换为LeakyReLU激活函后,mIOU提升了0.72%。与ELU[19]、Noisy ReLU[20]、PReLU[21]3种激活函数相比,使用Leaky ReLU的效果最好,证明了LeakyReLU激活函数可以提升改进后模型分割的准确性。

2.4 不同算法对比

为了更全面的评估本文改进的轻量化语义分割网络对作物和杂草的分割效果,采用相同的训练参数和训练环境,与不同语义分割算法进行实验对比,实验结果如表5所示。

表5展示了不同语义分割算法对作物和杂草识别的评价指标。可以看出,DeepLabv3+(Xception)[12]、DeepLabv3+(MobileNet v2)[12]、BiSeNetv2[22]、Fast-SCNN[23]、U-Net Xception-Style[24]和本文改进后的模型参数量分别为36.92M、5.81M、3.62M、1.13M、1.13M、0.69M;mIOU分别为87.91%、86.88%、85.62%、84.67%、85.56%、86.75%。与DeepLabv3+(Xception)和DeepLabv3+ (MobileNet v2)相比,本文模型的mIOU差距较小,但是参数量极大减少。

与轻量化语义分割算法BiSeNetv2、Fast-SCNN相比,本文模型的参数量仅为BiSeNetv2与Fast-SCNN的21%、61%,并且mIOU分别提升了1.13%、2.08%。与U-Net Xception-Style相比,本文算法对大豆及其杂草的分割精度更高,并且参数量降低了约50%。与BiSeNetv2相比,对禾本科杂草的分割差别不大,但对大豆作物和阔叶型杂草的分割具有优势。与Fast-SCNN相比,本文算法对大豆作物、和本科杂草与阔叶型杂草的识别均优于Fast-SCNN。

此外,在分割速度上,本文模型优于以Xception为特征提取骨干网络的DeepLabv3+。相比于原始的DeepLabv3+实现了模型在参数量、分割精度和速度间的平衡。各个网络的分割效果如图9所示。

3 结 论

传统语义分割模型参数量大、计算复杂度高,不适应用于存储量小、计算能力有限的设备上,为降低模型的参数量与复杂度,本文提出了一种基于DeepLabv3+的轻量化语义分割模型。首先,采用本文提出的双分支残差模块替换MobileNet v2的倒残差模块,并去除后两层卷积,实验结果表明,mIOU相差仅为1.34% ,參数量降低了约55%;其次,在ASPP模块使用分组逐点卷积、深度扩张卷积,并对卷积后的特征图进行多尺度特征融合,提升了对作物与杂草差异特征的提取能力,实验结果表明,mIOU提升了0.79%,网络参数量降低了约26%;最后,采用LeakyReLU激活函数,避免了特征图中小于零的部分在反向传播中梯度消失,mIOU提升了0.72%。通过与原始的DeepLabv3+和3个轻量化语义分割模型对比表明,本文提出的轻量化语义分割模型的参数量最小,仅有0.69M,并且对作物和杂草的分割精度均高于对比的轻量化语义分割模型。

參考文献(References)

[1] 博文静,郭立月,李静,等. 不同耕作与施肥方式对有机玉米田杂草群落和作物产量的影响[J]. 植物学报,2012,47(6):637-644.

BO W J,GUO L Y,LI J,et al. Impact of different tillages and fertilization patterns on weed community and corn yield in an organic farmland[J]. Chinese Bulletin of Botany,2012,47(6):637-644.

[2] 范明洪,兰玉彬,赵德楠,等. 植保无人机低容量喷雾防除玉米田杂草的雾滴沉积特性及除草效果[J]. 植物保护,2022,48(5):304-309.

FAN M H,LAN Y S,ZHAO D N,et al. Droplets deposition of herbicide in low volume spraying by UAV in weeds and control effect in maize field[J]. Plant Protection, 2022,48(5):304-309.

[3] 疏雅丽,张国伟,王博,等. 基于深层连接注意力机制的田间杂草识别方法[J]. 计算机工程与应用,2022,58(6):271-277.

SHU Y L,ZHANG G W,WANG B,et al. Field weed identification method based on deep connection attention mechanism[J]. Computer Engineering and Applications,2022,58(6):271-277.

[4] JIN X J,CHE J,CHEN Y. Weed identification using deep learning and image processing in vegetable plantation[J]. IEEE Access,2021,9:10940-10950.

[5] KHAN A,IIYAS T,UMRAIZ M,et al. Ced-net:crops and weeds segmentation for smart farming using a small cascaded encoder-decoder architecture[J].  Electronics,2020,9(10):1602.

[6] KIM Y,PARK K. MTS-CNN:Multi-task semantic segmentation-convolutional neural network for detecting crops and weeds[J]. Computers and Electronics in Agriculture,2022,199:107146.

[7] HAUG S,OSTERMANN J. A crop/weed field image dataset for the evaluation of computer vision based precision agriculture tasks[C]. In Computer Vision-ECCV,2014:105-116.

[8] MA X,DENG X,QI L,et al. Fully convolutional network for rice seedling and weed image segmentation at the seedling stage in paddy fields[J]. Plos One,2019,14(4):e0215676.

[9] ZOU K,CHEN X,WANG Y,et al. A modified U-Net with a specific data argumentation method for semantic segmentation of weed images in the field[J]. Computers and Electronics in Agriculture,2021,187:106242.

[10] WANG H,SONG H,WU H,et al. Multilayer feature fusion and attention-based network for crops and weeds segmentation[J]. Journal of Plant Diseases and Protection,2022,129(6):1475-89.

[11] ZHANG Z,ZHANG X,PENG C,et al. Exfuse:enhancing feature fusion for semantic segmentation[C]. In Proceedings of the European Conference on Computer Vision (ECCV),2018:269-284.

[12] CHEN L C,ZHU Y,PAPANDREOU G,et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]. In Proceedings of the European conference on computer vision (ECCV),2018:801-818.

[13] ZHAO H,SHI J,QI X,et al. Pyramid scene parsing network[C]. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2881-2890.

[14] MA N,ZHANG X,ZHENG HT,et al. Shufflenet v2:practical guidelines for efficient cnn architecture design[C]. In Proceedings of the European conference on Computer Vision (ECCV),2018:116-131.

[15] CHOLLET F. Xception:Deep learning with depthwise separable convolutions[C]. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:1251-1258.

[16] HOWARD A G,ZHU M,CHEN B,et al. Mobilenets:efficient convolutional neural networks for mobile vision applications[J]. arXiv:1704.04861,2017.

[17] 鐘旭辉,谭海,梁雪莹,等. 基于改进DeeplabV3+模型的云检测[J]. 遥感信息,2023,38(3):106-113.

ZHONG X H,TAN H,LIANG X Y,el al. Cloud detection based on improved DeeplabV3+ model[J]. Remote Sensing Information,2023,38(3) :106-113.

[18] 周华平,邓彬. 融合多层次特征的deeplabV3+轻量级图像分割算法[J/OL]. 计算机工程与应用,https:∥link.cnki.net.urlid/11.2127.TP.20230831.1205.012.

ZHOU H P,DENG S. DeeplabV3+ lightweight image segmentation algorithm based on multilevel feature fusion[J]. Computer Engineering and Applications,https:∥link.cnki.net.urlid/11.2127.TP.20230831.1205.012.

[19] CLEVERT D A,UNTERTHINER T,HOCHREITER S. Fast and accurate deep network learning by exponential linear units (elus)[J]. arXiv:1511.07289,2016.

[20] GULCEHRE C,MOCZULSKI M,DENIL M,et al. Noisy activation functions[C]. In International Conference on Machine Learning,2016:3059-3068.

[21] HE K,ZHANG X,REN S,et al. Delving deep into rectifiers:surpassing human-level performance on imagenet classification[C]. In Proceedings of the IEEE International Conference on Computer Vision,2015:1026-1034.

[22] YU C,GAO C,WANG J,et al. Bisenet v2:bilateral network with guided aggregation for real-time semantic segmentation[J]. International Journal of Computer Vision,2021,129:3051-3068.

[23] POUDEL R,LIWICKI S,CIPOLLA R. Fast-scnn:fast semantic segmentation network[J]. arXiv:1902.04502,2019.

[24] GUTIRREZ-LAZCANO L,CAMACHO-BELLO C,CORNEJO-VELAZQUEZ E,et al. Cuscuta spp. segmentation based onunmanned aerial vehicles (UAVs) and orthomasaics using a U-Net Xception-Style model[J]. Remote Sensing,2022,14(17):4315-4327.

(责任编辑:编辑郭芸婕)

猜你喜欢

轻量化
基于ABAQUS的某轻卡车蓄电池支架轻量化
重卡车架轻量化设计
汽车轻量化集成制造专题主编
2021亚洲汽车轻量化展览会
四点接触球转盘轴承的轻量化材料应用
一种轻量化自卸半挂车结构设计
一种轻量化自卸半挂车结构设计
425轻量化桥轴承座工艺改进
瞄准挂车轻量化 锣响挂车正式挂牌成立
用户:轻量化挂车的使用体验