APP下载

基于改进YOLO v5的苹果叶部病害检测

2024-06-03赵兴岳喜申邬欢欢

江苏农业科学 2024年8期
关键词:叶部直方图病害

赵兴 岳喜申 邬欢欢

摘要:针对YOLO v5检测模型存在的漏检率和误检率问题,改进目标检测技术,提升苹果叶部病害早期发现及定位的准确性和速度,从而减少经济损失。先采用加权双向特征金字塔网络(BiFPN)特征融合方法,有效改善PANet對多尺度特征融合的不良影响,并引入Transformer机制,有效改进原始网络结构,使其专注于有用的信息,并增强特征融合效果。再使用ATCSP模块和自上而下的特征融合方法,增强模型对多尺度疾病的检测效果,并将强大的语义信息传达至模型底层,进一步提高检测精度。使用数据集由实验室采集的苹果树叶样本构成,包含3 331张标记图像的矩形位置来标记病害。由于图像亮度分布不均匀,采用直方图均衡化和改进的直方图均衡化处理,使图像对比度得到增强,大幅降低后续图像特征提取的计算量。在训练和测试过程中,还对原始病害图像进行旋转、随机亮度增强、随机色度增强、随机对比度增强和锐化等数据增强操作。结果表明,改进的YOLO v5检测算法可以显著提高苹果叶部病害检测的精度,对比原始算法,平均精度mAP@0.5提高20.8%。改进YOLO v5苹果叶部病害检测算法能够及时发现和定位苹果叶部病害,进而为深度学习技术在农业病害监测中的广泛应用提供技术支撑。

关键词:改进的YOLO v5;苹果;叶部病害;BiFPN;Transformer机制;精度

中图分类号:TP391.41;S126  文献标志码:A

文章编号:1002-1302(2024)08-0183-09

收稿日期:2023-05-15

基金项目:塔里木大学校长基金(编号:TDZKZD202104、TDZKSS202240);新疆生产建设兵团财政科技计划项目南疆重点产业创新发展支撑计划(编号:2022DB005)。

作者简介:赵 兴(1999—),男,新疆哈密人,硕士研究生,主要从事农业信息化、数字图像处理研究。E-mail:1924360002@qq.com。

通信作者:邬欢欢,硕士,教授,主要从事智慧农业、计算机图像处理、人工智能研究。E-mail:wuhuanhuan@taru.edu.cn。

传统的苹果病害检测主要依靠个人经验和专家诊断,主观性和延迟性强,难以达到快速准确的检测要求。早期的机器学习方法使用图像预处理[1]、图像分割[2]和特征提取技术来选择和设计人工特征[3],然后使用特定的机器学习算法对疾病特征进行分类[4-5]。虽然基于机器学习的方法能够实现特定植物病害识别的高检测精度,但繁杂的特征选择和设计工作给其推广和应用带来了诸多困难。我国是世界上最大的苹果生产国和消费国,占世界苹果种植总面积的40%以上,在世界苹果产业中占有重要地位。由于气候的影响,苹果叶片不可避免地受到不同疾病的感染,这会显著影响苹果的质量和产量,造成巨大的经济损失。因此,快速有效地发现和防控苹果叶片病害是当务之急[6-7]。检测作物病害的传统方法很大程度上依赖于专家的经验。这需要大量的劳动力和时间,准确性也无法保证。近年来,随着农业信息化进程的加快,基于机器学习的算法被应用于农业领域[8-10]。然而,支持向量机[11]、随机森林[12]、决策树[13]等机器学习算法需要专业经验和手动特征选择,限制其在实际场景中的应用。此外,基于机器学习的模型容易受到所选特征的影响,无法达到令人满意的精度。随着深度学习的发展,深度卷积神经网络被用于作物病害的监测。基于深度卷积神经网络的作物病害检测可自动提取不同病害特征,实现高精度检测,提高稳定性,为苹果叶片早期病害检测提供高效的端到端方法[14-15]。但是,大多数基于卷积神经网络(CNN)的模型包含很多参数,计算非常复杂,训练过程对高性能服务器依赖性强[16-18]。在农业领域,植物病害是对植物生长和产量的主要威胁因素。研究人员为了寻找更好的方法来控制这些疾病,作出了巨大的贡献。传统的机器学习算法最初被转移到农田,用以检测植物病害。Redmon 等利用灰度共生矩阵提取特征以及利用SVM分类器进行疾病分类的水稻叶片病害新方法,检测性能精度为97.91%[19-21]。Ren等使用简单线性迭代聚类(SLIC)算法得到超像素块,使用SVM分类器对超像素块进行分类,结果显示,261张患病影像的准确度、精确度、召回率、F1分数分别为98.5%、96.8%、98.6%、97.7%[22]。但机器学习算法需要复杂的图像预处理和疾病特征提取专业知识来获得高质量的图像[23],并不能保证检测的准确性。卷积神经网络近年来发展迅速,在农业领域取得了良好的效果。采用Kiwi-Inception结构和密集连接策略构建Kiwi-ConvNet,可以增强多尺度特征的提取能力,保证多维度特征融合。Sethy等使用MEAN块和Apple-Inception提出MEAN-SSD这一新的检测模型,改进后的MEAN-SSD检测速度达到12.53帧/s、平均精度均值(mAP)达到83.12%[24-26]。Sun等通过引入Inception和Inception-resnet模块,提出具有更高特征提取能力且更快的DR-IACNN模型。mAP可以达到81.1%,但速度只有15.01帧/s[27]。综上,基于CNN的模型已广泛应用于作物病害的识别和检测,并取得了良好的效果。但上述检测模型尚不准确,无法检测令人困惑的早期苹果叶部病害。苹果叶部病害检测可以被视为目标检测问题[28]。深度学习模型具有较强的特征表现能力,但深度学习方法在目标检测问题上比具有人工设置特征的检测器更具有显著优势[29]。在执行目标检测时,这些深度学习方法要完成检测帧的定位和分类2项任务。基于深度学习的目标检测方法主要分为两级目标检测算法和一级目标检测算法[30-31]。两级目标检测算法分2个阶段实现目标检测:先从输入网络的图像中提取建议区域,再对每个建议区域进行分类和位置回归,最后实现目标检测。单阶段目标检测算法直接生成对象的类概率和位置坐标值,而不需要区域建议阶段。算法的典型代表是YOLO、SSD、YOLO v2、YOLO v3、RetinaNet、YOLO v4和YOLO v5。现有的苹果叶部病害检测算法存在病害识别效率和识别精度“双低”等问题。因此,本研究提出一种改进的YOLO v5检测算法。本研究针对形状不规则和小目标的苹果叶部病害问题,提出一种基于改进YOLO v5模型的病害目标检测算法。并采用ATCSP模块来改进PANet的结构,引入BiFPN的思想,通过学习得到权重参数来融合不同层的特征映射。它可以过滤其他级别的特征,并将有用的信息保持在该级别,以提高对微小病害的检测精度。基于Transformer机制设计自注意力模块,其可以增加有用特征的权重,抑制无效特征的权重,从而提高目标检测的精度。

1 相关工作

YOLO v5是基于原始的YOLO目标检测架构设计,并使用近年来卷积神经网络领域的最佳优化策略,由Glenn Jocher在2020年提出。YOLO v5骨干网络结合Focus结构和CSP结构,提取输入样本中的主要信息。Yolov5使用PANet[32]结构来融合特征层,并在特征层的3个不同尺度上实现预测。YOLO v5体系结构包含4种体系结构,它们之间的主要区别为在网络特定位置上的特征提取模块和卷积核的数量有所不同。因此,本研究全面考虑识别模型的准确性、效率和规模,并基于YOLO v5体系结构进行苹果叶部对象识别网络的改进设计。原始YOLO v5的网络结构见图1。

YOLO v5使用PANet结构来融合和输出多尺度的特征图。PANet是一种基于特征金字塔(FPN)的自下而上的增强结构,这是一种双向融合,而不是原来的单一融合。由图2可知,PANet由自顶向下的融合路径和自底向上的融合路径组成自上而下的融合。它通过2倍上采样对最近的特征图X进行调整,并在调整通道后通过1×1卷积将其添加到预层的特征图Y中。自下而上的融合是自上而下融合的相反过程,即上采样被下采样所取代。

2 改进的网络结构

2.1 BiFPN头部特征融合网络

根据Sharma 等的研究结果[33],在头部网络的特征融合结构中,与FPN和PAN等其他特征融合结构相比,双向特征金字塔网络结构(BiFPN)可以实现更高效的双向跨尺度连接和加权特征融合。YOLO v3采用的FPN特征融合结构本质上受到单向信息流的限制。该结构从上到下传输特征信息,并通过上采样和低级别特征融合高级别特征,以获得用于预测的特征图(图3-a)。基于FPN特征融合结构,YOLO v4和YOLO v5采用的PAN特征融合结构增加了1个额外的自下而上的路径聚合网络(图3-b),它将浅层定位信息传输到深层,并在多个尺度上增强定位能力。Sharma 等提出的BiFPN特征融合结构将双向(自下而上和自上而下)路径视为特征网络层,并多次重复同一层以实现更高级别的特征融合[33](图3-d)。

Tan 等在此结构的基础上提出名为EfficientDet的目标检测算法[34],和同时期的其他目标检测算法如YOLO v3、MaskRCNN、NAS-FPN等相比,在准确率、检测速度和运算量上EfficientDet均具有明显优势,详细的试验数据对比图见图4。

EfficientDet与其他算法的性能对比图显示,虽然随着YOLO算法的发展,EfficientDet算法的性能已经比不上YOLO v4和YOLO v5,但是它提出的BiFPN特征融合结构却值得参考和借鉴,所以本研究将BiFPN特征融合结构引入YOLO v5算法,改进后的YOLO v5模型网络结构见图5。

由头部网络改进为BiFPN结构的YOLO v5网络结构可知,本研究对骨干层的网络进行保留,以输入640像素×640像素的图片为例,经过骨干网络后输出为1 024个尺寸为4×4的特征图。在10层采用1×1的卷积核进行步长为1的卷积操作,得到512个尺寸为4×4的特征图。在11层通过上采样操作得到尺寸为8×8的特征图,将在12层与6层得到的512个尺寸特征图进行拼接,得到1 024个尺寸为8×8的特征图。在6层通过ATCSP层,采

用3倍层叠,通过多次卷积等操作输出512个尺寸为 8×8 的特征图,CSP层的内部结构如图6所示。

在14~17层采用与10~13层一样的网络结构,由14层输入的1 024个尺寸为8×8的特征图得到17层输出的256个尺寸为16×16的特征图。在18层采用3×3的卷积核进行步长为2的卷积操作,得到256个尺寸为8×8的特征图。在19层结合BiFPN特征融合模式的思想,采用双向跨尺度连接,对特征图尺寸同为8×8的19、14、6层进行多尺度特征融合,得到1 024个尺寸为8×8的特征图。在20层通过CSP层,采用3倍层叠, 通过多次卷积

等操作输出512个尺寸为8×8的特征图。同理,在21~23层采用与18~20层一样的网络结构,其中在22层采用双向跨尺度连接,对特征图尺寸同为 4×4的22、10、9层进行多尺度特征融合,得到 2 048 个尺寸为4×4的特征图。最终在23层输出 1 024 个尺寸为4×4的特征图,检测层也保持与原有YOLO v5一致的结构。改进后的模型用于苹果叶部初次检测,由于该模型保留了原始YOLO v5模型的骨干网络,便于对成熟的苹果叶部检测的YOLO v5模型进行迁移学习。通过将BiFPN特征融合结构引入YOLO v5算法,在训练苹果叶部检测数据时提升召回率,同时可以有效地提升平均精度。

2.2 自注意力机制

Transformer机制最初是由Vaswani 等提出的[35],用于机器翻译,并在许多NLP任务中建立最先进的技术。为了使Transformer也适用于计算机视觉任务,已经进行了一些修改。只在每个查询像素的局部鄰域中应用自注意,而不是全局应用。本研究提出稀疏Transformer,它采用可扩展的近似来实现全局自注意。最近,视觉变压器(ViT)通过直接将具有全局自关注的Transformer直接应用于全尺寸图像,实现了最先进的图像网分类技术。本研究采用Transformer的核心思想,利用注意机制设计Transformer层模块,其结构如图7所示。Transformer层包含多头注意结构,多头注意力模块结构如图8所示。

多头自注意力模块是设计特征融合网络的基本组成部分。计算公式为

Attention(Q,K,V)=softmaxQKTdkV。(1)

式中:Q表示查询向量;K表示键向量;V表示值向量。

将注意机制扩展到多个头部,使该机制能够考虑不同的注意分布,并使模型关注信息的不同方面。多头注意机制见公式(2)。

MuitiHead(Q,K,V)=Concat(H1,…,Hi)W;(2)

Hi=Attention(QWQi,KWKi,VWIVi)。(3)

式中:Hi表示第i个头的输出;W是输出变换矩阵;WQi、WKi、WVi均表示第i个头的查询、键、值变换矩阵。

不同苹果叶片病害感染的区域大小不一,同一病害的病斑大小仍然不固定。对于锈病和链格孢菌斑病而言,具有小斑点簇疾病的锈病病斑通常是油性橙色并从叶表面突出。相比之下,病斑链格孢菌斑点是棕褐色的,在病斑处枯萎;疾病斑点是灰色的,且在疾病斑点内部具有网格形状。就蚜虫而言,蚜虫连续成簇分布并集中在嫩叶上。对于蜘蛛螨而言,疾病斑点也是方格的,但呈浅黄色,感染区域较大。对于感染整张叶片的病害,花叶感染的叶片上覆盖着亮黄色的斑点,褐斑病感染的叶片是黄色的,白粉病感染的叶片上覆盖着1层白色粉末,叶子变得卷曲,这给特征提取带来了困难。

虽然BiFPN可以提取早期苹果叶病的主要特征,但由于卷积核大小相同,该模型无法提取多尺度斑点的特征。此外,详细特征没有与抽象特征融合,因此网络无法充分结合浅层位置信息和深層语义信息并加以利用。因此,有必要融合携带不同信息的特征图。

在特征金字塔部分使用ATCSP模块,通过并行化多个不同核大小的最大池化层,增强模型对多尺度疾病的检测效果。BiFPN结构使用自上而下的特征融合方法,从上到下传达强大的语义信息。相比之下,PANet使用自下而上的特征融合方法,从下到上传达强大的定位信息。因此,BiFPN中的上采样特征图与骨干网络中的浅层特征图融合,PANet中的下采样特征图与FPN中的特征图输出融合。

3 结果与分析

3.1 苹果叶部病害数据集

本试验于2022年9月至2023年5月在塔里木大学园艺试验站进行,所使用的数据集由笔者所在实验室采集的苹果树叶片样本构成,包含3 331张标记图像的矩形位置来标记病害。其中,数据集中调整为512 像素×512像素用于训练目的。通过LabelImg图像处理工具,将苹果病害图像中病变的位置信息和类别信息写入相应的xml文件中。之后,数据按训练集 ∶测试集=7 ∶3的比例随机划分,形成VOC格式的数据集,其包括“斑点落叶病(alternaria boltch)”“褐斑病(brown spot)”“灰斑病(grey spot)”“花叶病(mosaic)”“锈病(rust)”5种病害。

3.2 数据增强

由于数据集受到室外光照的影响,在拍摄过程中会使图像整体亮度分布不均匀,在图像部分位置亮度过亮或过暗,因此需要调整图像的对比度,实现对图像的增强。

3.2.1 直方图均衡化

图像直方图是表示图像中亮度分布的直方图,描述了图像中每个亮度值的像素数,直方图均衡化是通过改变图像直方图来改变图像中各像素的灰度值,把原始图像的直方图变换为均衡的形式,对像素数量较多的灰度值进行扩展,对像素数量较少的灰度值进行并归,从而增大对比度,达到对图像增强的效果。

直方图均衡化的数学表达式为

Sk=T(rk)=∑kj=0njn,k=0,1,…,L-1。(4)

式中:nj表示rk的像素数;n表示像素总数;k表示灰度级数;L表示可能出现的灰度级总数。

直方图均衡化后的图像整体亮度提升,但对于图像中地面上过亮的区域更亮,所在过暗的区域没有起到明显的增强效果。

3.2.2 改进直方图均衡化

针对上述直方图均衡化对图像过亮或过暗的区域没有明显增强的问题,利用自适应阈值的方法对图像直方图均衡化,通过对图像局部对比度的调整使整幅图像的对比度得到增强。

首先将图像分成多个小块,分别计算每个小块图像的直方图,然后根据每个小块图像直方图的峰值,计算每个小块图像的阈值,同时为了防止每个小块图像的对比度过高或过低,图像子块之间的对比度差距过大,从而引入新的噪声,因此需要对每个子块的阈值进行限制,主要根据相邻块的阈值进行插值获得,使得整幅图像的阈值低于某个限制值。通过动态调整找到图像直方图的某个阈值X,使过高幅值的小块图像直方图降至阈值X,同时对于幅值过低的区域进行填补,通过调整整幅图像的局部阈值,从而解决图像过亮或过暗的区域对比度没有明显增强的问题。

直方图均衡化后的苹果叶部图像整体亮度大幅度提升,图像中亮度较大的区域图像对比度增强效果较明显,而自适应直方图均衡化可以有效解决图像过亮或过暗的区域对比度没有明显增强的问题,使整幅图像对比度得到增强,减小后续图像特征提取的计算量。对训练集原始疾病图像进行旋转、随机亮度增强、随机色度增强、随机对比度增强和锐化,经过数据增强后的数据集如图9所示。

3.3 训练环境和评价指标

为了衡量改进的算法相比原始算法的性能改善情况,本研究采用mAP@0.5、mAP@0.5 ∶0.95和召回率(R)作为评价指标。

精度(P)为所有预测出的目标中预测正确的目标所占的比例,计算公式为

P=TPTP+FP。(5)

召回率(R)为所有标注为正确的目标中预测正确的目标所占的比值,计算公式为

R=TPTP+FN。(6)

其中:上述2个公式中的参数TP表示预测正确的正面示例数;FP表示预测错误的反面示例数;FN表示预测错误的正面示例数;TN表示预测正确的反面示例数。

平均精度(AP)是衡量训练出的网络模型在单个类别上优劣的重要指标,其计算公式为

AP=∫10P(R)dR。(7)

所有类别的平均精度(mAP)是衡量训练出的网络模型在每个类别上的平均优劣的重要指标,是指取所有类别上AP的平均值,它通常分为mAP@0.5和mAP@0.5 ∶0.95。其中,mAP@0.5是指将IoU设为0.5时,所有类别的所有图片AP的平均值;mAP@0.5 ∶0.95是指IoU阈值从0.5到0.95,步长0.05上的平均mAP。IoU是指预测框和真实框的交集部分的面积与预测框和真实框的并集部分的面积比值。IoU和mAP的计算公式分别为:

IoU=SoverlapSunion;(8)

mAP=∑Ni=1APiN。(9)

3.4 试验结果分析

叶部病害检测应同时考虑精确度和召回率,原始网络训练参数见图10,改进后的网络训练结果见图11。本研究利用mAP、召回率等参数来验证模型的性能,并对检测结果进行评价。为了确认改进后YOLO v5网络的各组件对最终性能的影响,通过ATCSP模块的整合,mAP@0.5从0.323 1提高到0.390 4,提高幅度为20.8%,召回率从0.305 96提升到0.455 85,提高幅度为49.0%。表明改进后的YOLO v5可以过滤其他级别的特征,并将有用的信息保持在该级别,以提高对小病害的检测精度。在此基础上,再采用Transformer机制设计Transformer層模块,它可以增加有用特征的权重,抑制无效特征的权重,利用多头注意结构,提高目标检测精度。

此外,改进后YOLO v5网络全面评估了BiFPN对多尺度学习的能力。在评价指标IoU=0.95的情况下,mAP的差距也很明显,表明BiFPN对多尺度对象特别是小对象检测的有效性。另外,当召回率为0.15时,改进后YOLO v5网络比原始YOLO v5网络高出很多。检测模型在面对容易混淆的疾病斑点时可能会混淆,而相同的疾病却不同,使分类更加困难。采用归一化后的混淆矩阵直观评价改进后的YOLO v5对5种早期苹果叶片病害的分类性能,结果见图12,该模型在棕色斑点上的分类性能最好,大部分样本的预测都正确。

相比之下,改进后的YOLO v5模型对锈病和花

叶病2种轻微斑点病的检测性能较差,特别是花叶病,只有超过3%的样本被正确预测。造成该结果的主要原因是早期的花叶病斑点较小,斑点特征不明显且容易聚集。因此,该模型很难正确提取和区分早期花叶病的特征。

本研究还给出每种疾病的F1分数曲线,以便进行更全面的模型评估。F1分数是精度和召回率总和的平均值,在评估模型时将两者考虑在内。由图13可知,当置信水平在0.2~0.7之间时,模型对所有疾病的F1平均得分都很高,而在置信水平为0.134时,F1平均得分最高,为0.390。结果表明,改进后的YOLO v5能够较好地对5种早期苹果叶片病害进行分类,能够满足实际应用场景的检测需求。

4 结论

本研究提出的改进YOLO v5苹果叶部病害检

测方法,可以在农业生产中发挥较大的作用。采用ATCSP结构来满足苹果叶部病害实时检测的要求,引入自注意力机制的模块可以精确地检测出特定的苹果叶部病害。经过迁移学习后,浅层特征提取网络可以快速收敛并保持超过原始网络的检测精度,同时检测普遍存在的病害和特定的病害,更好地利用不同任务之间的互补性。为了更好地提高病害检测性能,引入跨阶段局部网络,在试验部分对改进算法进行评估,与其他主流算法进行比较,发现改进后的算法适用于苹果叶部病害的自动检测任务,可以较好地提高病害检测的准确性和效率,进而提高农业生产的信息化水平。

参考文献:

[1]Srinivasan K,Dastoor P H,Radhakrishnaiah P,et al. FDAS:a knowledge-based framework for analysis of defects in woven textile structures[J]. Journal of the Textile Institute,1992,83(3):431-448.

[2]彭明霞,夏俊芳,彭 辉. 融合FPN的Faster R-CNN复杂背景下棉田杂草高效识别方法[J]. 农业工程学报,2019,35(20):202-209.

[3]谢金衡,张炎生. 基于深度残差和特征金字塔网络的实时多人脸关键点定位算法[J]. 计算机应用,2019,39(12):3659-3664.

[4]刘 洋,冯 全,王书志. 基于轻量级CNN的植物病害识别方法及移动端应用[J]. 农业工程学报,2019,35(17):194-204.

[5]王 聃,柴秀娟. 机器学习在植物病害识别研究中的应用[J]. 中国农机化学报,2019,40(9):171-180.

[6]Usha Devi G,Gokulnath B V. A survey on plant disease prediction using machine learning and deep learning techniques[J]. Inteligencia Artificial,2020,23(65):136-154.

[7]Govardhan M,Veena M B. Diagnosis of tomato plant diseases using random forest[C]//2019 Global Conference for Advancement in Technology.Bangalore,2019:1-5.

[8]Han K,Wang Y H,Tian Q,et al. GhostNet:more features from cheap operations[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle,2020:1577-1586.

[9]He K M,Zhang X Y,Ren S Q,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.

[10]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,2016:770-778.

[11]Howard A G,Zhu M L,Chen B,et al. MobileNets:efficient convolutional neural networks for mobile vision applications[EB/OL]. 2017:arXiv:1704.04861.http://arxiv.org/abs/1704.04861.

[12]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90.

[13]Lin T Y,Dollár P,Girshick R,et al. Feature pyramid networks for object detection[C]//Conference on Computer Vision and Pattern Recognition.Honolulu,2017:936-944.

[14]Liu B,Ding Z F,Zhang Y,et al. Kiwifruit leaf disease identification using improved deep convolutional neural networks[C]//44th Annual Computers,Software,and Applications Conference.Madrid,2020:1267-1272.

[15]Liu S,Qi L,Qin H F,et al. Path aggregation network for instance segmentation[C]//Conference on Computer Vision and Pattern Recognition.Salt Lake,2018:8759-8768.

[16]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[M]//Leibe B,Matas J,Sebe N,et al. Computer vision-ECCV 2016.Cham:Springer International Publishing,2016:21-37.

[17]Loey M,ElSawy A,Afify M. Deep learning in plant diseases detection for agricultural crops[J]. International Journal of Service Science,Management,Engineering,and Technology,2020,11(2):41-58.

[18]Prashar K,Talwar R,Kant C. Robust automatic cotton crop disease recognition (ACDR) method using the hybrid feature descriptor with SVM[C]. International Conference on Computing on Sustainable Global Development,2017.

[19]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//Conference on Computer Vision and Pattern Recognition.Las Vegas,2016:779-788.

[20]Redmon J,Farhadi A. YOLO9000:better,faster,stronger[C]. Conference on Computer Vision and Pattern Recognition,2017.

[21]Redmon J,Farhadi A. YOLO v3:an incremental improvement[EB/OL]. arXiv:1804.(2018-04-08)[2023-05-10]. http://arxiv.org/abs/1804.02767.

[22]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[23]Sethy P K,Barpanda N K,Rath A K. Detection and identification of rice leaf diseases using multiclass SVM and particle swarm optimization technique[J]. J Innovative Tech and Exploring Eng,2019,8(6S2):108-120.

[24]Sethy P K,Barpanda N K,Rath A K,et al. Image processing techniques for diagnosing rice plant disease:a survey[J]. Procedia Computer Science,2020,167:516-530.

[25]SimonyanK,ZissermanA.Verydeepconvolutionalnetworksfor

large-scale image recognition[EB/OL]. 2014:arXiv:1409.1556.http://arxiv.org/abs/1409.1556.

[26]Sun H N,Xu H W,Liu B,et al. MEAN-SSD:a novel real-time detector for apple leaf diseases using improved light-weight convolutional neural networks[J]. Computers and Electronics in Agriculture,2021,189:106379.

[27]Sun Y Y,Jiang Z H,Zhang L P,et al. SLIC_SVM based leaf diseases saliency map extraction of tea plant[J]. Computers and Electronics in Agriculture,2019,157:102-109.

[28]Szegedy C,Liu W,Jia Y Q,et al. Going deeper with convolutions[C]//Conference on Computer Vision and Pattern Recognition.Boston,2015:1-9.

[29]Turkoglu M,Yanikogˇlu B,Hanbay D. PlantDiseaseNet:convolutional neural network ensemble for plant disease and pest detection[J]. Signal,Image and Video Processing,2022,16(2):301-309.

[30]Wang C Y,Mark Liao H Y,Wu Y H,et al. CSPNet:a new backbone that can enhance learning capability of CNN[C]//Conference on Computer Vision and Pattern Recognition Workshops.Seattle,2020:1571-1580.

[31]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[C]//European Conference on Computer Vision.Cham:Springer,2018:3-19.

[32]Xie X Y,Ma Y,Liu B,et al. A deep-learning-based real-time detector for grape leaf diseases using improved convolutional neural networks[J]. Frontiers in Plant Science,2020,11:751.

[33]Sharma N,Gupta S,Reshan M S A. EfficientNetB0 cum FPN based semantic segmentation of gastrointestinal tract organs in MRI scans[J]. Diagnostics,2023,13(14):2399.

[34]Tan M,Pang R,Le Q V. Efficientdet:scalable and efficient object detection[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020:10781-10790.

[35]Vaswani A,Shazeer N,Parmar N,et al. Attention is all you need[C]//Conference on Natural Information Processing Systems. Long Beach,2017.

猜你喜欢

叶部直方图病害
统计频率分布直方图的备考全攻略
符合差分隐私的流数据统计直方图发布
面向移动端的苹果叶部病虫害轻量级识别模型
早春养羊需防六大病害
基于YOLOv3的多类烟草叶部病害检测研究
小麦常见三种病害咋防治
葡萄病害周年防治历
果树休眠期咋防病害
用直方图控制画面影调
基于颜色差异性的植物叶片病害图像分割方法