APP下载

基于改进YOLOv7-tiny的茶叶嫩芽分级识别方法

2024-04-19洪孔林吴明晖高博冯业宁

茶叶科学 2024年1期
关键词:注意力机制

洪孔林 吴明晖 高博 冯业宁

收稿日期:2023-09-24             修訂日期:2023-11-13

基金项目:上海市自然科学基金(21ZR1425900)

作者简介:洪孔林,男,硕士研究生,主要从事图像处理与目标检测方面的研究。*通信作者:wuminghui@sues.edu.cn

摘要:实现自然生长环境的茶叶嫩芽分级识别是名优茶智能化采摘的基础,针对光照、遮挡、密集等复杂环境造成的茶叶嫩芽识别精度较低、鲁棒性较差等问题,提出了一种基于YOLOv7-tiny的改进模型。首先在YOLOv7-tiny模型的小目标检测层添加卷积注意力模块,提高模型对小目标特征的关注能力,减少复杂环境对茶叶嫩芽识别的干扰;调整空间金字塔池化结构,降低模型运算成本,提高检测速度;使用交并比(Intersection over Union,IoU)和归一化Wasserstein距离(Normalized gaussian wasserstein distance,NWD)结合的损失函数,改善IoU机制对位置偏差敏感的问题,进一步提高模型对小目标检测的鲁棒性。结果表明,该模型的检测准确率为91.15%,召回率为88.54%,均值平均精度为92.66%,模型大小为12.4 MB,与原始模型相比,准确率、召回率、均值平均精度分别提高2.83、2.00、1.47个百分点,模型大小增加0.1 MB。与不同模型的对比试验表明,该模型在多个场景下的嫩芽分级检测中漏检和误检较少,置信度分数较高。改进后的模型可应用于名优茶采摘机器人的嫩芽分级识别。

关键词:YOLOv7-tiny;茶叶嫩芽;分级识别;注意力机制;NWD损失函数

中图分类号:S571.1;TP391.41              文献标识码:A              文章编号:1000-369X(2024)01-062-13

A Grading Identification Method for Tea Buds Based on Improved YOLOv7-tiny

HONG Konglin, WU Minghui*, GAO Bo, FENG Yening

School of Mechanical and Automotive Engineering, Shanghai University of Engineering Science, Shanghai 201620, China

Abstract: The intelligent grading and recognition of tea buds in a natural environment are fundamental for the automation of premium tea harvesting. To address the problems of low recognition accuracy and limited robustness caused by complex environmental factors like lighting, obstruction, and dense foliage, we propose an enhanced model based on YOLOv7-tiny. Firstly, a CBAM module was added into the small object detection layer of the YOLOv7-tiny model to enhance the model's ability to focus on small object features and reduce the interference of complex environments on tea bud recognition. We adjusted the spatial pyramid pooling structure to lower computational costs and improve detection speed. Additionally, we utilized a loss function combining IoU and NWD to further enhance the model's robustness in small object detection by addressing the sensitivity of the IoU mechanism to position deviations. Experimental results demonstrate that the proposed model achieves a detection accuracy of 91.15%, a recall rate of 88.54%, and a mean average precision of 92.66%. The model's size is 12.4 MB. Compared to the original model, this represents an improvement of 2.83%, 2.00%, and 1.47% in accuracy, recall rate, and mean average precision, respectively, with a significant increase of 0.1 MB in model size. Comparative experiments with different models show that our model exhibits fewer false negatives and false positives in multiple scenarios, along with higher confidence scores. The improved model can be applied to the bud grading and recognition process of premium tea harvesting robots.

Keywords: YOLOv7-tiny, tea bud, grading identification, attention mechanisms, NWD loss

中国是世界上最大的茶叶生产与消费国,其中名优茶在内销市场长期保持较大贡献[1]。名优茶制作比一般大宗商品茶要求更为严格,根据芽叶形态不同,嫩芽的采摘级别可以分为4级:单芽、一芽一叶、一芽二叶和一芽三叶[2]。目前名优茶采摘主要依靠人工,采摘成本在生产成本中占比较高。现有采茶机械大都采用无差别剪切统收技术,虽然工作效率较高,但无法精确区分嫩芽与老叶,且茶叶破损率为25%~40%[3],仅适合采收要求不高的大宗茶。因此,采用机器人代替人工实现自动化采摘,是提高名优茶采摘效率,降低茶叶生产成本的必然趋势。国内已有多个研究机构开展了采茶机器人研究[4-5],而茶叶嫩芽分级识别是实现名优茶智能分级采摘的基础。

目前茶叶嫩芽识别方法主要包括传统图像处理、机器学习和深度学习等方法。传统图像处理方法主要是根据茶叶嫩芽和老叶间的颜色、纹理、形状等特征对茶叶嫩芽进行分割。吴雪梅等[6]利用改进的最大方差自动取阈法计算G和G-B分量的分割阈值,实现了对茶叶嫩芽的分割。龙樟等[7]通过提取茶丛图像的超绿特征,并采用大津法对图像进行阈值分割,然后经过闭运算去除噪声,得到嫩芽分割图像。机器学习方法主要是基于茶叶嫩芽的颜色、纹理、形状等特征建立识别模型,实现对茶叶嫩芽的识别。张金炎等[8]以蓝色背景下的茶叶嫩芽为研究对象,提取茶叶嫩芽的形态、纹理和HOG特征参数,分别建立了支持向量机、随机森林和K-最近邻模型对采摘后绿茶进行分级识别,发现随机森林模型效果最好,准确率为97.06%。刘自强等[9]通过灰度共生矩阵提取白色背景下茶叶嫩芽的颜色和形状特征,在6种分类器中训练,发现SVMKM和随机森林模型的识别效果最好,准确率达到89.5%。上述方法虽然能够识别茶叶嫩芽,但其检测精度受特征提取影响较大,对于前景与背景相近情况检测效果较差,且受光照影响较大,算法鲁棒性较差。

近年来,随着深度学习目标检测技术的发展,其在农业产品检测和识别领域的应用越来越广泛。王子钰等[10]通过对比传统颜色分割和基于SSD的茶叶嫩芽检测发现,SSD算法具有更加出色的检测识别效果。Yang等[11]利用残差结构和新的卷积运算改进YOLOv3模型对茶叶嫩芽进行识别,平均检测精度达到90%,但其研究对象仅限单芽,并且背景相对简单。方梦瑞等[12]通过添加浅层特征层、引入注意力机制和双向特征金字塔结构对YOLOv4-tiny模型进行改进,改进后的模型对整株嫩芽识别的召回率提高了23.14个百分点。吕丹瑜等[13]使用原始YOLOv5模型对白色背景下茶叶嫩芽进行分级识别,发现YOLOv5模型具有较高的识别精度。尹川等[14]以YOLOv5s为基准模型,通过引入膨胀卷积网络、改进特征融合网络和SimOTA算法对基准模型进行改进,实现对采摘后茶叶嫩芽的品质分级,有效提升不同品质茶叶的识别能力。基于深度学习的茶叶嫩芽检测在实时性和准确性上优于传统图像处理和机器学习方法,能够自动提取嫩芽多维特征,算法具有较高的准确性和鲁棒性。

综上所述,名优茶根据品质不同,采摘决策不同,需对4类不同等级茶叶嫩芽进行识别。目前,自然环境下的茶叶嫩芽识别研究对象多为单芽或整株嫩芽,采摘后仍需对茶叶嫩芽品质进行分级;部分研究虽已实现对采摘后名优茶的品质分级,但先采摘再分级的方式过于繁琐。针对上述问题,本研究提出了一种基于改进YOLOv7-tiny的茶叶嫩芽分级识别方法。首先,在小目标检测层加入卷积注意力模块(Convolutional block attention module,CBAM),以保留小尺度目标信息,提高对小目标的检测效果。同时,将原本并行的空间金字塔池化结构(Spatial pyramid pooling,SPP)改为串行传递,在保证嫩芽特征提取的同时,降低一定的运算成本,提高运算速度。最后,采用NWDIoU损失函数替换CIoU损失函数来提高模型对小目标检测的鲁棒性,以期实现自然环境下,茶叶嫩芽的快速分级定位,为自然环境下名优茶智能化分级采摘提供一定的技术支持。

1 试验数据

1.1 图像采集

本研究所用数据集拍摄于上海市沪枫茶叶种植基地,使用Iphone 13采集自然条件下的龙井43和大红袍茶叶嫩芽图像,图像分辨率为3 024像素×3 024像素,以.jpg格式保存。数据集拍摄于2022年9月上旬和2023年4月上旬,拍摄时间为8:00—18:00,拍摄角度为30°~60°,拍摄距离为10~50 cm。为提高模型泛化能力,避免过拟合,共采集原始数据2 000张,包括不同光照、不同遮挡程度、不同季节和单张图中目标多少等数据。如图1所示,太陽的位置变化以及拍摄角度不同会导致茶叶嫩芽亮度不同,茶叶嫩芽与老叶难以区分且存在相互遮挡的情况。

1.2 茶叶嫩芽数据集制作

本文按照单芽(1)、一芽一叶(1-1)、一芽二叶(1-2)、一芽三叶(1-3)对样本进行分类,茶叶嫩芽分级标准如图2所示,利用Labelimg标注软件对茶叶嫩芽数据集进行人工标注,以便获得图像中目标嫩芽的类别和位置信息。标注完的信息以.txt文件形式保存。将数据集按照8∶1∶1的比例随机划分为训练集(1 600幅)、验证集(200幅)和测试集(200幅)进行模型训练和测试。

2 研究方法

2.1 YOLOv7目标检测模型

YOLOv7目标检测算法由Wang等[15]于2022年7月提出,在速度与精度之间取得了较好的平衡,是目前较为优秀的单阶段目标检测算法,其中YOLOv7-tiny模型的参数量和计算量较小,且能保持较高的精度,适合部署在边缘移动端GPU设备,因此本研究选择YOLOv7-tiny作为基础模型。

2.2 改進的YOLOv7-tiny模型

本研究中YOLOv7-tiny网络由输入端(Input)、主干网络(Backbone)和检测头(Head)3个部分组成,如图3所示。输入端使用Mosaic数据增强方法,将4张图片随机进行缩放、剪裁、拼接,以此丰富数据集,降低模型过拟合风险;主干网络又被称为特征提取层,由大量CBS模块、MP模块和ELAN

模块组成,CBS模块是由Conv层、BN层和SiLU激活函数组成标准卷积块。MP模块有两个分支,其作用为下采样,第一个分支由最大池化层和CBS模块组成,第二个分支由两个CBS模块组成,两个分支经特征合并连接。ELAN模块有两个分支组成,通过大量的卷积操作学习更多特征,增强网络的学习能力。检测头主要是融合主干网络输出的特征生成目标最小边界框并预测目标类别,主要由快速空间金字塔池化结构(Spatial pyramid pooling-fast,SPPF)、大量CBS模块、ELAN模块和上采样模块组成,分别输出3个大小为20×20、40×40、80×80像素的特征图,其中输出特征图为80×80像素的检测层感受野较小,适合检测小目标,为小目标检测层。同理,输出特征图为40×40像素的检测层为中目标检测层,输出特征图为20×20像素的为大目标检测层。最后利用特征图对不同尺寸的目标进行预测。

2.2.1 空间金字塔池化结构

SPP最早由He等[16]提出,目的是为了解决卷积神经网络输入图像大小必须固定的问题,有效避免了对输入图片进行裁剪、拉伸等操作导致的图像失真问题。YOLOv3借鉴了SPP的思想,通过SPP模块实现局部特征与全局特征融合,有效提高了模型的感受野,丰富了特征图的表达能力,较好地解决了多目标、遮挡较多时,茶叶嫩芽远近不同、大小不同的问题,提高了模型对待测图像中不同大小目标的检测能力[17]。YOLOv5在SPP模块的基础上将原本并行的最大池化(MaxPool)改为串行,构成了新的SPPF结构,能够在保证效果不变的情况下提高了模型速度。本研究借鉴SPPF[18]模块的思想,将原SPP采用的并行不同尺度的最大池化改为串行相同尺度的最大池化(图4),使每个最大池化的输出得到充分利用,保证模型在保持原有效果的情况下提升检测效率。

2.2.2 卷积注意力机制模块

注意力机制是一种模仿人类视觉和认知系统的数据处理方法,其本质上是对网络自主学习得出的权重系数进行加权再输出,给予目标区域更大的权重。通过引入注意力机制,模型能够自主学习并选择性地重点关注目标区域,抑制无关的背景区域。目前主流注意力机制主要分为通道注意力机制、空间注意力机制、混合注意力机制和自注意力机制。通道注意力机制通过网络学习获取每个通道的重要程度,再为各通道赋予不同的权重系数,使模型更关注重要的通道信息,但对复杂环境下的茶叶嫩芽检测效果不佳。空间注意力机制通过对每个位置生成权重掩膜并加权输出,增强目标区域同时弱化背景区域,当目标区域受到遮挡时会对空间注意力机制产生不良影响,不适宜在茶园复杂环境下使用。自注意力机制需要

对输入特征进行一系列的复杂运算,可以减少模型对外部信息的依赖,但对设备算力要求较高,不适宜在茶叶嫩芽模型所需的移动端部署。混合注意力机制是通过将空间注意力机制和通道注意力机制串联或并联形成的一种更加综合的特征注意力机制,对设备算力要求明显低于自注意力机制,适合复杂环境下的茶叶嫩芽识别,因此本研究在YOLOv7-tiny网络增加CBAM[19]卷积注意力机制。

CBAM模块由通道注意力模块(CAM)和空间注意力模块(SAM)串联而成,引入两个分析维度,实现从通道到空间的注意力结构,如图5所示。对于输入特征图F,CAM模块首先对输入特征图进行空间维度上的全局最大池化和全局平均池化,然后输入到多层感知机(Shared MLP)中进行计算,并对输出的两个特征向量进行逐元相加,最后通过Sigmoid激活函数得到通道注意力特征FC。SAM模块的输入特征图F'由F和FC逐元素相乘得到。SAM模块首先对F'在通道维度上进行全局最大池化和全局平均池化,并按照通道拼接,然后进行7×7的卷积操作,最后通过Sigmoid激活函数得到通道注意力特征FS。FS与F'进行逐元素相乘后最终得到CBAM模块的输出特征图Fcbam。

2.2.3 损失函数

YOLOv7-tiny算法中,预测框回归损失使用交并比(Intersection over Union,IoU)进行衡量,以检测算法的准确性。通过将预测框与真实框的交集除以它们的并集面积计算IoU,当该数值大于设定阈值时可认为正确预测了目标,但是基于IoU的衡量指标对小尺度目标位置偏差极为敏感,对于本研究中单芽的检测十分不利(图6)。

归一化Wasserstein距离(Normalized gaussian wasserstein distance,NWD)[20]是一种基于Wasserstein距离的评价指标,Wasserstein距离本质是衡量一种概率分布变换到另一种概率分布的最小代价。该方法首先将边界框框建模为二维高斯分布,通过计算两个高斯分布之间的Wasserstein距离来衡量它们的相似度。Wasserstein距离的计算公式为:

········································(1)

式中,Na代表预测框A的二维高斯分布Na(μ,∑),服从,,(cxa, cya)代表预测框A的中心点坐标,wa和ha分别代表边界框A的宽度和高度。

由于w2 2(Na,Nb)是一个距离,因此需要对其进行归一化处理,将其变为0到1之间的数值,最终得到NWD:

········································(2)

式中,C是与数据集有关的常数,由模型训练得到。由于NWD(Na,Nb)表示预测框A和真实框B之间的归一化Wasserstein距离,因此损失函数可设为:

·········(3)

NWD对目标尺度不敏感,更适合测量小目标之间的相似度,而茶园中小目标单芽和较大目标一芽三叶同时存在,两者大小差距大,且直接使用NWD替换IoU会显著降低模型的收敛速度,因此本研究在对YOLOv7-tiny损失函数的改进中结合实际使用场景分析,将IoU和NWD结合,按照一定比例进行加权得到最终的损失函数,以弥补IoU损失对小目标检测的缺点,损失函数计算公式为:

·······································(4)

式中,α为权重系数,本研究α取0.5,通过调整权重系数可以得到不同损失函数计算方式,适应不同的任务需求。

2.3 网络模型的训练

2.3.1 试验环境与超参数设置

本研究所用操作系统为Ubantu 20.04,处理器为Intel? Xeon? Platinum 8358P CPU @ 2.60 GHz,GPU型号为RTX A5000,显存24 G,内存32 G,试验环境为Python 3.8、Pytorch 2.0.0、Cuda 11.8。

试验训练参数:输入图片分辨率为640×

640像素,Batchsize大小为16,迭代次数Epoch为300,使用随机梯度下降(Stochastic gradient descent,SGD)优化器进行优化并设置初始学习率为0.01,训练未使用预训练权重。

2.3.2 评价指标

为有效评估模型性能,使用模型识别目标的准确率(Precision,P)、召回率(Recall,R)、平均精度(Average precision,AP)、平均精度均值(Mean average precision,mAP)、F1分数(F1 score)、检测速度(Frames per second,FPS)、模型大小等指标对模型进行评价。

················(5)

················(6)

···················(7)

式中,NTP为实际正类预测为正类的数量,NFP为实际负类预测为正类的数量,NFN为实

际正类预测为负类的数量。

3 结果与分析

3.1 CBAM模块应用不同位置效果分析

为分析CBAM模块添加至不同位置的性能表现,分别将CBAM模块添加至YOLOv7-tiny检测头的大、中、小3个检测层,分别记为YOLOv7-tiny-L、YOLOv7-tiny-M、YOLOv7-tiny-S,在多层添加多个CBAM模块改进名称以此类推,如图3所示,图中CBAM所处位置为CBAM模块添加的具体位置。8种模型的性能指标如表1所示。

由表1可知,与原始YOLOv7-tiny模型相比,除YOLOv7-tiny-ML和YOLOv7-tiny-SML模型的召回率有所下降外,其余模型检测性能均有提升,其中只将CBAM模块添加至小目标检测层的YOLOv7-tiny-S模型性能提升最明显,精确率、召回率和mAP分别提高1.42、1.92、1.15个百分点,且模型大小仅增加0.01 MB。这是由于在多层添加多个CBAM模块引入了更多噪声,难以从数据中准确地学习目标关键特征,而单一CBAM模块更容易捕捉到目标关键特征。小目標检测层主要提取的是主干网络的浅层特征,此时特征图尺寸较大、局部信息比较丰富,单个像素的感受野比较小,可以捕捉更多的小目标信息,所以只添加CBAM模块到小目标检测层可以更好地提取小目标嫩芽的关键特征。

3.2 不同损失函数应用于YOLOv7-tiny的性能比较

为分析不同损失函数的性能,将YOLOv7-tiny中的原始损失函数CIoU分别替换为DIoU[21]、GIoU[22]、Alpha IoU[22]、MPDIoU[23]和NWDIoU,上述6种损失函数的性能表现如表2所示,训练模型时的损失曲线如图7所示。由损失曲线图可以看出,6种损失函数收敛速度接近,Alpha IoU损失值最高,NWDIoU损失值最低,其余4种损失函数的损失值接近。

对6种损失函数性能进行分析发现,使用CIoU、Alpha IoU、DIoU的模型各项性能参数均低于使用NWDIoU的模型;与GIoU相比,

使用NWDIoU的模型的召回率和mAP分别提高1.45和0.67个百分点,准确率下降0.09个百分点;与MPDIoU相比,使用NWDIoU的模型的召回率和mAP分别提高3.16和0.80个百分点,准确率下降1.76个百分点。虽然使用NWDIoU的模型准确率低于使用GIoU和MPDIoU的模型,但相较原始损失函数仍提高1.31个百分点,同时其召回率和mAP明显高于使用GIoU和MPDIoU的模型。以上结果表明,使用NWDIoU损失函数进行模型训练的综合优势明显,检测效果最好。

3.3 消融实验

为验证本研究所提出的改进算法的有效性,通过消融实验分析改进后模型的性能,其

中将CBAM模块添加至小目标检测层记为YOLOv7-tiny-C,使用优化后的SPPF记为YOLOv7-tiny-S,更换NWDIoU损失函数记为YOLOv7-tiny-N,组合改进名称以此类推。由表3数据可知,本研究在进行的单个改进上各项试验指标较原有算法均有提升。在2个组合的改进中,各项指标较原有算法稍有提升,较单个改进则有小幅度的上升或下降,2处改进叠加效果一般。3处改进的叠加效果较好,各项指标均高于其他7种模型,YOLOv7-tiny-

CNS模型的准确率、召回率、mAP和F1分数较原模型分别提高2.83、2.00、1.47、2.40个百分点。

3.4 检测效果分析

为更直接对比改进前后算法的检测效果,利用改进前后的模型对茶叶嫩芽验证集进行测试,检测效果如图8所示。所使用样本包含少目标、多目标、目标遮挡、背景复杂、光照不均等情况,由于光照影响、相互遮挡,原YOLOv7-tiny模型对于较小目标和遮挡目标存在一定情况的漏检和误检,改进的YOLOv7-tiny模型的漏检和误检情况有明显改善,且置信度有明显提升。

3.5 不同目标检测模型性能对比

为评价改进的YOLOv7-tiny网络模型对茶叶嫩芽的检测效果,使用SSD[25]、Faster R-CNN[26]、YOLOv5s[27]、YOLOv7-tiny及改进后的YOLOv7-tiny网络模型对茶叶嫩芽数据集进行训练和测试。5种模型对各等级茶叶嫩芽的识别平均精度如表4所示,模型的性能指标如表5所示。

由表4可知,与其他4种模型相比,改进后的YOLOv7-tiny对各等级茶叶嫩芽的平均精度最高,改进后的单芽、一芽一叶、一芽二叶、一芽三叶的识别平均精度分别为86.96%、92.47%、96.34%、94.88%;与原YOLOv7-tiny相比,单芽、一芽一叶、一芽二叶、一芽三叶的识别平均精度分别提高2.44、1.88、0.98、0.60个百分点,单芽的平均精度提升最明显。由表5可知,改进后的YOLOv7-tiny与其他4种模型相比,准确率、召回率、平均精度均值最高,与YOLOv7-tiny相比,准确率、召回率、平均精度均值分别提高2.83、2.00、1.47百分点。对YOLOv7-tiny模型的改进,提高

了模型对嫩芽特征的提取能力,尤其是对单芽特征的提取能力,同时减小了预测框位置偏差对单芽检测的影响,但也增加了模型的复杂度和计算量,导致模型大小增加0.1 MB,检测速度慢18.4帧·s-1,但仍优于SSD、Faster R-CNN、YOLOv5s。以上结果表明,改进的YOLOv7-tiny综合表现最好,可以实现自然环境下的茶叶嫩芽快速识别分级。

4 结论

为实现自然环境下茶叶嫩芽目标的快速识别分级,本研究改进YOLOv7-tiny模型,通过改进金字塔池化结构、在小目标检测层添加CBAM模块、修改损失函数提升茶叶嫩芽识别分级的准确性,并与其他典型算法模型进行对比,主要结论如下:

(1)在本研究数据集上,改进后的YOLOv7-tiny模型其F1分数为89.82%,mAP为92.26%。与原始YOLOv7-tiny模型相比,准确率提高2.83个百分点,召回率提高2.00个百分点,mAP提高1.47个百分点,F1分数

提高2.40个百分点。同时,在验证集测试中,无论是目标遮挡还是多目标等复杂情况,改进的YOLOv7-tiny均具有一定的优势。

(2)与常用目标检测模型SSD、Faster R-CNN和YOLOv5s相比,改进后的模型各项指标均有提升,mAP分别提高12.16、11.15、4.55个百分点。结果表明,针对茶叶嫩芽目标较小、相互遮挡、光照不均等复杂情况时,改进后的YOLOv7-tiny具有较高的鲁棒性。

(3)改进后的YOLOv7-tiny模型复杂度提高,检测速度为120.5帧·s-1,较原始YOLOv7-tiny稍有下降,但仍优于SSD、Faster R-CNN和YOLOv5s,可以满足实时检测的要求。

本研究提出的方法可以有效改善模型在茶园复杂环境下的茶叶嫩芽的检测效果,能够完成实际采摘场景下茶叶嫩芽的分级识别工作,尤其是对单芽的识别效果提升明显,具有较高的检测精度和良好的鲁棒性,可以为其他作物在真实采摘场景下的识别提供借鉴。

參考文献

[1]梅宇, 梁晓. 2021年中国茶叶生产与内销形势分析[J]. 中国茶叶, 2022, 44(4): 17-22.

Mei Y,Liang X. Analysis of China's tea production and domestic sales in 2021 [J]. China Tea, 2022, 44(4): 17-22.

[2]代云中, 蒋天宸, 杨威, 等. 基于YOLOv5算法的名优茶采摘机器人[J]. 南方农机, 2023, 54(12): 24-27.

Dai Y Z, Jiang T C, Yang W, et al. A premium tea picking robot based on the YOLOv5 algorithm [J]. China Southern Agricultural Machinery, 2023, 54(12): 24-27.

[3]黄海涛, 毛宇骁, 李红莉, 等. 茶鲜叶机械化采收装备与技术研究进展[J]. 中国茶叶, 2023, 45(8): 18-23, 31.

Huang H T, Mao X Y, Li H L, et al. Research progress on mechanized harvesting equipment and technology for fresh tea leaves [J]. Chinese Tea, 2023, 45(8): 18-23, 31.

[4]吴敏, 郇晓龙, 陈建能, 等. 融合2D激光雷达与航向姿态参考系统的采茶机仿形方法研究与试验[J]. 茶叶科学, 2023, 43(1): 135-145.

Wu M, Huan X L, Chen J N, et al. Research and experiment on profiling method of tea picker based on fusion of 2D-LiDAR and attitude and heading reference system [J]. Journal of Tea Science, 2023, 43(1): 135-145.

[5]王先伟, 吴明晖, 周俊, 等. 名优茶采摘机器人机械手结构参数优化与仿真[J]. 中国农机化学报, 2018, 39(7): 84-89.

Wang X W, Wu M H, Zhou J, et al. Optimization and simulation of structural parameters of manipulators for high-quality tea picking robots [J]. Journal of Chinese Agricultural Mechanization, 2018, 39(7): 84-89.

[6]吴雪梅, 张富贵, 吕敬堂. 基于图像颜色信息的茶叶嫩叶识别方法研究[J]. 茶叶科学, 2013, 33(6): 584-589.

Wu X M, Zhang F G, Lü J T. Research on the recognition method of tea leaves based on image color information [J]. Journal of Tea Science, 2013, 33(6): 584-589.

[7]龙樟, 姜倩, 王健, 等. 茶叶嫩芽视觉识别与采摘点定位方法研究[J]. 传感器与微系统, 2022, 41(2): 39-41, 45.

Long Z, Jiang Q, Wang J, et al. Research on method of tea flushes vision recognition and picking point localization [J]. Transducer and Microsystem Technologies, 2022, 41(2): 39-41, 45.

[8]張金炎, 曹成茂, 李文宝, 等. 基于多特征融合的茶叶鲜叶等级识别的方法研究[J]. 安徽农业大学学报, 2021, 48(3): 480-487.

Zhang J Y, Cao C M, Li W B, et al. Study on the method of recognition of fresh leaf grade of tea based on multi-feature fusion [J]. Journal of Anhui Agricultural University, 2021, 48(3): 480-487.

[9]刘自强, 周铁军, 傅冬和, 等. 基于颜色和形状的鲜茶叶图像特征提取及在茶树品种识别中的应用[J]. 江苏农业科学, 2021, 49(12): 168-172.

Liu Z Q, Zhou T J, Fu D H, et al. Application of image feature extraction based on color and shape in tea tree variety identification [J]. Jiangsu Agricultural Sciences, 2021, 49(12): 168-172.

[10]王子钰, 赵怡巍, 刘振宇. 基于SSD算法的茶叶嫩芽检测研究[J]. 微处理机, 2020, 41(4): 42-48.

Wang Z Y, Zhao Y W, Liu Z Y. Research on tea buds detection based on SSD algorithm [J]. Microprocessors, 2020, 41(4): 42-48.

[11]Yang H L, Chen L, Chen M T, et al. Tender tea shoots recognition and positioning for picking robot using improved YOLO-v3 model [J]. IEEE Access, 2019: 180998-181011.

[12]方梦瑞, 吕军, 阮建云, 等. 基于改进YOLOv4-tiny的茶叶嫩芽检测模型[J]. 茶叶科学, 2022, 42(4): 549-560.

Fang M R, Lü J, Ruan J Y, et al. Tea buds detection model using improved YOLOv4-tiny [J]. Journal of Tea Science, 2022, 42(4): 549-560.

[13]吕丹瑜, 金子晶, 陆璐, 等. 基于图像处理技术的茶树新梢识别和叶面积计算的探索研究[J]. 茶叶科学, 2023, 43(5): 691-702.

Lü D Y, Jin Z J, Lu L, et al. Exploratory study on the image processing technology-based tea shoot identification and leaf area calculation [J]. Journal of Tea Science, 2023, 43(5): 691-702.

[14]尹川, 苏议辉, 潘勉, 等. 基于改进YOLOv5s的名优绿茶品质检测[J]. 农业工程学报, 2023, 39(8): 179-187.

Yin C, Su Y H, Pan M, et al. Detection of the quality of famous green tea based on improved YOLOv5s [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(8): 179-187.

猜你喜欢

注意力机制
基于注意力机制的行人轨迹预测生成模型
基于注意力机制和BGRU网络的文本情感分析方法研究
多特征融合的中文实体关系抽取研究
基于序列到序列模型的文本到信息框生成的研究
基于深度学习的手分割算法研究
从餐馆评论中提取方面术语
面向短文本的网络舆情话题
基于自注意力与动态路由的文本建模方法
基于深度学习的问题回答技术研究
基于LSTM?Attention神经网络的文本特征提取方法