基于ResNet卷积神经网络的绿茶种类识别模型构建
2021-04-20张怡赵珠蒙王校常冯海强林杰
张怡,赵珠蒙,王校常,冯海强,林杰*
基于ResNet卷积神经网络的绿茶种类识别模型构建
张怡1,赵珠蒙2,王校常2,冯海强3,林杰1*
1. 浙江农林大学农业与食品科学学院,浙江省农产品品质改良技术研究重点实验室浙江 杭州 311300; 2. 浙江大学茶叶研究所,浙江 杭州 310058;3. 浙江省种植业管理局,浙江 杭州 310020
绿茶是我国种类最多、产量最大的茶类,外形是其分类的重要依据。图像分类是计算机视觉的核心技术之一,但其在茶叶领域的应用较少,茶类识别仍依赖感官审评方法。采集8种常见绿茶(丽水香茶、信阳毛尖、六安瓜片、太平猴魁、安吉白茶、碧螺春、竹叶青和龙井)共1 713张图片,基于ResNet卷积神经网络,从识别模型的预测能力、收敛速度、模型大小和识别均衡性等角度探索了不同网络深度和不同优化算法的建模效果,最终选择ResNet-18结构、SGD优化算法,建立了区分8种绿茶的深度学习模型,其对复杂背景茶叶图片的识别准确率达到了90.99%,单张图片识别时间仅为0.098 s,模型大小为43.7 MB。本研究为构建茶叶视觉识别模型并应用于移动端提供了基础,为茶叶种类识别提供了一种快捷而高效的新方法。
卷积神经网络;深度学习;绿茶分类
绿茶有益于人们的身心健康,是深受消费者喜爱的饮品。同时绿茶也是我国种类最多、产量最大的茶类,外形是其分类和区分等级的重要依据,也是茶叶感官审评的重要部分。然而,传统的茶叶感官审评方法采用的审评术语尚未完善[1]、客观环境的不确定性、标准量普及率低、评茶师主观因素干扰,以及重复性差等限制与当前新时代下消费者对茶叶产品信息准确、安全优质的需求日益提升[2]不相匹配。因此,发展开放化、标准化、智能化[3]的绿茶分类识别方法是必然趋势。一直以来,有关绿茶的新分类和评定方法层出不穷,如理化审评方法[4-5]、指纹图谱评定方法[6-7]、智能感官审评方法[8-9]、红外光谱成像技术检测方法[10-11]等,但这些方法在一定程度上存在其局限性,如相关仪器及操作繁琐复杂等,并且大多数是基于茶叶整体来进行审评,要求具体且耗时,因此提出一种客观、简洁、快速、低成本的绿茶分类方法很有必要。
卷积神经网络作为图像分类算法的重要一员,具有识别精度高、检测速度快等优点,发展潜力巨大[12],在图像分类[13]、物体检测[14]、姿态估计[15]、图像分割[16]和人脸识别[17]等领域取得了相当大的成功[18],并且有很大的扩展优势[19],已广泛用于农业[20],医疗[21],教育[22],能源[23],工业检查[24]及其他领域[25]。目前,卷积神经网络已被用于茶树病虫害识别[26]、茶叶等级筛分[27],以及茶树鲜叶的分选[28],但对于建立在卷积神经网络基础上对不同种类的绿茶进行识别分类则尚未见报道。ResNet是近年来研究学者提出的执行计算机视觉任务的典型卷积神经网络,因引入了残缺模块而最小化了增加网络深度所导致的梯度消失问题,在维持高准确率的同时降低数据中信息的冗余度,简单实用。
本研究基于ResNet卷积神经网络,通过选择合适的优化算法与模型深度构建了一个能够区分8种绿茶的深度学习模型,旨在开发一种高效、精确、客观的鉴别模型并将其应用于移动端,实现对不同背景和环境下绿茶图片的分类,可多人多设备共享使用,节约资源,实现深度学习在茶类识别中的初步应用,为名优绿茶的真伪鉴定提供一种新思路。
1 材料和方法
1.1 数据采集和试验平台搭建
本研究的数据集由丽水香茶、信阳毛尖、六安瓜片、太平猴魁、安吉白茶、碧螺春、竹叶青、龙井等8种绿茶所构成,每个种类的图像数目如表1所示,共有1 713张图片。本研究部分数据集如图1所示,拥有不同外形品质特征的8种绿茶在不同背景不同场景下呈现出不同的状态,更好地还原了茶叶在生活中的实际场景。这些图像为手动搜索,来自不同互联网平台,如购物平台京东(www.jd.com)、淘宝(www.taobao.com)、社交平台微博(https://weibo.com)和百度贴吧(https://tieba.baidu.com)等,拥有不同亮度、背景、角度、数量等特点,用于验证也能更好地说明模型的泛化能力,具有更强的适用性。图像越高清则含有的特征越多,越有利于模型的学习,因此本研究所选择的图像数据集的图像大小基本都在100 KB以上,扩展格式基本为JPG和PNG。
本研究的试验平台搭建如表2所示,使用的建模脚本见github(https://github.com/seldas/ DL_Beetles)。
1.2 图像预处理
本研究获得的原始图像大小不一,对图像采取一定的预处理,可以增强模型对目标物体的识别,同时也可以避免网络的过拟合。本研究将训练集的茶叶图像先随机切分成图片格式为224×224×3的RGB图像,再经过图像翻转。测试集的图片则是先经过图像缩放处理,再以中心为基准裁剪为224×224×3的RGB图像。本研究对于试验中图像的预处理属于数据加强操作,能够有效地提升模型的拟合能力和泛化能力[29]。
表1 不同种类绿茶的图片数量
图1 数据集部分展示
表2 试验平台设置
1.3 CNN架构和优化算法
卷积神经网络(CNN)是受感受野机制启发而提出的深层前馈网络,在结构上具有局部连接、权重分享以及汇聚的特性。它被广泛应用于处理图像和视频分析的各个方面,诸如图像分类、人脸识别、物体识别、图像分割等,其准确率远超其他神经网络模型。
优化算法的目的是更新每个阶段的权重,找到使损失函数的值尽可能小的参数即最优参数来实现CNN架构中的最佳学习。本研究中评价了4种不同的优化算法:随机梯度下降(SGD)算法,RMSprop算法,Adam算法和Adadelta算法。
1.4 采用的网络模型结构:ResNet
深度残差网络(Deep residual networks)是当前应用最为广泛的CNN特征提取网络。ResNet引入了残差学习来解决深度网络难以优化的问题,在维持高准确率的同时降低数据中信息的冗余度,能够拥有比以往的网络模型更深的结构[30]。
残差网络更容易优化,相较于其他网络深度增加可能带来退化问题和梯度弥散或梯度爆炸,可以通过增加深度来获取不同等级的丰富特征从而提高识别图片的准确率[31]。深度学习采取的是多层表征学习,当层数增加时,其抽象层级也会增加,其语义信息会更加丰富[32]。但是过深的网络层数会带来内存量更大、所需时间更长的问题。
为此,本研究选择了ResNet-18、ResNet-34、ResNet-50、ResNet-101等4个不同深度的ResNet模型作为试验对象,“-”后面的数字代表了ResNet的层数,以模型的收敛速度、大小、效率、识别的均衡性为衡量标准来选择表现最佳的ResNet模型。
1.5 数据处理以及评价指标
对图像按照训练集∶验证集=3∶1随机选择采样,训练数据用于参数的学习,验证数据用于模型的性能评估。严格按照相同的预处理进行操作,为了保证验证结果的准确性,每组试验最少重复3次,采取交叉验证避免划分训练集和测试集时的随意性,并利用SPSS 21.0软件通过单因素方差分析(One-way ANOVA)进行显著性差异分析(<0.05),最后将数据分成大小相同的批次,方便后续模型的训练。
为了评价ResNet模型对于绿茶种类分类性能的评估,本试验采取准确率、错误率、精确率、召回率、F值和混淆矩阵作为评价指标。以本研究8种绿茶为例,准确率是模型识别8种绿茶整体性能的平均,错误率与准确率对应,因其基数较小,可适合用于识别平衡性的比较。精确率、召回率和F值是对其中的每类都进行性能评估。以安吉白茶为例,精确率是指所有预测为安吉白茶的样本中预测正确的比例;召回率则以真实标签为安吉白茶的样本为判断依据,是指被预测正确的比例占所有真实标签为安吉白茶的样本的比例;F值是综合指标,是精确率和召回率的调和平均。混淆矩阵能够总结对比分类预测结果和实际目标,从以N×N矩阵形式呈现,每一行之和是该类别的真实样本数量,每一列之和是被预测为该类别的样本数量,可以直接对分类方法的有效性进行评估。
2 结果与分析
2.1 优化算法的对比
本研究在选择ResNet-18为网络模型的基础上,对比SGD、RMsprop、Adam和Adadelta等4种算法。由于过拟合的原因,训练集上收敛的参数并不能在测试集上得到最优实现。因此本研究选择验证集准确率和训练时间作为比较的标准,试验数据如图2所示,可以看到SGD在这两方面都表现最优,不仅平均准确率最高达到了90.99%,而且所需训练时间最短为71.37 min。因此本试验选择SGD为最优算法。
2.2 模型深度的对比
ResNet采用恒等映射可以避免深层网络的“退化”问题,从而可以达到非常深的网络层数。通常网络层数的增加会带来ResNet性能的提升,但也存在计算量变大,收敛速度减慢,训练时间增加等问题[33]。
2.2.1 模型收敛速度
本研究中收敛是指网络模型的准确率在Epochs趋向于无穷(本研究Epochs最大值为19)时无限接近于模型的最优准确率。不同深度的ResNet网络,在Epochs变大的同时接近其最优准确率的速度是不同的。收敛速度越快,意味着快速稳健的融合,避免过拟合或者是陷入局部最佳状态[34]。利用逐渐加深的颜色来代表不同深度的ResNet层数,从上至下用相应颜色的直线来代表达到最优准确率的速度。如图3所示,4个不同深度的ResNet模型均无出现收敛抖动现象,最终都会收敛,其中ResNet-18的收敛速度最快,在Epochs达到7时,能够呈现稳定的收敛状态。
2.2.2 模型大小
目前,随着网络模型研究的不断深入,模型结构呈现越来越深的态势,计算的复杂程度随之加深,模型的大小和占据的内存量也随之增大。虽然现在计算机的硬件设施等正处于不断更新升级阶段,但在现阶段仍无法适应大规模的复杂网络模型,会限制其在手机电脑等智能设备上的使用[35]。因此在确保高准确率的基础上,本研究要找寻轻量级,便于在端设备上使用的合适深度的网络模型。不同深度的ResNet模型大小如表3所示,ResNet-18的模型大小为43.7 MB,所需空间最小,约为ResNet-34的52%,ResNet-101的26%,意味着它占内存更小,运算时间更快,更适合在移动端进行应用。
注:数据为3次重复的平均值±标准差(n=3)。柱形图上不同字母表示P<0.05,相同字母间无显著性差异
图3 不同深度ResNet模型的收敛速度
2.2.3 模型效率
模型的“效率”即要求快捷准确,评价的指标为识别每张图片所需要的时间和识别的准确率。由表3可知,4个网络模型在识别速度上存在显著性差异,识别速度由快到慢的排列顺序分别为:ResNet-18>ResNet-34>ResNet-50>ResNet-101,ResNet-18识别每张图片所需时间最短,仅需不到0.1 s便可识别一张图片,但从准确率来说4个网络模型准确率之间的差别很小,都达到了90%以上,且不存在显著性差异。
表3 不同深度ResNet模型的效率和大小
注:数据为3次重复的平均值±标准差(n=3)。表中前两列数据不同字母表示<0.05,相同字母间无显著性差异
Note: The data were mean ± Standard Deviation (n=3) for 3 repetitions. The data of the first two columns in the table showed different letters<0.05, but there was no significant difference between the same letters
2.2.4 模型识别的均衡性
模型识别准确率的均衡性的提升更有利于模型在实际中的应用,能够避免对特定种类识别性差的问题[36]。由图4可知,利用8种茶样识别错误率的平均偏差作为衡量指标,平均偏差值越小,说明模型的识别均衡性越强。
由图4可知训练集均衡性的排名为:ResNet-18>ResNet-101>ResNet-50>ResNet-34,验证集均衡性的排名为:ResNet-34>ResNet-18>ResNet-50>ResNet-101,ResNet-18,在训练集和验证集中识别的均衡性都较好。
本研究从模型的收敛速度、大小、效率、识别的均衡性4个角度衡量模型性能,最终选择以ResNet-18作为模型的基础构建绿茶识别模型,它收敛速度最快所需要的训练时间最短,在占有内存最小、识别速度的最快的基础上有效保持了图片识别的准确率,且在识别的均衡性上表现较好能够避免对于特定种类识别差的问题。因本研究的数据集更加还原生活场景进而证明了模型具有很强的实际运用能力,突破了以往很多研究中不能够充分再现实际多样性的局限[37]。王文成等在与本研究有相似条件(模型:ResNet-50;优化算法:SGD和momentum;数据集总量:908;识别对象:10种鱼类)背景干扰强度不是很大的情况下能够达到93.33%的平均准确率[38],说明背景的干扰以及图片不够清晰的问题也给识别准确率的提升带来了阻碍。在此基础上,可以通过统一的背景、实地拍摄使模型获得更多的有效信息使模型的准确率得以提高。在卷积神经网络对物种的分类识别中,拥有不同数据集总量(3 600、6 300、65 000)、平均每类拥有样本数(1 200、1 260、13 000)的玉米[39]、菊花[40]、花椒[41]平均识别准确率分别达到了95.49%、95.9%和99.35%(均为干净的布景,噪声小)。因此模型也可以通过扩大数据集、选取更具有代表性的茶叶图片实现优化提升。而中国的绿茶种类远不止本研究这8种,在接下来的研究中也可以扩展至其他茶类,实现更多茶类的智能识别。
2.3 8种绿茶预测分类结果
由表4可知,丽水香茶、六安瓜片、竹叶青、碧螺春的精确率、召回率和F值低,表明它们较容易被混淆为其他茶类,由图5可知安吉白茶和竹叶青、碧螺春和丽水香茶容易被互相混淆:在合并统计的3次验证集中,10张安吉白茶被错判为竹叶青,12张竹叶青被错判为安吉白茶,12张丽水香茶被错判成碧螺春,18张碧螺春被错判为丽水香茶,可能是由于其茶类特点存在着一定的相似性,安吉白茶和竹叶青都有一定挺直的外形,而碧螺春和丽水香茶存在着外形卷曲的相似性。
出现上述结果也都可能是由于背景存在着一定的干扰使其中一些图片的茶叶特点不能被很好的辨别,需要质量更高数量更大的数据集支持模型进一步学习。数据是深度学习的驱动力,数量、质量、预处理的合理性、标签精度都是其中的重要因子,可以通过随机裁剪、随机反转、随机亮度变换来扩增数据集[42],设置干净的布景采取不同角度进行实地拍摄获得质量更高的数据集,也可以预处理时裁剪成更小更集中的图像[43],多人多次核对标签来提高标签精度。
注:A:丽水香茶,B:信阳毛尖,C:六安瓜片,D:太平猴魁,E:安吉白茶,F:碧螺春,G:竹叶青,H:龙井
表4 8种绿茶的精确率、召回率以及F值
2.4 模型构建以及概述图
基于前面的试验研究,本研究esNet-18为基础,SGD为优化算法,以数据集大小及绿茶种类特点为依据,构建了1个基于ResNet卷积神经网络的绿茶种类识别模型,其主要识别过程如图6所示。
图5 ResNet-18的混淆矩阵热图
在训练学习模型时,每批次随机并排读取8张图片,其中以标红框的安吉白茶来概述绿茶种类识别程序。首先,通过图像预处理使得训练集的图像更加多样化,模型能获得更多特征数据,而在验证时则能够通过图像缩放和中心裁剪的方式来更精确地读取被识别的对象,从而提高模型的准确率。对图像进行识别时,将SGD作为优化算法,ResNet-18为网络模型,通过其输入层、卷积层、池化层、全连接层和输出层的顺序来完成识别。输出的方式以预测图形式呈现,简洁明了。
图6 绿茶种类分析程序识别概述
3 结论
在本研究中,通过对4种不同的优化算法进行比对和从不同方面来探究ResNet模型深度的影响,搭建了一种基于ResNet卷积神经网络识别不同种类绿茶的新模型。
对比SGD、RMsprop、Adam和Adadelta等4种优化算法,发现随机梯度下降(SGD)算法所需时间最短,识别准确率最高。
以ResNet-18、ResNet-34、ResNet-50、ResNet-101为试验对象探究ResNet模型深度的影响。ResNet-18在仅损失0.15%的准确率(ResNet-50平均识别准确率最高,达91.14%,ResNet-18为90.99%)和识别均衡性稍欠的情况下收敛速度最快,所需训练时间最短,识别速度最快(平均单张图片识别速度为0.098 s),所需空间最小(43.7 MB)。
本研究明确了8种茶类的混淆矩阵热图和各自的准确率、召回率和F值,发现丽水香茶、六安瓜片、竹叶青、碧螺春较容易被混淆为其他茶类,而安吉白茶和竹叶青、碧螺春和丽水香茶容易被互相混淆。
本研究构建的模型是深度学习在茶叶品种识别领域的初步应用,通过对优化算法的选择和对模型深度的探索,整体上取得了较优的识别效果。不仅为绿茶种类的识别提供了一个简洁高效的新方法,也为深度学习在茶叶领域的进一步应用奠定了相应的基础。
[1] 张颖彬, 刘栩, 鲁成银. 中国茶叶感官审评术语的形成与发展现状[J]. 茶叶科学, 2019, 39(2): 123-130. Zhang Y B, Liu X, Lu C Y. The development process and trend of Chinese tea comprehensive processing industry [J]. Journal of Tea Science, 2019, 39(2): 123-130.
[2] 黄藩, 刘飞, 王云, 等. 计算机视觉技术在茶叶领域中的应用现状及展望[J]. 茶叶科学, 2019, 39(1): 81-87. Huang F, Liu F, Wang Y. Research progress and prospect on computer vision technology application in tea production [J]. Journal of Tea Science, 2019, 39(1): 81-87.
[3] 傅隆生, 宋珍珍, Zhang Xin, 等. 深度学习方法在农业信息中的研究进展与应用现状[J]. 中国农业大学学报, 2020, 25(2): 105-120. Fu L S, Song Z Z, Zhang X, et al. Applications and research progress of deep learning in agriculture [J]. Journal of China Agricultural University, 2020, 25(2): 105-120.
[4] 严俊, 林刚, 赖国亮, 等. 测色技术在炒青绿茶品质评价中的应用研究[J]. 食品科学, 1996(7): 21-24. Yan J, Lin G, Lai G L, et al. Study on the application of color measurement technology in evaluating the quality of roasted green tea [J]. Food Science, 1996(7): 21-24.
[5] 龙立梅, 宋沙沙, 李柰, 等. 3种名优绿茶特征香气成分的比较及种类判别分析[J]. 食品科学, 2015, 36(2): 114-119.Long L M, Song S S, Li N, et al. Comparisons of characteristic aroma components and cultivar discriminant analysis of three varieties of famous green tea [J]. Food Science, 2015, 36(2): 114-119.
[6] 赵杰文, 郭志明, 陈全胜. 基于HPLC和模式识别的绿茶分类[J]. 江苏大学学报(自然科学版), 2010(3): 7-11. Zhao J W, Guo Z M, Chen Q S. Identification of green teas by HPLC and pattern recognition [J]. Proceedings of the Jiangsu University (Natural Science), 2010(3): 7-11.
[7] 范方媛, 徐鹏程, 李春霖, 等. 基于HPLC多元指纹图谱的龙井茶产地判别研究[J]. 中国食品学报, 2019, 19(10): 278-285. Fan F Y, Xu P C, Li C L, et al. Studies on geographical discrimination of Longjing teas based on multiple HPLC fingerprints [J]. Journal of Chinese Institute of Food Science and Technology, 2019, 19(10): 278-285.
[8] 门洪, 宁珂, 张艳平, 等. 基于FCM-SVM的差分脉冲伏安电子舌用于对绿茶的识别[J]. 中国农机化学报, 2013, 34(5): 201-205. Men H, Ning K, Zhang Y P, et al. Classification of green tea using differential pulse voltammetry electronic tongue based on FCM-SVM [J]. Chinese Journal of Agricultural Machinery Chemistry, 2013, 34(5): 201-205.
[9] 于亚萍, 赵辉, 杨仁杰, 等. 伏安型电子舌对不同种类绿茶的辨识[J]. 食品工业, 2018, 39(11): 209-213. Yu Y P, Zhao H, Yang R J, et al. Idenfication of green tea using voltammetric electronic tongue [J]. Food Industry, 2018, 39(11): 209-213.
[10] 蒋帆,乔欣, 郑华军, 等. 基于高光谱分析技术的机炒龙井茶等级识别方法[J]. 农业工程学报, 2011, 27(7): 343-348. Jiang F, Qiao X, Zheng H J, et al. Grade discrimination of machine-fried Longjing tea based on hyperspectral technology [J]. Agricultural Engineering, 2011, 27(7): 343-348.
[11] 林新, 牛智有. 基于近红外光谱茶叶种类的快速识别[J]. 华中农业大学学报, 2008(2): 166-170. Lin X, Niu Z Y. Fast discrimination of tea species based on Near Infrared Spectroscopy (NIRS) [J]. Journal of Huazhong Agricultural University, 2008(2): 166-170.
[12] 巴桂. 基于卷积神经网络的图像分类算法[J]. 电脑与信息技术, 2020, 28(1): 1-3. Ba G. Image classification method Based on convolution neural network [J]. Computer and Information Technology, 2020, 28(1): 1-3.
[13] 王伟凝, 王励, 赵明权, 等. 基于并行深度卷积神经网络的图像美感分类[J]. 自动化学报, 2016, 42(6): 904-914. Wang W N, Wang L, Zhao M Q, et al. Image aesthetic classification using parallel deep convolutional neural networks [J]. Journal of Automation, 2016, 42(6): 904-914.
[14] 黄斌, 卢金金, 王建华, 等. 基于深度卷积神经网络的物体识别算法[J]. 计算机应用, 2016(12): 3333-3340. Huang B, Lu J J, Wang J H, et al. Object recognition algorithm based on deep convolution neural networks [J]. Computer Applications, 2016(12): 3333-3340.
[15] Cai Y, Yang M, Jun L I. Multiclass classification based on a deep convolutional [J]. Frontiers of Information Technology & Electronic Engineering, 2015, 16(11): 930-939.
[16] 詹曙, 梁植程, 谢栋栋. 前列腺磁共振图像分割的反卷积神经网络方法[J]. 中国图象图形学报, 2017, 22(4): 516-522.Zhan S, Liang Z C, Xie D D. Deconvolutional neural network for prostate MRI segmentation [J]. Chinese Journal of Image and Graphics, 2017, 22(4): 516-522.
[17] 胡挺, 祝永新, 田犁, 等. 面向移动平台的轻量级卷积神经网络架构[J]. 计算机工程, 2019, 45(1): 17-22. Hu T, Zhu Y X, Tian L, et al. Lightweight convolutional neural network architecture for mobile platforms [J]. Computer Engineering, 2019, 45(1): 17-22.
[18] 卢宏涛, 张秦川. 深度卷积神经网络在计算机视觉中的应用研究综述[J]. 数据采集与处理, 2016, 31(1): 1-17. Lu H T, Zhang Q C. Applications of deep convolutional neural network in computer vision [J]. Data acquisition and processing, 2016, 31(1): 1-17.
[19] Wu L, Liu Z, Bera T, et al. A deep learning model to recognize food contaminating beetle species based on elytra fragments [J]. Computers and Electronics in Agriculture, 2019, 166: 105002. doi: 10.1016/j.compag.2019.105002.
[20] Yahya Altuntaş, Zafer Cömert, Kocamaz A F. Identification of haploid and diploid maize seeds using convolutional neural networks and a transfer learning approach [J]. Computers and Electronics in Agriculture, 2019, 163: 1-11.
[21] 张鹏, 徐欣楠, 王洪伟, 等. 基于深度学习的计算机辅助肺癌诊断方法[J]. 计算机辅助设计与图形学学报, 2018, 30(1): 90-99. Zhang P, Xu X N, Wang H W, et al. Computer-aided lung cancer diagnosis approaches based on deep learning [J]. Journal of computer-aided design, 2018, 30(1): 90-99.
[22] 赵树枫, 周亮, 罗双虎, 等. 基于稀疏卷积神经网络的考生识别算法[J]. 现代电子技术, 2019, 42(13): 61-64. Zhao S F, Zhou L, Luo S H, et al. Examinee recognition algorithm based on sparse convolutional neural network [J]. Modern Electronics Technology, 2019, 42(13): 61-64.
[23] 孙震笙, 柳鹏, 余涛, 等. 利用卷积神经网络对GF-3输电塔的检测与分类[J]. 遥感信息, 2019, 34(5): 88-97. Sun Z S, Liu P, Yu T, et al. Electricity pylon detection and classification for GF-3 imagery using deep convolutional neural networks [J]. Remote Sensing Information, 2019, 34(5): 88-97.
[24] 程文博, 张云, 周华民, 等. 基于卷积神经网络的注塑制品短射缺陷识别[J]. 塑料工业, 2015(7): 31-34. Cheng W B, Zhang Y, Zhou H M, et al. The short shot defect recognition of injection molded plastics based on convolution neural network [J]. Plastics Industry, 2015(7): 31-34.
[25] 冯兴杰, 张志伟, 史金钏. 基于卷积神经网络和注意力模型的文本情感分析[J]. 计算机应用研究, 2018, 35(5): 1434-1436. Feng X J, Zhang Z W, Shi J C. Text sentiment analysis based on convolutional neural networks and attention model [J]. Computer Applications Research, 2018, 35(5): 1434-1436.
[26] Chen J, Liu Q, Gao L W. Visual tea leaf disease recognition using a convolutional neural network model [J]. Symmetry, 2019, 11(3): 343.
[27] Borah S, Hines E L, Bhuyan M. Wavelet transform based image texture analysis for size estimation applied to the sorting of tea granules [J]. Journal of Food Engineering, 2007, 79(2): 629-639.
[28] 高震宇, 王安, 刘勇, 等. 基于卷积神经网络的鲜茶叶智能分选系统研究[J]. 农业机械学报, 2017, 48(7): 53-58. Gao Z Y, Wang A, Liu Y, et al. Intelligent fresh-tea-leaves sorting system research based on convolution neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(7): 53-58.
[29] 葛程, 孙国强. 基于卷积神经网络的图像分类研究[J]. 软件导刊, 2018, 17(10): 27-31. Ge C, Sun G Q. Image classification based on convolution neural network [J]. Software Guide, 2018, 17(10): 27-31.
[30] 杜云梅, 黄帅, 梁会营. 基于深度卷积神经网络的脑电图异常检测[J]. 华南师范大学学报(自然科学版), 2020, 52(2): 122-128. Du Y M, Huang S, Liang H Y. The detection of anomaly in electroencephalogram with deep convolutional neural networks [J]. Journal of South China Normal University (Natural Science), 2020, 52(2): 122-128.
[31] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [J]. Computer Vision and Pattern Recognition, 2016: 770-778.
[32] Hao X, Zhang G, Ma S. Deep learning [J]. International Journal of Semantic Computing, 2016, 10(3): 417-439.
[33] Zhang S, Zhang S, Zhang C, et al. Cucumber leaf disease identification with global pooling dilated convolutional neural network [J]. Computers and Electronics in Agriculture, 2019, 162: 422-430.
[34] 袁银. 基于深度学习的植物图像识别方法研究[J]. 现代农业科技, 2017, 709(23): 278-280. Yuan Y. Research on plant image recognition method based on depth learning [J]. Modern Agricultural Science and Technology, 2017, 709(23): 278-280.
[35] 胡挺, 祝永新, 田犁, 等. 面向移动平台的轻量级卷积神经网络架构[J]. 计算机工程, 2019, 45(1): 17-22. Hu T, Zhu Y X, Tian L, et al. Lightweight convolutional neural network architecture for mobile platforms [J]. Computer Engineering, 2019, 45(1): 17-22.
[36] 刘洋, 冯全, 王书志. 基于轻量级CNN的植物病害识别方法及移动端应用[J]. 农业工程学报, 2019, 35(17): 194-204. Liu Y, Feng Q, Wang S Z. Plant disease identification method based on lightweight CNN and mobile application [J]. Agricultural Engineering, 2019, 35(17): 194-204.
[37] Barbedo J A. Plant disease identification from individual lesions and spots using deep learning [J]. Bisoystems Engineering, 2019, 180: 96. doi: 10.1016/j.biosystemseng.2019.02.002.
[38] 王文成, 蒋慧, 乔倩, 等. 基于ResNet50网络的十种鱼类图像分类识别研究[J]. 农村经济与科技, 2019, 30(19): 60-62. Wang W C, Jiang H, Qiao Q, et al. Study on classification and recognition of ten fish images based on resnet 50 network [J]. Rural Economics and Technology, 2019, 30(19): 60-62.
[39] 徐岩, 刘林, 李中远, 等. 基于卷积神经网络的玉米品种识别[J]. 江苏农业学报, 2020, 36(1): 18-23. Xu Y, Liu L, Li Z Y, et al. Recognition of maize varieties based on convolutional neural network [J]. Jiangsu Agricultural Journal, 2020, 36(1): 18-23.
[40] 袁培森, 黎薇, 任守纲, 等. 基于卷积神经网络的菊花花型和品种识别[J]. 农业工程学报, 2018, 34(5): 152-158 Yuan P S, Li W, Ren S G, et al. Recognition for flower type and variety of chrysanthemum with convolutional neural network [J]. Agricultural Engineering, 2018, 34(5): 152-158.
[41] Tan C, Wu C, Huang Y, et al. Identification of different species of Zanthoxyli Pericarpium based on convolution neural network [J]. PLoS ONE, 2020, 15(4): e0230287. doi: 10.1371/journal.pone.0230287.
[42] 邱津怡, 罗俊, 李秀, 等. 基于卷积神经网络的多尺度葡萄图像识别方法[J]. 计算机应用, 2019, 39(10): 2930-2936. Qiu J Y, Luo J, Li X, et al. Multi-scale grape image recognition method based on convolutional neural network [J]. Computer Applications, 2019, 39(10): 2930-2936.
[43] Xue W, Hu X, Wei Z, et al. A fast and easy method for predicting agricultural waste compost maturity by image-based deep learning [J]. Bioresource Technology, 2019, 290: 121761. doi: 10.1016/j.biortech.2019.121761.
Construction of Green Tea Recognition Model Based on ResNet Convolutional Neural Network
ZHANG Yi1, ZHAO Zhumeng2, WANG Xiaochang2, FENG Haiqiang3, LIN Jie1*
1. The Key Laboratory for Quality Improvement of Agricultural Product of Zhejiang Province, Zhejiang A&F University, Hangzhou 311300, China; 2. Institute of Tea Science, Zhejiang University, Hangzhou 310058, China; 3. Planting Administration Bureau of Zhejiang Province, Hangzhou 310020, China
Green tea is the tea with the largest variety and output in China. Its appearance is an important basis for its classification. Image classification is one of the core technologies of computer vision, but its application in tea field is almost blank. Tea recognition still relies on the sensory evaluation methods by experts. This study collected 1713 pictures of 8 kinds of green tea (Lishui Xiangcha, Xinyang Maojian, Lu'an Guapian, Taiping Houkui, Anji Baicha, Biluochun, Zhuyeqing and Longjing). Based on the convolutional neural network, we explored the effects of ResNet model depth from the perspectives of model convergence speed, size, efficiency and identification balance. Finally, the ResNet-18 and SGD optimization algorithms were selected and a deep learning model was established to distinguish 8 kinds of green tea. The accuracy reached 90.99%, the recognition time of the single picture was only 0.098 s, and the model size was 43.7 MB. This paper provided the foundation for constructing a tea visual recognition model and applying it to the mobile terminals and provided a new accurate and efficient method for tea recognition.
convolutional neural network, deep learning, classification of green tea
S571.1;TP183
A
1000-369X(2021)02-261-11
2020-09-02
2020-10-26
国家自然科学基金(31800582)、浙江省农业重大技术协同推广计划(2020XTTGCY03)
张怡,女,本科在读,茶学专业,1417515598@qq.com。*通信作者:linjie@zafu.edu.cn
(责任编辑:赵锋)