利用无人机可见光遥感影像提取棉花苗情信息
2020-04-10戴建国薛金利赵庆展张国顺
戴建国,薛金利,赵庆展,王 琼,陈 兵,张国顺,蒋 楠
利用无人机可见光遥感影像提取棉花苗情信息
戴建国1,2,薛金利1,2,赵庆展1,2,王 琼3,陈 兵3,张国顺1,2,蒋 楠1,2
(1. 石河子大学信息科学与技术学院,石河子 832003;2. 兵团s空间信息工程技术研究中心,石河子 832003;3. 新疆农垦科学院,石河子 832003)
为提高棉花苗情信息获取的时效性和精确性,该文提出了基于可见光遥感影像的棉花苗情提取方法。首先,利用自主搭建的低空无人机平台获取棉花3~4叶期高分辨率遥感影像,结合颜色特征分析和Otsu自适应阈值法实现棉花目标的识别和分割。同时,采用网格法去除杂草干扰后,提取棉花的形态特征构建基于SVM的棉株计数模型。最后,基于该模型提取棉花出苗率、冠层覆盖度及棉花长势均匀性信息,并绘制棉花出苗率、冠层覆盖度的空间分布图。结果显示,模型的测试准确率为97.17%。将模型应用于整幅影像,计算的棉花出苗率为64.89%,与真实值误差仅为0.89%。同时基于冠层覆盖度、变异系数分析了棉花长势均匀情况。该文提出的方法实现了大面积棉田苗情的快速监测,研究成果可为因苗管理的精细农业提供技术支持。
无人机;遥感;棉田;出苗率;覆盖度;可见光
0 引 言
在现代农业生产过程中,精准的苗情信息是实现农作物因苗管理的关键。传统苗情获取主要依靠植保员田间抽样调查、手动估算,这种方式主观性强、精确度低且费时费力,难以满足当前农业发展要求。尤其随着精准农业的快速发展,大面积农作物信息的快速准确获取已成为农田精细管理的重要前提,在现代农业研究领域受到极大关注。
自20世纪90年代起,基于机器视觉技术的苗情监测在农业领域逐步得到广泛研究。经过多年发展,国内外学者在作物生长监测、病虫草害监测及产量估测等方面的研究[1-4]取得了丰硕的成果。但早期图像主要通过固定式(手持、三脚架)或行走式(农用机械、农用车、手推车)设备获取,在获取范围、获取速度等方面受到了一定限制,难以实现大面积的农情监测[5-8]。
随着无人机(unmanned aerial vehicles,UAV)和传感器技术的不断提高,田间影像数据的获取方式也更加多样化。对比固定式和行走式田间影像获取平台,可搭载多传感器的无人机平台具有效率高、成本低、操作灵活、更适合复杂农田环境等特点[9-10],不仅克服了人工获取影像数据的困难,还可减少人体接触对农作物的损害,为大范围农情信息获取提供了新的技术手段。
目前,针对无人机在农业中的应用研究十分活跃。赵必权等[11]将高分辨率遥感影像分割后提取油菜的形态特征,采用逐步回归分析方法,建立了油菜苗期株数监测模型,决定系数2为0.809。Gnädinger等[12]采用图像拉伸变换、多阈值分割等方法检测无人机影像中的玉米苗并计算出苗率,误差为5%。刘帅兵等[13]对采集的玉米苗期无人机遥感影像进行颜色空间变换实现作物与土壤的分割,再通过Harris、Moravec和Fast角点检测算法进行玉米株数识别,总体识别率可达97.8%。陈道颖等[14]采集航空可见光影像,结合K-means聚类、BP神经网络等算法实现了烟草苗株数量统计。牛亚晓等[15]使用自主搭建的无人机平台获取了多光谱遥感影像,采用监督分类与植被指数统计直方图相结合的方式实现了田间尺度冬小麦覆盖度提取。Jin等[16]结合低空无人机影像对小麦出苗密度进行估算,误差仅为9.01株/m2。
新疆棉花种植面积大(占耕地面积50%左右),机械化程度高,精细化管理需求强烈,大面积快速准确的苗情调查需求十分迫切。无人机遥感影像结合机器学习技术已经在农作物识别和长势监测中展现了强大优势,为实现苗情信息大面积快速提取奠定了基础。因此,本文针对大田环境中棉花苗情信息人工采集困难、误差大、效率低等问题,利用无人机遥感平台采集高分辨率棉花影像,研究棉花出苗率、冠层覆盖度及棉株长势均匀性等苗情信息的准确提取方法,以期实现苗期棉花长势的定量评估,为棉花精细化管理提供依据。
1 研究区及数据准备
1.1 研究区概况
研究区位于新疆生产建设兵团第八师145团蘑菇湖村。该地区(85°92′02″~85°92′31″E,44°39′14″~44°39′25″N)属典型的温带大陆性气候,冬季长而严寒,夏季短而炎热。年平均气温为6.2~7.9 ℃,年日照时长为2 318~2 732 h,年均降水量为180~270 mm[17]。该地区棉花主要采用机采棉种植模式(行距配置为一膜6行,行外间距为66 cm,行内间距为10 cm;株距为10 cm)。选取研究区大小为40 m×40 m,棉花种植品种为新陆早2号,进行试验时棉花处于3~4叶期。
1.2 遥感影像获取与预处理
本文试验数据于2018年5月25日通过无人机平台获取。飞行平台为大疆DJI四旋翼无人机悟Inspire 1 PRO,最大起飞质量3.5 kg,无风环境下水平飞行速度22 m/s,配备智能飞行电池TB47,最大飞行时长约为18 min。传感器采用大疆禅思X5(ZENMUSE X5)可见光相机,有效像素1 600万。影像获取时相机分辨率像素设定为4 608 ×3 456,焦距15 mm(定焦拍摄)。航拍时天气晴朗,无风无云,飞行高度设置为10 m,航向重叠度为60%,旁向重叠度为65%。拍摄时镜头垂直向下,悬停拍摄。
本次试验共采集93幅棉花可见光影像,数据以24位真彩色JEPG格式进行存储。利用Pix4Dmapper软件对其进行正射校正和影像拼接,拼接后得到的影像长约37.5 m,宽约35.4 m,空间分辨率为0.29 cm。为便于后续试验处理,首先对拼接影像进行裁剪去除边缘异常值。其次,采用Photoshop图像处理工具对影像数据进行切片分割,选取30幅典型图像进行试验。
1.3 地面调查数据获取
在获取无人机数据后,立即开展地面数据调查工作。试验区机采棉一膜6行,行内行外间距分别为10和66 cm,总宽为2.28 m,因此地面调查样方大小设置为2.28 m×2.28 m。研究区共设置5个样方点,分别统计每个样方的出苗株数(图1)。根据研究区机采棉一穴一粒的播种方式,可计算出每个样方的播种株数。出苗率为样方内出苗株数与播种株数之比,因而可计算出每个样方的出苗率。5个样方出苗率的平均值即为试验区整体出苗率,调查结果显示试验区整体出苗率为65.78%。
图1 研究区影像及样方分布
2 研究方法
本研究技术路线如图2所示,主要包括4个步骤:1)对获取得遥感影像进行预处理,选取典型图像进行试验;2)对图像进行颜色特征分析,结合最大类间方差法实现植被与背景分离并去除杂草影响,提取棉花目标;3)提取二值图像中各连通区域的形态特征,通过相关性分析筛选分类变量,基于支持向量机(support vector machine,SVM)构建棉花株数识别模型;4)将模型应用于整幅影像,获得研究区棉花出苗株数,进而计算棉花出苗率、冠层覆盖度及棉株长势均匀性。棉田影像分割、特征提取、相关性分析、SVM分类器构建分别采用MATLAB、SPSS等软件进行处理。
图2 技术路线图
2.1 目标提取
2.1.1 颜色特征分析
植被与背景(土壤)分离是获取棉花苗情信息的前提。观察棉田图像可以发现,图像主要由土壤、地膜和植物构成,其中土壤背景主要呈褐色,地膜背景主要呈白色,植物(棉花植株、杂草)主要呈绿色,因此可以通过对RGB颜色空间中红色、绿色和蓝色3种颜色成分进行线性组合以使作物与土壤及地膜差异最大化,从而实现作物与背景分离[18-21]。另外,颜色模型的合理选择对彩色图像精准分割来说至关重要[22]。因此,本文通过对棉田图像的颜色进行分析,分别选取RGB颜色模型中的绿-蓝差值指数(GBDI)、过绿指数(ExG)、归一化绿-红差值指数(NGRDI)、归一化绿-蓝差值指数(NGBDI),及YCrCb颜色空间绿色色差()、L*a*b*颜色空间*分量、L*a*b*颜色空间*分量、HSV颜色空间分量作为候选颜色指数,通过特征分析和棉田图像分割效果对比得到最佳颜色指数。颜色空间转换时,首先将图像红、绿、蓝3通道经过归一化转换为double类型的颜色参数,进而求取各颜色指数,转换公式及各候选颜色指数公式分别如公式(1)、表1所示。
式中、、为24位深影像数据的颜色分量,取值范围为0~255;、、为归一化后的颜色分量,取值范围为0~1。
表1 颜色指数列表
2.1.2 Otsu阈值分割
传统的图像分割算法主要包括边缘检测、阈值处理、基于区域分割等方式。最大类间方差法(Otsu)作为阈值分割方法,因其直观性和实现的简单性,在图像分割方法中一直占有重要地位[29]。Otsu方法由日本学者大津展之于1979年提出,按照图像的灰度特性将图像分成背景和目标两部分,并基于统计学的方法来选取一个阈值,使得这个阈值尽可能的将两者分开。首先,分别得到目标和背景的像元比例(以阈值为界限)0、1,及平均灰度0、1;然后计算影像总的平均灰度g;最后计算类间方差,方差越大,说明两部分差异越明显,分割图像越清晰。而最佳阈值就是类间方差最大时的阈值[30],公式如下:
2.2 棉株计数模型构建
分割完成后会得到多个连通区域。由于3~4叶期棉花苗连片生长现象已比较常见,使得一个连通区域内往往包含多株棉花,且图像中粘连棉株很难通过形态学操作进行二次分割,因此无法通过对连通区域简单操作直接获得棉株数量。前期研究表明,连通区域的形态特征与该区域内植株数量间存在很强的相关性[11,19],因此可以通过提取连通区形态特征构建模型实现棉株计数。
2.2.1 杂草噪声去除
由于棉田中杂草与棉花植株颜色相近,在经过颜色指数及Otsu自适应阈值分割后得到的二值图像会存在少量的杂草,因此需要进一步处理才可进行棉花株数统计。本文首先尝试通过腐蚀膨胀及形态学操作剔除杂草噪声。腐蚀是一种消除边界点使边界向内部收缩的过程,而膨胀是腐蚀的逆向操作,是使边界向外扩张的过程。本文首先选择合适的结构元素对图像进行腐蚀操作,以消除面积较小的杂草,然后通过膨胀操作尽量恢复被腐蚀掉的棉田的形态特征。
同时,观察棉田影像发现,由于铺膜的原因,只有位于未经地膜覆盖的垄间杂草才会被划分为有效连通区域。基于此,本文提出网格法去除杂草。该方法将获取的棉花影像旋转为田垄竖直的方向,然后对图像进行网格线划分,统计区域内质心个数,当个数少于3时则认为是杂草需要去除。网格线去杂草示意图如图3所示,其中,网格的宽度根据图像分辨率及棉苗行距确定,本试验间距划分为50像素值。
图3 网格法去除杂草示意图
2.2.2 特征选取
本文共对比研究了10种图像形态学参数,如表2所示。通过计算Person相关系数获得每个参数与植株数量间的相关性,作为建模特征选取的依据。
表2 图像形态学参数列表
2.2.3 基于SVM建立棉株计数模型
SVM作为监督分类方法,以VC维(Vapnik-Chervo-nenkis dimension)理论为依据、以结构风险最小化为原则,追求在有限样本信息下实现模型复杂度与模型学习能力之间的平衡,以获得最好的推广能力。
因此,本文利用形态特征结合支持向量机分类器来估算二值化图像中每个区域内棉花植株数量。基于SVM的棉花株数估算模型主要包括图像特征提取、划分数据集、训练及测试3部分。分别为:1)选取30幅图像进行试验,分割后提取二值图像中连通区域的形态特征作为模型的分类变量,并手动标记每个目标区域内植株数量作为模型识别结果,共计获取3 710条样本数据。由于样本中最大粘连为7株,因此,标签范围为1~7;2)数据集划分。将样本中80%用于模型训练,20%用于模型测试,训练过程中采用五折交叉验证;3)模型训练。本文试验核函数选用径向基函数(radial basis function,RBF),惩罚系数为1,为0.1。其中惩罚系数代表对误差的容忍程度,越大对误差的容忍度越小,模型容易过拟合;越小对误差的容忍度越大,模型容易欠拟合。是核函数RBF自带的一个参数,隐含地决定了数据映射到新特征空间后的分布,越大,支持向量越少;越小,支持向量越多。
2.2.4 模型精度验证
综合采用准确率和混淆矩阵对模型精度进行验证。其中准确率用于验证模型的有效性。混淆矩阵用于验证模型的可靠性。
2.3 冠层覆盖度提取及均匀性计算
叶面积指数是衡量作物长势的常用指标。由于3~4叶期棉花叶片重叠较小,因此本文采用冠层垂直覆盖度代替叶面积指数进行棉花长势监测。以每幅二值化图像为单位(像素值为800×800)计算冠层覆盖度,用以表征该区域棉花长势情况。冠层覆盖度公式如下所示:
基于冠层覆盖度的平均值计算变异系数(coefficient of variation,CV)表征棉花长势的均匀性。变异系数公式如下所示:
3 结果与分析
3.1 棉花目标提取结果分析
在本研究中随机选取30幅棉田图像,以50×50的像素截取图像中棉花植株、土壤、地膜样本点(每幅图像分别提取10个棉花植株、土壤、地膜测试点),进行颜色特征分析。图4为棉花植株、土壤、地膜在8个颜色指数上的统计直方图。各分量特征值均为0~255,为凸显不同地物的差异性,将部分图像波段特征值进行了截取。
图4 棉花、土壤和地膜的颜色直方图
图4是不同颜色指数对于棉田3种地表(棉花、土壤和地膜)的颜色直方图,图5是对应的分割效果图。从图中可以看出,在绿蓝波段上,土壤、地膜与棉花之间存在明显的间隔区域,分割效果好;在ExG分量上棉花与土壤有少许共同区域,且棉花在不同特征值处像素点分布较为均匀,分割效果不佳;NGRDI和分量的共同特点是棉花与地膜共同区域较大,且在棉花与地膜相交的波谷区域有一定的像素数,因此图像分割时会由于地膜无法去除干净而出现地膜的条状边。对于NGBDI分量,土壤和地膜位于的前段,棉花与土壤、地膜之间的波谷明显,应用Otsu阈值分割算法具有很好的分割效果。在L*a*b*颜色模型的*分量下,在波谷分界线处棉花与土壤有一定的像素数,分割时可能出现杂质;在*分量下棉花与土壤、地膜分割明显,且波谷处像素值几乎为0,因此,该特征值下棉田图像分割效果很好;在HSV颜色模型下的分量上棉花与土壤、地膜有明显的波谷,虽然波谷处像素值不为0,但在棉花30~150(灰度值)区域内,土壤、地膜掺杂几乎没有,因此分割效果也较好。通过对以上8个颜色特征进行综合分析表明:GBDI分量、NGBDI分量、*分量、*分量及分量均有较好的分割效果。综合对比分割结果,GBDI分量分割杂质更少、分割更为完整,因此本文选取GBDI分量用于棉花作物分割的颜色指数。
3.2 杂草噪声去除
通过腐蚀膨胀及形态学操作剔除杂草噪声效果如图6所示。对比去除杂草前后可以看出,该方法对于面积比较大的杂草去除效果不好,且有将棉株当作杂草去除的误操作,影响出苗率计算。同时,形态学操作也会影响棉花的形态特征,给模型分类带来一定的人为误差。网格法去除杂草噪声效果如图7所示,可以看出该方法不会影响图像的形态特征。
图5 不同颜色特征下Otsu分割结果
图6 腐蚀膨胀去除杂草噪声
图7 网格法去除杂草效果图
3.3 棉株计数建模
3.3.1 特征变量选择
本文提取了10类图像连通区形态参数作为候选特征(表2所示),为优选特征变量,通过Person相关系数计算了特征变量与植株间的相关性,如表3所示。
表3 特征变量与植株数量间的相关性
观察表3可以发现,除形态特征7、9与植株数量间相关性较差外,其余形态特征参数与植株数量的相关性绝对值均大于0.6,其中2(周长)与植株数量相关性最大,为0.771。本试验中选择相关系数大于0.7的形态参数作为最终的特征变量进行建模,即1(面积)、2(周长)、3(主轴)、5(外接矩形周长)、6(外接矩形长宽比)、8(外接矩形面积与周长比)。
3.3.2 模型评价
构建的SVM模型进行测试时,平均准确率为97.17%,其中测试准确率最低为94.12%,最高为99.00%。表4为混淆矩阵,比较了连通区域内植株的实际数量和预测数量。从表中可以发现,植株数量为1、2、3、6、7时,准确率较高;而植株数量为4、5时,准确率下降幅度较大,相互之间误分类比较严重;另一方面,当实际植株数量为1~4时,更容易发生过高估计。通过分析发现,误差可能是由棉花植株的不均匀性及植株冠层重叠引起的,当植株间的阴影、间隙等混杂时会引起形态特征误差,使其误分到大植株数量一类;而当植株冠层重叠度较大时,才会误分到小植株数量一类。基于混淆矩阵求得的Kappa系数为0.899 6,表明模型一致性较好。
表4 混淆矩阵
进一步对比图像识别和人工计数的出苗株数,以确定所提出方法的可行性。其中,图像识别统计误差在0.8%~4.7%之间,平均误差2.52%。图8为模型预测株数与真实株数间的比较分析。可以看出,模型预测株数比真实株数偏高,但总体上两者具有一致性。以上分析表明,利用SVM模型可以有效预测棉花植株数量,且精度高、误差小,统计结果可靠性较强。
图8 真实株数与预测株数比较分析
3.4 棉田苗情分析
3.4.1 棉花出苗率计算
为测试模型在不同地块尺度上的识别精度,本文将拼接影像按不同面积进行裁剪,其测试结果如表5所示。地面调查出苗率取棉田中五点取样调查结果的平均值。对比表5可以发现,基于棉花苗期影像进行出苗率识别与人工调查结果基本一致,且随监测面积增加,误差导下降趋势。
表5 不同地块尺度的棉花出苗率
3.4.2 棉花总体苗情分析
小范围内棉花冠层覆盖度可以反映棉花长势情况,因此,基于模型识别结果计算图像子单元的(像素值为800×800)的棉花冠层平均覆盖度,并绘制棉苗冠层覆盖度分布图直观显示苗情信息,如图9a所示。同时,绘制棉花出苗的热力图直观显示棉花出苗状况,如图 9b所示。从棉花整体出苗率(64.89%)、棉花冠层平均覆盖度(7.17%)、棉花冠层平均覆盖度图像及变异系数(10.98%)来看,该地块棉花出苗少、长势不均匀,整齐度较差。
图9 棉花冠层覆盖度和出苗率空间分布
4 结论与讨论
本文以3~4叶期棉花可见光影像为研究对象,通过颜色特征分析和Otsu自动阈值分割算法获取棉花二值图像,采用网格线法去杂草,基于植株形态特征建立棉株数量识别模型,从而获得棉田出苗率、冠层覆盖度等苗情信息。研究成果能够在较短时间内快速、准确的获取棉花苗情信息,为棉田精细化管理提供技术支持。主要结论如下:
1)基于颜色指数(GBDI)的图像分割能够解决棉田影像中地膜反光性强、影像明暗变化明显等问题,提高图像识别的适应性和鲁棒性。同时,针对棉田杂草分布特征,本文提出的网格线去杂草方法,能够避免形态学去噪方法造成形态特征改变的问题,去噪更加精准。
2)利用形态学特征构建的SVM分类模型能够有效解决叶片粘连时棉株的计数问题。模型分类精度达到97.17%,统计误差在0.8%~4.7%之间,平均误差2.52%。将模型应用于3种不同面积尺度地块上,预测的出苗率误差分别为5.33%、3.03%、0.89%,且随着监测面积的增加,误差呈下降趋势,说明模型在更大面积棉田上具有更好的适用性。同时,基于图像识别结果获得的棉花冠层覆盖度及冠层间变异系数,可有效获取棉花整体长势及均匀性信息。
本文研究发现图像分辨率对监测模型有较大影响,在3~4叶苗期,0.29 cm的分辨率效果最好,未来还可针对苗期不同阶段最适合的分辨率开展进一步研究。此外,随着深度学习技术的快速发展,深度卷积神经网络对图像中的抽象特征具有更好的提取和表达能力,对于真实农田复杂背景、不同图像分辨率、不同获取设备、不同亮度的图像都具备很好的鲁棒性,实用性良好,这也将成为下一步重点研究方向。
[1]贾彪. 基于计算机视觉技术的棉花长势监测系统构建[D]. 石河子:石河子大学,2014. Jia Biao. Establishment of System for Monitoring Cotton Growth Based on Computer Vision Technology[D]. Shihezi: Shihezi University, 2014. (in Chinese with English abstract)
[2]孙素云. 基于图像处理和支持向量机的苹果树叶部病害的分类研究[D]. 西安:西安科技大学,2017. Sun Suyun. Classification of Apple Leaf Disease Based on Image Processing and Support Vector Machine[D]. Xi’an: Xi’an University of Science and Technology, 2017. (in Chinese with English abstract)
[3]魏全全. 应用数字图像技术进行冬油菜氮素营养诊断的初步研究[D]. 武汉:华中农业大学,2016. Wei Quanquan. Preliminary Study on Diagnosing Nitrogen Status of Winter Rapeseed Based on Digital Image Processing Technique[D]. Wuhan: HuaZhong Agricultural University, 2016. (in Chinese with English abstract)
[4]李岚涛,张萌,任涛,等. 应用数字图像技术进行水稻氮素营养诊断[J]. 植物营养与肥料学报,2015,21(1):259-268. Li Lantao, Zhang Meng, Ren Tao, et al. Diagnosis of N nutrition of rice using digital image processing technique[J]. Journal of Plant Nutrition and Fertilizers, 2015, 21(1): 259-268. (in Chinese with English abstract)
[5]Burgos-Artizzu X, Angela R, Guijarro M, et al. Real-time image processing for crop/weed discrimination in maize fields[J]. Computers & Electronics in Agriculture, 2011, 75(2): 337-346.
[6]任世龙,宜树华,陈建军,等. 基于不同数码相机和图像处理方法的高寒草地植被盖度估算的比较[J]. 草业科学,2014,31(6):1007-1013. Ren Shilong, Yi Shuhua, Chen Jianjun, et al. Comparisons of alpine grassland fractional vegetation cover estimation using different digital cameras and different image analysis methods[J]. Pratacultural Science, 2014, 31(6): 1007-1013. (in Chinese with English abstract)
[7]贾洪雷,王刚,郭明卓,等. 基于机器视觉的玉米植株数量获取方法与试验[J]. 农业工程学报,2015,31(3):215-220. Jia Honglei, Wang Gang, Guo Mingzhuo, et al. Methods and experiments of obtaining corn population based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(3): 215-220. (in Chinese with English abstract)
[8]刘涛,孙成明,王力坚,等. 基于图像处理技术的大田麦穗计数[J]. 农业机械学报,2014,45(2):282-290. Liu Tao, Sun Chengming, Wang Lijian, et al. In-field wheatear counting based on Image processing technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(2): 282-290. (in Chinese with English abstract)
[9]高林,杨贵军,于海洋,等. 基于无人机高光谱遥感的冬小麦叶面积指数反演[J]. 农业工程学报,2016,32(22):113-120. Gao Lin, Yang Guijun, Yu Haiyang, et al. Retrieving winter wheat leaf area index based on unmanned aerial vehicle hyperspectral remote sensing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(22): 113-120. (in Chinese with English abstract)
[10]戴建国,张国顺,郭鹏,等. 基于无人机遥感可见光影像的北疆主要农作物分类方法[J]. 农业工程学报,2018,34(18):122-129. Dai Jianguo, Zhang Guoshun, Guo Peng, et al. Classification method of main crops in northern Xinjiang based on UAV visible waveband images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(18): 122-129. (in Chinese with English abstract)
[11]赵必权,丁幼春,蔡晓斌,等. 基于低空无人机遥感技术的油菜机械直播苗期株数识别[J]. 农业工程学报,2017,33(19):115-123. Zhao Biquan, Ding Youchun, Cai Xiaobin, et al. Seedlings number identification of rape planter based on low altitude unmanned aerial vehicles remote sensing technology[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(19): 115-123. (in Chinese with English abstract)
[12]Gnädinger F, Schmidhalter U. Digital counts of maize plants by unmanned aerial vehicles (UAVs)[J/OL]. Remote Sensing, 2017, 9(6): 544.
[13]刘帅兵,杨贵军,周成全,等. 基于无人机遥感影像的玉米苗期株数信息提取[J]. 农业工程学报,2018,34(22):69-77. Liu Shuaibing, Yang Guijun, Zhou Chengquan, et al. Extraction of maize seedling number information based on UAV imagery[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(22): 69-77. (in Chinese with English abstract)
[14]陈道颖,张娟,黄国强,等. 一种基于航空可见光图像的烟草数量统计方法[J]. 湖北农业科学,2017,56(7):1348-1350. Chen Daoying, Zhang Juan, Huang Guoqiang, et al. A statistic method for tobacco based on airborne images[J]. Hubei Agricultural Sciences, 2017, 56(7): 1348-1350. (in Chinese with English abstract)
[15]牛亚晓,张立元,韩文霆,等. 基于无人机遥感与植被指数的冬小麦覆盖度提取方法[J]. 农业机械学报,2018,49(4):212-221. Niu Yaxiao, Zhang Liyuan, Han Wenting, et al. Fractional vegetation cover extraction method of winter wheat based on UAV remote sensing and vegetation index[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(4): 212-221. (in Chinese with English abstract)
[16]Jin Xiuliang, Liu Shouyang, Baret Frédéric, et al. Estimates of plant density of wheat crops at emergence from very low altitude UAV imagery[J]. Remote Sensing of Environment, 2017, 198: 105-114.
[17]郭鹏,武法东,戴建国,等. 基于无人机可见光影像的农田作物分类方法比较[J]. 农业工程学报,2017,33(13):112-119. Guo Peng, Wu Fadong, Dai Jianguo, et al. Comparison of farmland crop classification methods based on visible light images of unmanned aerial vehicles[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(13): 112-119. (in Chinese with English abstract)
[18]Zhao Biquan, Zhang Jian, Yang Chenghai, et al. Rapeseed seedling stand counting and seeding performance evaluation at two early growth stages based on unmanned aerial vehicle imagery[J]. Frontiers in Plant Science, 2018, 9: 1362.
[19]Li Bo, Xu Xiangming, Han Jiwan, et al. The estimation of crop emergence in potatoes by UAV RGB imagery[J]. 2019, 15(1): 15.
[20]Han Liang, Yang Guijun, Dai Huayang, et al. Modeling maize above-ground biomass based on machine learning approaches using UAV remote-sensing data.[J]. Plant Methods, 2019, 15(1): 10.
[21]Bakhshipour A, Jafari A. Evaluation of support vector machine and artificial neural networks in weed detection using shape features[J]. Computers and Electronics in Agriculture, 2018, 145: 153-160.
[22]苏博妮,化希耀,范振岐. 基于颜色特征的水稻病害图像分割方法研究[J]. 计算机与数字工程,2018,46(8):1638-1642. Su Boni, Hua Xiyao, Fan Zhenqi. Image segmentation of rice disease based on color features[J]. Computer & Digital Engineering, 2018, 46(8): 1638-1642. (in Chinese with English abstract)
[23]Zheng Yang, Zhu Qibing, Huang Min, et al. Maize and weed classification using color indices with support vector data description in outdoor fields[J]. Computers and Electronics in Agriculture, 2017, 141: 215-222.
[24]Gitelson A, Kaufman Y, Stark R, et al. Novel algorithms for remote estimation of vegetation fraction[J]. Remote Sensing of Environment, 2002, 80(1): 76-87.
[25]汪小钦,王苗苗,王绍强,等. 基于可见光波段无人机遥感的植被信息提取[J]. 农业工程学报,2015,31(5):152-157. Wang Xiaoqin, Wang Miaomiao, Wang Shaoqiang, et al. Extraction of vegetation information from visible unmanned aerial vehicle images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(5): 152-157. (in Chinese with English abstract)
[26]Prasetyo E, Adityo R, Suciati N, et al. Mango leaf classification with boundary moments of centroid contour distances as shape features[C]. Intelligent Technology and Its Applications (ISITIA) 2018 International Seminar on, pp. 2018, 317-320.
[27]Zhao YS, Gong L, Huang YX, et al. Robust tomato recognition for robotic harvesting using feature images fusion[J/OL]. Sensors, 2016, 16(2): 173.
[28]王礼,方陆明,陈珣,等. 基于Lab颜色空间的花朵图像分割算法[J]. 浙江万里学院学报,2018,142(3):67-73. Wang Li, Fang Luming, Chen Xun, et al. Flower image segmentation algorithm based on Lab color space[J]. Journal of Zhejiang Wanli University, 2018, 142(3): 67-73. (in Chinese with English abstract)
[29]Wang Fubin, Pan Xingchen. Image segmentation for somatic cell of milk based on niching particle swarm optimization Otsu[J]. Engineering in Agriculture, Environment and Food, 2019, 12(2): 141-149.
[30]Xiao LY , Ouyang H L, Fan C D. An improved Otsu method for threshold segmentation based on set mapping and trapezoid region intercept histogram[J]. Optik, 2019, 196: 106-163.
Extraction of cotton seedling growth information using UAV visible light remote sensing images
Dai Jianguo1,2, Xue Jinli1,2, Zhao Qingzhan1,2, Wang Qiong3, Chen Bing3, Zhang Guoshun1,2, Jiang Nan1,2
(1.832003,; 2.832003,; 3.832003,)
The rapid and accurate seedling situation acquisition is an important prerequisite for farmland fine management, and also the basis for promoting the development of precision agriculture. It was found that UAV remote sensing images combined with machine vision technology had obvious advantages in crop detection in the field. However, current research mainly focused on crops such as corn, wheat, and rape, and only realized the extraction of emergence rate or coverage. In fact, there were few reports on the research of cotton overall seedling situation acquisition. In order to solve the problems of time-consuming and inefficient manual collection of cotton seedling information, this article explored a new method of extracting seedlings based on unmanned aerial vehicles (UAV) visible light remote sensing images. Firstly, cotton images in the 3-4 leaf stage were captured by the UAV equipped with a high-resolution visible light sensor. Meanwhile, the typical images were selected for experimentation after a series of preprocessing operations, such as correction, stitching, and cropping. The separation of cotton from the background (soil, mulch) was a primary prerequisite for obtaining cotton seedling situation information. The segmentation effect of eight color indexes on cotton image were compared and analyzed and the green-blue difference index (GBDI) color index was selected in this paper to realize the segmentation of cotton and background by combining with the Otsu threshold segmentation method because GBDI component was found to have fewer impurities and more complete segmentation. In order to avoid the influence of weed noise on the follow-up experiment, morphology and grid method for weed noise elimination were adopted, and the results showed that the grid method was more effective than the morphological method in removing weeds. A mapping relationship between morphological characteristics and the number of cotton plants was established to estimate the number of cotton. Because conglutinated cotton was difficult to be segmented by morphological operation, 10 morphological features were extracted as candidate variables to establish SVM plant number estimation model. A total of 3710 sample data were obtained in this experiment, 80% of which were randomly selected for classification modeling, while the remaining 20% were used for testing. Based on the person correlation analysis, 6 features whose correlation coefficient more than 0.7 were selected.The model was applied to the whole image to obtain the number of emerging cotton plants in the study area, and then the seedling emergence rate, canopy coverage and evenness of cotton plant growth were calculated, consecutively. The results showed that the classification accuracy of SVM plant number estimation model reached 97.17%, the statistical error ranged from 0.8% to 4.7%, and the average error was 2.52%. The error of the method decreased with the increase of monitoring area, which indicated that the model had better applicability in larger cotton fields. The cotton emergence rate, canopy coverage and growth uniformity were 64.89%, 7.17%, 10.98% respectively. The method based on the UAV visible light image effectively improved the efficiency of cotton field seedling acquisition, and the research results can provide technical support for subsequent cotton field management and fine plant protection.
unmanned aerial vehicle; remote sensing; cotton field; emergence rate; coverage; visible light
戴建国,薛金利,赵庆展,王 琼,陈 兵,张国顺,蒋 楠. 利用无人机可见光遥感影像提取棉花苗情信息[J]. 农业工程学报,2020,36(4):63-71. doi:10.11975/j.issn.1002-6819.2020.04.008 http://www.tcsae.org
Dai Jianguo, Xue Jinli, Zhao Qingzhan, Wang Qiong, Chen Bing, Zhang Guoshun, Jiang Nan.Extraction of cotton seedling growth information using UAV visible light remote sensing images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(4): 63-71. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2020.04.008 http://www.tcsae.org
2019-09-09
2020-01-14
国家自然科学基金资助项目(31460317);自然基金项目(41661089);国家重点研发计划项目(2017YFB0504203)
戴建国,教授,主要从事农业信息化和遥感技术研究。Email:daijianguo2002@sina.com
10.11975/j.issn.1002-6819.2020.04.008
TP751;S562
A
1002-6819(2020)-04-0063-09