基于深度学习和遥感数据的水稻种植面积提取
2023-12-25邱儒琼彭少坤李孟璠
邱儒琼 彭少坤 李孟璠
摘要:針对现有基于深度卷积神经网络进行水稻(Oryza sativa L.)遥感识别中样本采集工作量大、样本标注要求高及水稻感受野尺度选择难等问题,构建了一种基于像元和多尺度的深度卷积神经网络(DCNN)水稻遥感识别模型。首先,针对水稻种植分布特点,综合深度卷积神经网络方法的特点,设计了基于像元的DCNN提取模型;其次,将多尺度与DCNN相结合,构建多尺度DCNN模型,增加感受野的多尺度特性;最后,为了验证多尺度DCNN模型提取水稻的效果,以高分一号和高分二号卫星影像为数据源,选取传统机器学习SVM模型、语义分割D-Linknet模型、单一尺度DCNN模型进行分类精度对比分析。结果表明,本研究提出的多尺度DCNN模型的准确率、精确率、召回率、平衡F分数分别为97.75%、96.68%、99.08%、97.85%;与其他模型相比,多尺度DCNN模型结构简单、样本制作简便、识别精度高,具有较好的应用价值。
关键词:水稻(Oryza sativa L.);高分辨率遥感影像;深度学习;种植面积提取;像元分类;深度卷积神经网络(DCNN);多尺度DCNN模型
中图分类号:P237 文献标识码:A
文章编号:0439-8114(2023)11-0176-07
DOI:10.14088/j.cnki.issn0439-8114.2023.11.031 开放科学(资源服务)标识码(OSID):
Extracting rice planting area based on deep learning and remote sensing data
QIU Ru-qiong1,2,PENG Shao-kun2,LI Meng-fan2
(1.National Engineering Research Center of Geographic Information System ,China University of Geosciences(Wuhan), Wuhan 430074,China;
2.Hubei Development Planning Research Institute Co., Ltd., Wuhan 430071,China)
Abstract: A pixel and multi-scale Deep Convolutional Neural Networks (DCNN) rice(Oryza sativa L.) remote sensing recognition model was constructed to address the issues of large sample collection workload, high sample labeling requirements, and difficulty in selecting the scale of rice receptive fields in existing rice (Oryza sativa L.) remote sensing recognition based on Deep Convolutional Neural Networks. Firstly, based on the distribution characteristics of rice planting, a pixel based DCNN extraction model was designed by integrating comprehensively the characteristics of Deep Convolutional Neural Networks methods;secondly, by combining multi-scale and DCNN, a multi-scale DCNN model was constructed to enhance the multi-scale characteristics of the receptive field; finally, in order to verify the effectiveness of the multi-scale DCNN model in extracting rice, the traditional machine learning SVM model, semantic segmentation D-Linknet model, and single-scale DCNN model were selected for classification accuracy comparison and analysis using Gaofen-1 and Gaofen-2 satellite images as data sources. The results showed that the accuracy, precision, recall, and equilibrium F-scores of the multi-scale DCNN model proposed in this study were 97.75%, 96.68%, 99.08%, and 97.85%, respectively;compared with other models, the multi-scale DCNN model had a simple structure, simple sample production, and high recognition accuracy, which had good application value.
Key words: rice (Oryza sativa L.); high resolution remote sensing images; deep learning; extraction of planting area; pixel classification; deep convolutional neural networks (DCNN); multi-scale DCNN model
水稻、玉米等是中国的主要粮食作物,其中,水稻的种植面积和产量直接影响了湖北省的粮食安全,及时准确获取水稻等粮食作物的种植面积和种植结构,对于指导农作物种植、规划农产品生产布局和经济发展、保障粮食与耕地安全具有重要意义。
得益于航天航空技术的发展,遥感技术已经成为当前农作物分类、种植面积调查和监测的重要手段。传统的遥感分类方法包括面向像素的遥感分类方法和面向对象的遥感分类方法。单捷等[1]利用支持向量机,基于环境卫星影像对水稻进行识别,总体精度为80.38%。Xiao等[2]利用中低分辨率的卫星数据,计算了中国南部和东南亚地区水稻的NDVI、LSWI、EVI指数,对水稻种植面积进行提取和估算。陈树辉等[3]根据线性光谱混合模型,利用环境卫星数据和ALOS卫星数据对河南省息县的水稻进行类型监测和种植面积估算,将其结果与高分辨率ALOS数据进行位置精度计算,平均精度达87.89%。蒋怡等[4]在最大似然法的基础上,结合图像融合技术对四川省丘陵地区的水稻进行提取,在OLI影像上得到较高的精度,其中浅丘区平均精度为93.7%,深丘区平均精度为92.5%。玉素甫江·如素力等[5]以中分辨率的Landsat为主要数据,提出一种面向对象的决策树农作物分类方法,平均精度为92.09%。深度卷积神经网络(Deep convolutional neural networks,DCNN)具有局部链接、权重共享等特征,已广泛应用到遥感影像农作物分类中,并在高分辨率遥感影像上开展水稻提取研究[6-14],这些研究通常使用U-Net[15]、D-Linknet[16]等语义分割模型进行像素级分类,分类准确率超过90%。上述方法虽然得到很好的分类效果,但均需要高可靠的样本。在一个省级范围的工程实施中,细致化、高可靠的样本标注工作量将十分巨大,导致此类模型无法在大范围水稻面积提取中应用。同时,水稻种植的形状和面积多变,因此水稻感受野尺度是实现水稻高精度提取的关键。
本研究以湖北省江汉平原为研究区域,以高分辨率遥感影像的水稻种植面积提取为切入点,综合分析深度卷积神经网络方法的特点,设计一种基于像元和多尺度的DCNN提取模型,为基于高分辨率遥感影像的农作物自动化、智能化、高精度的信息提取提供技术参考和支撑。
1 研究区与数据预处理
1.1 研究区概况
研究区域如图1所示,在江汉平原潜江市和江陵县交界处。江汉平原位于长江中游,西起宜昌市枝江市,东迄武汉市,北抵荆门市钟祥市,南与洞庭湖平原相连,位于北纬29°26′—31°37′,东经111°14′—114°36′,面积4.6万km2,是重要的水稻产地之一。该区域气候湿润,属亚热带季风气候,年均降水量 1 100~1 300 mm,年均日照时数约2 000 h,年太阳辐射总值为460~480 kJ/cm2。
1.2 数据预处理
根据水稻的最佳识别时间选择2019年8月2日的高分一号(GF1)数据、2019年7月28日的高分二号(GF2)数据为数据源,进行大气校正、辐射校正等预处理工作。2019年8月18—24日在研究区进行实地采样,使用无人机DJI P4M+集思宝UG 905对研究区的水稻等地物样本边界轨迹进行采集。在ArcGIS软件平台中生成与遥感数据地理坐标、投影、地理位置匹配的野外调查数据集,辅助样本勾画和检验。图1为地面调查点分布情况,每簇地面调查点对应一张0.03 m×0.03 m分辨率的无人机影像。
本研究共构建2种类型的样本数据,一种是像元分类要求的样本数据,一种是语义分割要求的样本数据。样本数据的构建包括样本标签矢量数据勾画、规则样本生成和样本集制作3个步骤。
1.2.1 像元分类要求的样本标签矢量数据勾画 面向像元分类要求的样本标签矢量数据勾画可以采用传统遥感监督分类的样本采样方式(图2),即在地物上勾画纯净的图斑,无需将地物边界勾画出来。
根据地面调查点、无人机数据、GF1和GF2遥感影像,利用ArcMap软件在研究区域内勾画面向像元分类要求的样本标签矢量数据(表1)。
1.2.2 语义分割要求的样本标签矢量数据勾画 面向语义分割要求的样本标签矢量数据勾画要求准确表达样区内所有地物的边界。当不同地物在内业地物类别判定时,会引入判读误差,如水稻与玉米、花生等容易混淆。同时,长势不一的水稻也会增加相同地物的边界判定难度,进一步增加样本勾画的难度。图3为面向语义分割要求的水稻样本标签勾画范例。
根据地面调查点、无人机数据、GF1和GF2遥感影像,利用ArcMap软件在研究区域内勾画面向语义分割要求的样本标签矢量数据(表2)。
由表1、表2可知,面向语义分割要求的样本标签矢量数据勾画要求准确绘制所有地物的边界,面向像元分类要求的样本标签矢量数据勾画仅需绘制分类地物的纯净边界。在实际工程应用中,面向语义分割要求的样本标签矢量数据勾画工作量和工作难度将会大幅增加。
1.3 規则样本生成
1.3.1 像元分类要求的规则样本生成 第一步:输入表1的样本标签矢量数据,按照图4的流程进行规则样本制作;第二步:通过调用PyTorch的均值平滑、高斯平滑、高斯噪声、裁剪、镜像、缩放、旋转、锐化、平移样本增强算法,对上述规则样本进行样本增强,从而丰富样本数量和样本形态。
1.3.2 语义分割要求的规则样本生成 第一步:输入表2的样本标签矢量数据、遥感影像;第二步:设定样本的尺寸,按照尺度对样本标签矢量数据、遥感影像进行裁切,其中样本标签矢量数据裁切后输出为栅格Mask层,每个矢量图斑的像素值为样本类型编码,考虑研究区域内非水稻样本标签矢量数据较少,对输出栅格Mask层的非水稻地物类型编码统一赋值为0;第三步:对输出的栅格Mask层以及对应裁切的遥感影像块进行样本增强。
1.4 样本集制作
1.4.1 像元分类要求的水稻提取DCNN样本集
1)单一尺度像元水稻提取DCNN样本集。按照“1.3”项流程,利用GF2遥感影像的样本标签矢量数据,在GF2遥感影像上进行样本制作,样本尺度设定为13 px×13 px。像元分类基本样本数量通常较小,因此选择13 px×13 px作为输入大小。在GF2遥感影像上进行的最小样本面积集中在250 m2左右,采用13 px×13 px基本可以最大化地适用这些基本样本,同时增大感受野,从而得到尽可能多的特征上下文信息。
表3为单一尺度像元水稻提取DCNN样本集,并按照7∶2∶1划分为训练集、验证集和测试集。
2)多尺度像元水稻提取DCNN样本集。按照“1.3”项流程,利用GF2遥感影像的样本标签矢量数据,在GF2遥感影像上按照7 px×7 px、13 px×13 px、19 px×19 px 3个尺度进行样本制作,生成表4所示的样本集,并按照7∶2∶1划分为训练集、验证集、测试集。
1.4.2 语义分割要求的水稻提取DCNN样本集 按照“1.3”项流程,利用GF2遥感影像的样本标签矢量数据,按照128 px×128 px的样本尺度在GF2遥感影像上进行样本集制作,样本数据量为103 684个,并按照7∶2∶1划分为训练集、验证集、测试集。
2 基于像元和多尺度的水稻识别提取模型设计
深度卷积神经网络的经典模型一直层出不穷,但模型的基本单元未发生编号变化,主要包括输入层、卷积层、池化层、全连接层、输出层[17]。
2.1 基于像元分类的水稻提取DCNN模型构建
本研究借鉴LeNet-5[18]、ResNet[19]、AlexNet[20]等DCNN图像分类方法来实现水稻像素级别的遥感分类,其基本思路为将该像素及周边的区域作为一个像素块输入网络进行预测,通过像素块标定像素的类型以实现像素级别的遥感分类。中国的农田普遍存在零散化、地块面积小的问题,感知区域受到像素大小限制,因此采用AlexNet等复杂DCNN模型时会因为样本过小导致无法开展模型训练。LeNet-5是最早的卷积神经网络之一,其优势是卷积核较小,能有效减少网络的计算复杂度,且能够提取纹理及深度信息,使多通道间的信息相互关联增加交互,对数字识别和局部纹理重复显著、小图像的目标识别具有较好效果。同时,在样本上勾画上,LeNet-5只要求在地物目标中勾画有代表性的一个小块即可,不需要在全部图像范围内精细勾画目标的边界,大大减轻样本勾画难度。因此,本研究以LeNet-5为原型,通过对LeNet-5进行改进,提出可适用于水稻提取的DCNN模型。
模型总体架构包括输入层Input、卷积层C1、卷积层C2、卷积层C3、池化层P1、卷积层C4、池化层P2、全连接层、输出层Output,如图5所示。
表5为模型结构对应的具体参数描述,包括模型每层类型(Type)、步长(Stride)、卷积核大小(Patch size)、特征圖数(FeatureMap size)、每层输出尺度(Output size)。
2.2 基于多尺度的水稻提取DCNN模型优化
基于不同尺度的图像特征可以获取不同尺度下的上下文信息,从而提高模型对不同尺寸和形状水稻目标的提取能力。在深度卷积神经网络中,图像特征尺度与感受野密切相关。为了进一步提高模型性能,本研究将多尺度与DCNN相结合,构建多尺度融合网络,增加感受野的多尺度特性,实现更高精度的水稻提取。
对“2.1”项水稻提取DCNN模型的输入尺度进行调整,形成19 px×19 px×4 px、9 px×9 px×4 px、13 px×13 px×4 px 3个感受野不同的训练通道,如图6所示。3个训练的网络结构相同,并同时进行网络反向传播,共享网络权值。3个训练结果经过池化层P2后形成3个1 px×1 px×200 px的特征图,然后进行相加操作形成1 px×1 px×600 px的特征图,最后通过全连接层和输出层形成分类结果。
3 结果与分析
3.1 试验环境和参数设置
1)试验数据。将“1.4”项制作的样本集作为试验数据,训练集、验证集和测试集的比例为7∶2∶1。
2)软件环境。操作系统为内存64 GB的CentOS 7.2,深度学习框架为PyTorch 1.5,编程环境为Python 3.5。
3)硬件环境。CPU型号为Intel(R) Xeon(R) E5-2650 v4 @2.20 GHz,GPU为Tesla P100。
4)参数设置。batch size设定为256,学习率初始设置为0.003,通过贝叶斯自动化调参框架进行学习率调整。
3.2 模型训练过程
图7为“2.1”项设计的模型(单一尺度DCNN模型)在训练集和验证集上随迭代数(Epoch)的准确率(acc)变化折线图。模型在第23个Epoch的时候,将学习率从0.003调整为0.000 6;模型在第31个Epoch的时候,学习率从0.000 6调整为0.000 12,模型基本稳定。
3.3 分类结果与精度分析
表6为单一尺度DCNN模型在测试集上分类结果的混淆矩阵,水稻分类精确率(Precision)为95.93%,召回率(Recall)为98.67%,平衡F分数(F1-Score)为97.28%。结果表明,单一尺度DCNN模型对水稻及非水稻地物均有较高的准确率,说明单一尺度DCNN模型对地物分类的支撑和泛化能力较强。
3.4 不同模型的水稻提取效果分析
为了验证“2.2”项设计的模型(多尺度DCNN模型)提取水稻效果,选取传统机器学习的SVM模型、语义分割的D-Linknet模型和单一尺度DCNN模型进行对比分析。
3.4.1 单一尺度DCNN模型与SVM模型的对比 计算了单一尺度DCNN模型和SVM模型(选取径向基函数为核函数)在测试集上的准确率、精确率、召回率和平衡F分数,结果如表7所示。
水稻分类效果如图8所示,采用SVM模型盐噪声问题严重,且容易与非水稻的植被混淆,易将水稻误识别为林地、菜地。单一尺度DCNN模型能够较好地处理盐噪声问题,且分类准确率较SVM模型有较大提升。
3.4.2 单一尺度DCNN模型与D-Linknet模型的对比 由表8可知,相较于D-Linknet模型,单一尺度DCNN模型的精确率较低、召回率较高、平衡F分数相近,2种模型都能准确提取绝大部分的水稻。
由图9可知,针对水稻边界细节信息,D-Linknet模型提取结果更接近标签地物边界,表现更优。因此,后续研究可结合D-Linknet模型结构的优点,对单一尺度DCNN模型结构进行优化,构建既有分类精度又有边界精度的水稻提取模型。
3.4.3 单一尺度DCNN模型与多尺度DCNN模型的对比 由表9可知,相较于单一尺度DCNN模型,多尺度DCNN模型在准确率、精确率、召回率、平衡F分数上均有提升。
由图10可知,从整体提取效果看,多尺度DCNN模型提取的水稻边界更加合理,且水稻内的孔洞较少,表现优于单一尺度DCNN模型。
4 小结与展望
针对当前基于深度学习的高分辨率遥感影像水稻提取存在的标签样本匮乏、采集成本高等问题,借鉴LeNet-5、AlexNet等图像分类方法,基于高分卫星影像,使用多尺度DCNN模型对水稻进行提取,并与传统机器学习SVM模型、语义分割D-Linknet模型、单一尺度DCNN模型进行对比。研究区域的水稻提取结果显示,多尺度DCNN模型水稻提取准确率、精确率、召回率、平衡F分数分别为97.75%、96.68%、99.08%、97.85%,与试验的其他模型相比,多尺度DCNN模型结构简单、样本制作简便、识别精度高。后续将进一步研究将多尺度DCNN模型与D-Linknet模型的优点融合,既解决样本匮乏的问题,同时得到既有分类精度又有边界精度的水稻提取效果。
参考文献:
[1] 单 捷,岳彩荣,江 南,等.基于环境卫星影像的水稻种植面积提取方法研究[J]. 江苏农业学报, 2012(4):728-732.
[2] XIAO X,BOLES S,LIU J,et al.Mapping paddy rice agriculture in southern China using multi-temporal MODIS images[J]. Remote sensing of environment, 2005, 95(4): 480-492.
[3] 陈树辉,李 杨,曾凡君, 等. 基于环境星的混合像元分解水稻面积提取[J]. 安徽农业科学, 2011,39(10): 6104-6106.
[4] 蒋 怡,李宗南,李丹丹, 等.基于OLI影像的四川丘陵地区水稻种植面积监测[J]. 西南农业学报, 2018,31(5):1051-1054.
[5] 玉素甫江·如素力,李兰海,哈丽旦·司地克,等.基于面向对象决策树的农作物分类识别方法[J]. 新疆师范大学学报:自然科学版, 2016,35(1):25-32.
[6] 谢登峰,张锦水,潘耀忠,等. Landsat 8和MODIS融合构建高时空分辨率数据识别秋粮作物[J]. 遥感学报,2015,19(5):791-805.
[7] 陈安旭,李月臣. 基于 Sentinel-2 影像的西南山区不同生长期水稻识别[J]. 农业工程学报,2020,36(7):192-199.
[8] 高永康, 王腊红, 陈家赢,等. 一种利用形态相似性的水稻信息提取算法[J]. 遥感信息, 2020,35(2): 76-86.
[9] 许童羽, 胡开越, 周云成, 等.基于 CART決策树和 BP神经网络的Landsat 8 影像粳稻提取方法[J]. 沈阳农业大学学报,2020,51(2):169-176.
[10] 王建勋,华 丽,邓世超,等. 基于GF-1与MODIS时空融合的南方丘陵区水稻提取研究[J]. 中国农业资源与区划,2019,40(5):37-46.
[11] 赵亚杰, 黄进良, 王立辉,等. 基于时空融合NDVI及物候特征的江汉平原水稻种植区提取研究[J]. 长江流域资源与环境,2020, 29(2):424-432.
[12] 赖格英,杨星卫. 南方丘陵地区水稻种植面积遥感信息提取的试验[J]. 应用气象学报, 2000, 11(1):247-254.
[13] ZHONG L,HU L,ZHOU H. Deep learning based multi-temporal crop classification[J].Remote sensing of environment,2019(221):430-443.
[14] HUETE A,DIDAN K,MIURA T,et al. Overview of the radiometric and biophysical performance of the MODIS vegetation indices[J].Remote sensing of environment,2002,83(1-2):195-213.
[15] RONNEBERGER O, FISHCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation[A].Medical image computing and computer assisted intervention society.International conference on medical image computing and computer-assisted intervention[C]. Cham: Springer, 2015. 234-241.
[16] 郑 鑫,潘 斌,张 健.可变形网络与迁移学习相结合的电力塔遥感影像目标检测法[J].测绘学报,2020,49(8):1042-1005.
[17] 刘艳飞. 面向高分辨率遙感影像场景分类的深度卷积神经网络方法[D]. 武汉:武汉大学,2019.
[18] 吴阳阳, 彭广德, 吴相飞.基于LeNet-5改进的卷积神经网络图像识别方法[J]. 信息与电脑, 2018(7):127-130.
[19] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[A]. IEEE conference on computer vision and pattern recognition. proceedings of 2016 IEEE conference on computer vision and pattern recognition[C]. Las Vegas:IEEE. 2016. 770-778.
[20] KRIZHERVSKY A, SUTSKERVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[A].Conference and workshop on neural information processing systems.Advances in neural information processing systems[C]. Stateline:Stateline, 2012.1097-1105.