高分辨率遥感影像的平原建成区提取
2016-11-15李苓苓梅立琴谭毅华
温 奇,王 薇,李苓苓,梅立琴,谭毅华
(1.民政部国家减灾中心,北京 100124;2.华中科技大学 自动化学院,湖北 武汉 430074)
高分辨率遥感影像的平原建成区提取
温奇1*,王薇1,李苓苓1,梅立琴2,谭毅华2
(1.民政部国家减灾中心,北京 100124;2.华中科技大学 自动化学院,湖北 武汉 430074)
通过分析高分辨率遥感影像中平原建成区的纹理特征和局部关键点特征,提出了基于多核学习、多尺度分割以及多假设投票的平原建成区提取方法。该方法利用MR8纹理特征和尺度不变特征变换(SIFT)算法提取建成区,融合多个特征进行学习和分类,从而加强了分类器的鲁棒性和稳定性,提高了检测准确率。该方法还通过超像素分割和多假设投票将基于图像块的判别结果转化为基于像素的检测结果,完全消除块状效应,使得目标区域具有准确的边缘和形状。在多幅GF-1卫星遥感图像上进行测试,结果显示:提出方法的平均检测精度为80%,平均召回率高于85%,平均F值可达80%以上,综合指标高于其他方法,验证了提取平原地形建成区的可行性和准确性。由于建成区提取结果已精确到了像素级别,同时避免了漏检和误检,提取出的建成区影像很准确。
高分辨率遥感影像;平原建成区提取;多假设投票;多特征学习;多尺度分割
1 引 言
建成区指市行政区范围内经过征用的土地和实际建设发展起来的非农业生产建设地段,主要指建筑物密集分布的区域。本文所述的建成区包括城市区域和乡镇区域,位于建成区内部的水体绿地等区域和村落房屋聚集区也属于本文的建成区提取范畴。在我国广袤的国土范围内,地震、滑坡泥石流等自然灾害频繁发生,使人民群众的生命和财产遭受了极大损失。利用遥感影像提取建成区轮廓可以作为建筑物数量估算、街区地理网格构建等工作的前期处理步骤,并可为灾害损失评估、应急救援和灾后恢复重建提供信息支持。高分辨率遥感影像中的地物目标信息更加丰富、精确,纹理和结构信息更加明显[1],利用高分辨率遥感数据精确提取建成区轮廓也成为近年来学术界研究的热点之一。
在上述背景下,学者们对遥感影像建成区提取技术进行了探索和研究,并已取得了大量的科研成果。从有无监督的角度,建成区提取方法可以分为两种:一种是无监督分类的方法。Sirmacek和Unsalan在2009年提出了一种用SIFT(Scale Invariant Feature Transform)提取关键点和图理论检测城区和建筑物的方法[2]。Tao等人提出了在多分辨率影像上提取Harris角点,再通过角点分布构造似然函数以提取候选城区的方法[3]。利用改进后的Harris角点检测方法[4-5],能够更精确地提取出影像中的角点,减少噪声的干扰,使后续提取出的建成区范围更加精确。黄昕提出一种基于形态学理论的多方向多尺度建筑物指数MBI(Morphological Building Index),该指数对于建成区判别效果显著[6];另一种是采用有监督特征学习的方法检测建成区。Barnsley和 Rarr用像元光谱特征学习的方法对遥感影像中的城区地物进行判别和分类[7]。Yu等人用马尔可夫随机场和贝叶斯模型,结合地图知识和上下文信息建立一种反馈控制机制,在SPOT图像中检测建成区并进行图像的鲁棒性分析[8]。L. Weizman等人通过将一批图像分割为大小相同的子块进行离线训练,形成视觉词典,然后用该视觉词典对另一批图像进行在线测试,由于训练样本来自大量不同的图像,故该方法能够克服多种场景变化[9]。Tao等人采用多核学习和图割的方法进行城区检测,并融合了多特征对图像子块进行学习和判别,为了优化图像块判别结果,用图割方法进行平滑,最终得到像素级的检测结果[10]。
以上方法在进行建成区检测时,由于对建成区边界范围的准确性考虑不足,导致提取出的建成区边界和实际边界差异较大,同时也存在较多的漏检和误检的情况。本文结合高分辨率遥感影像中平原建成区的特点,提出了一种基于多核学习、多尺度分割以及多假设投票的平原建成区提取方法,该方法将建成区提取结果精确到像素级别,同时能够尽量避免漏检和误检的情况,因此可以提取出更加准确的结果。
2 高分辨率遥感影像平原建成区检测
2.1算法设计流程
经过大量的观察分析,发现平原建成区一般有以下特点:
(1)平原地区相对人口稠密,建成区总面积较大,而且分布较为集中。
(2)背景较为平坦单一,建成区周边一般分布着梯田、植被、河流。
(3)建成区内部纹理粒度较大,纹理特征与背景有明显差别。
(4)在平原建成区区域内部,灰度变化较均匀平坦,局部关键点并不丰富。
考虑到平原建成区的以上特点,选用MR8 (Maximum Response 8)纹理特征检测建成区区域,同时使用SIFT特征滤除虚警,对有标签的训练数据集分别提取MR8特征和SIFT特征构建各自的数据词典,生成特征向量后分别训练SVM分类器,实现有监督的多特征学习;然后构造线性分类器进行图像块的判别。为获取更加精确的边缘并进一步滤除虚警,对图像进行不同参数组合的超像素分割,结合图像块得分与植被指数进行像素级的多假设投票。其算法流程如图1所示。
图1 平原建成区提取方法Fig.1 Extraction method of plain built-up area
2.2图像预处理
卫星获取的遥感影像需经过一定的预处理步骤,才能达到建成区提取的使用标准。本文所采用的遥感影像预处理技术包括正射校正、图像配准和对比度拉伸。
由于地形变化和传感器误差等的影响,原始遥感影像会有一定的几何畸变。正射校正可以消除这些几何畸变,使得校正后影像的空间位置更为准确。而采用ENVI对原始影像进行正射校正,可以消除几何畸变,并使影像携带地理坐标,通过地理坐标可以将分辨率不同的全色影像与多光谱影像进行匹配,以便进行后续的检测步骤。
在对全色影像和多光谱影像进行正射校正之后,图像上同一地点的地理坐标可能存在细微的偏移,因此需要对全色和多光谱影像进行配准。配准方法有很多,如基于改进BRISK特征的快速图像配准算法[11]、采用图像斑点特征和角点特征相结合的配准方法[12]、结合区域分割的SIFT图像匹配算法[13]、应用FREAK算子的多线程并行加速配准算法[14]等。考虑到ENVI具有自动、准确、快速的特点,而且配准后的图像可以使后续像素级的投票判别更加精确。本文用其Image Registration Workflow进行全色影像和多光谱影像的配准。
通常情况下,直接获得的原始遥感影像数据的数值分布范围过小,对比度过小,使得影像整体偏亮或者偏暗,势必会影响有用信息的提取。线性拉伸是最典型的用于改善对比度的方法,其通过对图像像素值进行定比例变化来改善对比度。
在遥感影像处理中,最常用且效果最好的是2%线性裁剪拉伸。2%线性裁剪拉伸是计算出原始图像的直方图后,对图像亮度值分布在2%~98%的像素做线性拉伸,即在拉伸时,去除小于2%和大于98%的值,这样绝大多数异常值会在拉伸时舍掉。
图2为影像上截取的同一片区域预处理前后的结果。由图2可知,经过对比度拉伸预处理后,明显加大了背景与目标的对比度,使图像整体变得清晰。
图2 影像预处理(上为原图,下为预处理结果图)Fig.2 Image pre-processing(the upper one is the original image, the below one is the image after pre-processing)
2.3基于MR8和SIFT特征学习的图像块判别
本文通过提取SIFT局部关键点特征和MR8纹理特征,构造SVM线性分类器,进行建成区提取。
SVM是90年代中期发展起来的基于统计学习理论的一种机器学习方法[15],其在统计学习的VC维理论和结构风险最小原理基础上建立,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而在统计样本量较少的情况下,也能获得良好的统计规律。SVM适用于训练样本较少情况下的分类问题,具有结构简单、全局最优泛化能力好和计算复杂度低等特点,而且具有较强的高维样本处理能力。
SIFT由David Lowe在1999年提出[16],SIFT算子通过构造尺度空间,并在尺度空间中提取极值点,从而寻找出保持尺度旋转不变性的量,进而描述并探测图像中的局部性特征,它具有稳定、特征点丰富、运行速度快的特点。文献[17]提出了改进后的SIFT算子,即在SIFT原有框架的基础上融入全局形状信息和颜色不变信息,本文使用改进后的SIFT算子进行建成区提取,以有效提升建成区的提取精度。MR8滤波器组由38个滤波器组成,但是只输出沿各个方向的最大响应值,组成一个8维的滤波响应信号,其具有旋转不变性。MR8滤波器组不仅能提取到图像精细的局部纹理特征,而且去除了冗余响应,具有良好的纹理分类性能和效率。
接着,用以上特征构造SVM线性分类器:首先,将含有建成区的图像子块和含有非建成区的图像子块组成训练样本集,分别提取上述特征,生成视觉词汇表;然后,对于每类特征,利用该视觉词汇表对输入的测试图像进行相关特征的提取和描述;最后利用每类特征训练得到的w值和b值,计算线性分类器如下:
y=w*x+b.
(1)
对于数量为M的训练样本集合,每个样本包含N个像素。对于SIFT局部关键特征来说,一共可形成(M×N)×128维特征矢量集,对于MR8纹理特征来说,一共形成维特征矢量集。用K-Means聚类方法对特征矢量集进行聚类,假设聚成L(L=1 024)类,聚类后得到的每类中心对应的特征向量可看作是一个视觉词汇。由此,生成由L个视觉词汇{w1,w2,…,wL}组成的视觉词汇表W。生成视觉词汇表后,根据该词汇表提取相关特征步骤如下:
step1用测试图像像元点的特征向量与对应的视觉词汇表中的每个视觉词汇进行比较,从中找出最相近的视觉词汇,来表示该像元点(x,y),从而将测试图像中每个像元点(x,y)对应到视觉词汇表中的一个视觉词汇上,假设该像元点对应的视觉词汇为wi,则记f(x,y)=i。
step2用视觉词汇直方图描述测试图像中视觉词汇的出现频率,即统计视觉词频为:
hi=∑I(f(x,y)=i)i=0,1,…L-1,
(2)
式中,i为特征单词wi序数,hi表示测试图像中特征单词wi的数目。
利用学习得到的SVM参数,可将每个图像块的判读得分映射到-1和1之间。其值越接近1,则该图像块是建成区的可能性越大;越接近-1,则是非建成区的可能性越大。
如上所述,该多核学习框架下的图像块判读得分为:
(3)
其中dj(j=1,2)表示SIFT关键点特征、MR8纹理特征的权值,w和b为训练得到的每类特征SVM分类参数。
用MR8和SIFT特征组成线性分类器,对每一图像块进行判别,根据公式(1)可知其判别得分如下式所示:
Scoresblock=dMR8(wMR8Xblock+bMR8)+
dSIFT(wSIFTXblock+bSIFT),
(4)
其中,Scoresblock表示任意block的判读得分,Xblock表示任意block的视觉词汇直方图。wMR8、wSIFT和bMR8、bSIFT分别表示经过训练得到的MR8特征分类器和SIFT特征分类器的w和b参数。dMR8和dSIFT分别表示MR8特征分类器和SIFT特征分类器的权值,依据设定不同权值进行实验的结果可知,在选取dMR8=0.8,dSIFT=0.2时效果最佳。
2.4基于超像素块的多假设投票判别
多假设投票是为了得到更准确的基于像素水平的检测结果,这涉及到图像的超像素表达,多参数假设的设置和多假设投票结果的融合。
超像素是将一些具有一定相似性且空间位置相邻的像素归为一个像素对待,这个像素具有一定的形状和位置。超像素块的内部像素不仅位置相邻,而且具有相似的颜色、纹理、亮度等特征。超像素分割方法既考虑了像素间的空间关系,也考虑了像素间的相似性,可以省略大量的冗余信息,大大降低图像处理的复杂度。本文中的超像素表达采用SLIC(Simple Linear Iterative Clustering)方法[14],即简单线性迭代聚类,该方法不仅能使分割结果保持相对较准确的边缘,而且计算速度较快。
采用SLIC方法对图像进行超像素分割,分割结果取决于紧致度参数c和分割块数n。令分割块数为n=sqrt(wh/k)。其中k为聚类中心初始距离,w和h为图像的宽度和高度。多假设表达可以通过变换参数组合得到,这里取:
(1)c=15,k=5;(2)c=15,k=10;
(3)c=15,k=15;(4)c=15,k=20
用V1,V2,V3,V4表示不同超像素分割参数组合情形下得到的投票结果。多假设投票结果可表示为:
V=(V1+V2+V3+V4)/4.
(5)
结合MR8和SIFT特征学习的得分结果,对超像素块进行投票,投票结果记为S(scores)。MR8和SIFT特征学习判别是基于图像块的,分别计算MR8和SIFT特征学习判别对第i个超像素的投票,其中block(pix)为像素pix所属的图像块,scoresblock(pix)为其所对应的判别得分,Ni表示第i个超像素块的像素个数。
(6)
平原地区存在部分植被等干扰,虽然通过SIFT特征学习可以去除部分植被虚警,但为了达到更好的虚警去除效果,可以通过计算归一化植被指数NDVI(Normalized Difference Vegetation Index)来进一步去除植被虚警。植被指数定义为可见光红光波段和近红外波段光谱之差与之和的比值[15],如下式所示:
(7)
其中INir和IRed分别为近红外波段和可见光红光波段的光谱反射率。
通过上式求得的植被指数统计是基于像素的,应当将其转化为基于超像素块来计算,其投票结果记为S(ndvi),用求平均值的方法对像素所属的超像素块进行投票。
(8)
其中,NDVIpix为像素pix的植被指数,Ni表示第i个超像素块的像素个数。
综上所述,记S1,S2,S3,S4为不同参数假设下的超像素投票结果,像素pix在不同假设下分别属于第i、j、k、l个超像素块,则最终投票结果可表示为:
Vpix(scores)=(S1i(scores)+S2j(scores)+
S3k(scores)+S4l(scores))/4,
(9)
Vpix(ndvi)=(S1i(ndvi)+S2j(ndvi)+
S3k(ndvi)+S4l(ndvi))/4,
(10)
则得到最终的建成区判别准则:
(11)
其中,阈值分割参数t1=0,t2=0.2,为实验获得的最佳阈值组合。
2.5结果后处理
以上获得的建成区提取结果是像素级别的,在提取结果中存在将建成区区域中的部分像素误判为非建成区或相反的情况。实际情况中,某一像素周边像素大部分为建成区,那么该像素应该也为建成区,反之亦然。基于上述前提,对提取结果中每一个像素与其周边像素的分类结果作对比,填充建成区内部漏检点并消除非建成区中的虚警点,得到最终的建成区提取结果。
3 实验结果与分析
3.1算法检测效果
本文选取GF1卫星的全色影像和多光谱影像进行测试,建成区提取结果如图3、图4所示。图3中(彩图见期刊电子版)影像数据来自河北省某地区,其分辨率为2 m,大小为18 192×18 000,该影像中存在大量的平原建成区。图4中(彩图见期刊电子版)影像数据来自四川省某地区,其分辨率为2 m,大小依次为1 092×1 128,876×779,1 233×1 163,影像中存在一个或多个平原建成区。图3左图为全景影像检测结果,将红色标出部分放大显示如右图所示。图4为截取的平原地形下的建成区提取结果。
为了进一步验证本研究方法的有效性,利用准确率(Precision)、召回率(Recall)和F值(F-measure)等精度评价指标对实验结果进行定量评价。其定义分别如下所述:
(12)
(13)
(14)
其中,TP为正确提取的建成区目标,FN为漏提的建成区目标,FP为错误提取的建成区目标。定量评价结果如表1所示。
图3 整景影像提取结果及其细节图Fig.3 Extraction results of one whole image and its detail image
图4 平原地形下的建成区提取结果(左图为原图,右图为结果图)Fig.4 Extraction results of plain built-up area (the left ones are original images, the right ones are result images)
3.2算法对比
采用不同方法对27幅长宽在1 000~2 000 pixel的图像进行实验,分别计算3个指标的平均值。使用方法依次有:(1)M. Pesaresi (2008)提出的旋转不变性纹理测度PanTex[16](Procedure for the Calculation of A Texture-derived Built-up Presence Index);(2) A. Kovacs (2013)提出的改进Harris角点投票法MHEC[17](Modified Harris for Edges and Corners);(3) Huang (2012)提出的形态学建筑物指数法MBI[18];(4) Tao (2013)提出的核学习和图割法MKLGC[10](Multiple Kernel Learning and Graph Cut);(5)本文方法。结果见表2和图5(彩图见期刊电子版)。从中可知,本文方法的提取效果优于其他方法。
表1 实验结果精度统计
表2 建成区检测精度对比
图5 几种方法的检测精度对比结果Fig.5 Precision comparison between different methods
4 结 论
本文在分析平原建成区特点的基础上,利用MR8纹理特征和SIFT关键点特征学习的方式进行建成区提取,融合多个特征进行学习和分类,加强了分类器的鲁棒性和稳定性,提高了检测的准确率。通过超像素分割和多假设投票的方法,将基于图像块的判别结果转化为基于像素的检测结果,完全消除了块状效应,并使目标区域具有准确的边缘和形状。通过对多幅平原建成区GF-1的卫星图像进行实验测试,本方法平原地区建成区的平均检测精度可以达到80%,平均召回率可以达到85%以上,平均F值可达到80%以上,综合指标高于其他方法,验证了该方法的可行性和准确性。下一步计划考虑在多光谱影像上提取其它有益于建成区提取的特征,以进一步提高建成区的提取精度。
[1]史伟国,周立民,靳颖. 全球高分辨率商业遥感卫星的现状与发展[J]. 卫星应用, 2012(3): 43-50.
SHI W G, ZHOU L M, JIN Y. The present situation and development of the global commercial high resolution remote sensing satellite [J].SatelliteApplication, 2012(3): 43-50.(in Chinese)
[2]SIRMACEK B, UNSALAN C. Urban-area and building detection using SIFT keypoints and graph theory [J].IEEETransactiononGeoscienceandRemoteSensing, 2009, 47(4): 1156-1167.
[3] TAO C, TAN Y H, ZOU Z R,etal.. Unsupervised detection of built-up areas from multiple high-resolution remote sensing images [J].IEEEGeoscienceandRemoteSensingLetter, 2013, 10(6): 1300-1304.
[4]王崴, 唐一平, 任娟莉, 等. 一种改进的Harris角点提取算法[J]. 光学 精密工程, 2008, 16(10): 1995-2001.
WANG W, TANG Y P, REN J L,etal.. An improved algorithm for Harris corner detection[J].Opt.PrecisionEng., 2008, 16(10): 1995-2001. (in Chinese)
[5]王富平, 水鹏朗. 利用局部方向微分向量一致性的角点检测[J]. 光学 精密工程, 2015, 23(12): 3509-3518.
WANG F P, SHUI P L. Corner detection via consistency of local directional differential vectors[J].Opt.PrecisionEng., 2015, 23(12): 3509-3518. (in Chinese)
[6]HUANG X, ZHANG L P. Morphological building/shadow index for building extraction from high-resolution imagery over urban areas [J].IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing, 2012, 5(1): 161-172.
[7]BARNSLEY M J, RARR S L. Inferring urban land use from satellite sensor images using kernel-based spatial reclassification [J].PhotogrammetricEngineeringandRemoteSensing, 1996, 62(7): 949-958.
[8]YU S, BERTHOD M, GIRAUDON G. Toward robust analysis of satellite images using map information-application to urban area detection [J].IEEETransactionsonGeoscienceandRemoteSensing, 1999, 37(4): 1925-1939.
[9]WEIZMAN L, GOLDBERGER J. Detection of urban zones in satellite images using visual words [C].IEEEConferenceonGeoscienceandRemoteSensingSymposium, 2008: 160-163.
[10]TAO C, TAN J G, YU Y H,etal.. Urban area detection using multiple kernel learning and graph cut [C].IEEEConferenceonGeoscienceandRemoteSensingSymposium,2012:83-86.
[11]何林阳, 刘晶红, 李刚, 等. 改进BRISK特征的快速图像配准算法[J]. 红外与激光工程, 2014, 43(8): 2722-2727.
HE L Y, LIU J H, LI G,etal.. Fast image registration approach based on improved BRISK [J].InfraredandLaserEngineering, 2014, 43(8): 2722-2727. (in Chinese)
[12]王志强, 程红, 李成, 等. 全局图像配准的目标快速定位方法[J]. 红外与激光工程, 2015, 44(s): 225-229.
WANG ZH Q, CHENG H, LI CH,etal.. Fast target location method of global image registration [J].InfraredandLaserEngineering, 2015, 44(s): 225-229. (in Chinese)
[13]丘文涛, 赵建, 刘杰. 结合区域分割的图像SIFT匹配方法[J]. 液晶与显示, 2012, 27(6): 827-831.
QIU W T, ZHAO J, LIU J. Image matching algorithm combining SIFT with region segmentation[J].ChineseJournalofLiquidCrystalsandDisplays, 2012, 27(6): 827-831. (in Chinese)
[14]王灿进, 孙涛, 陈娟. 局部不变特征匹配的并行加速技术研究[J]. 液晶与显示, 2014, 29(2): 266-274.
WANG C J, SUN T, CHEN J. Speeding up local invariant feature matching using parallel technology [J].ChineseJournalofLiquidCrystalsandDisplays, 2014, 29(2): 266-274. (in Chinese)
[15]VAPNIKVN.TheNatureofStatisticalLearningTheory[M]. New York : Springer-Berlag, 1995.
[16]LOWE G D. Object recognition from local scale-invariant features [C].IEEEInternationalConferenceonComputerVision, 1999:1150-1157.
[17]王睿, 朱正丹. 融合全局-颜色信息的尺度不变特征变换[J]. 光学 精密工程,2015, 23(1): 295-301.
WANG R, ZHU ZH D. SIFT matching with color invariant characteristics and global context[J].Opt.PrecisionEng., 2015, 23(1):295-301. (in Chinese)
[18]ACHANTA R, SHAJI A, SMITH K,etal.. SLIC superpixels compared to state-of-the-art superpixel methods [J].IEEETransactiononPatternAnalysisandMachineIntelligence, 2012, 34(11): 2274-2282.
[19]ROUSE J W, HAAS R H, SCHELL J A,etal.. Monitoring the vernal advancement of natural vegetation, Final report[R].NASA/GCSFC,Greenbelt,MD, 1974.
[20]PESARESI M, GERHARDINGER A, KAYITAKIRE F. A robust built-up area presence index by anisotropic rotation-invariant textural measure [J].IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing, 2008, 1(3): 180-192.
[21]KOVACS A, SZIRANYI T. Improved harris feature point set for orientation-sensitive urban-area detection in aerial images [J].IEEEGeoscienceandRemoteSensingLetter, 2013, 10(4): 796-800.
[22]黄昕. 高分辨率遥感影像多尺度纹理、形状、特征提取与面向对象分类方法研究[D]. 武汉: 武汉大学, 2009.
HUANG X.Multi-scaletextureandshapefeatureextractionandobject-orientedclassificationforveryhighresolutionremotelysensedimagery[D]. Wuhan: Wuhan University,2009. (in Chinese)
温奇(1983-),男,山西洪洞人,博士,副研究员,2004年于北京理工大学获得学士学位,2009年于中国科学院遥感应用研究所获得博士学位,主要从事高分辨率遥感减灾应用方面的研究。E-mail: whistlewen@aliyun.com
王薇(1974-),女,浙江安吉人,博士,副研究员,2006年于中国科学院地理科学与资源研究所获得博士学位,主要从事灾害遥感应用方面的研究。E-mail:wangwei@ndrcc.gov.cn
(版权所有未经许可不得转载)
Extraction of built-up area in plain from high resolution remote sensing images
WEN Qi1*,WANG Wei1,LI Ling-ling1,MEI Li-qin2,TAN Yi-hua2
(1.National Disaster Reduction Center of China,Beijing 100124,China;2.CollegeofAutomation,HuazhongUniversityofScienceandTechnology,Wuhan430074,China)*Correspondingauthor,E-mail:whistlewen@aliyun.com
By analyzing the textural features and local key points of the built-up area in a plain from high resolution remote sensing images, a method to extract the built-up area in the plain was proposed based on multi-core learning, multi-scale segmentation and multi-hypothesis voting. With the proposed method, MR8 texture characteristics and Scale Invariant Feature Transform (SIFT) algorithmwere used to extract the built-up area, and multi-characteristics was fused to implement the learning and classification to improve the robustness and stability of classifiers and to enhance the detection accuracy. Then, based on the pixel segmentation and multi-hypothesis voting, the discriminant result based on image blocks was translated into test result based on pixels to completely eliminate the block effect and to make the target area showing precise edges and shapes. The proposed method has been validated in GF-1 satellite images. The results show that the average detection precision, average recall rate and the averageF-measure of the method have been achieved above 80%, 85% , and 80%, respectively. Moreover, its comprehensive performance is better than that of other methods. These results demonstrate the feasibility and accuracy of this method. As extraction precision of the built-up area has been to be the pixel level and the leak detection and error detection have been avoided, the built up area images extracted are very accurate.
high resolution remote sensing image; extraction of built-up area in plain; multi-hypothesis voting; multi-kernel learning; multi-scale segmentation
2016-06-13;
2016-08-14.
国家自然科学基金资助项目(No.41301485);国家科技重大专项资助项目;国家863计划资助项目(No.2013AA122104)
1004-924X(2016)10-2557-08
TP751;TP79
Adoi:10.3788/OPE.20162410.2557