基于光谱相似度量的高光谱图像多任务联合稀疏光谱解混方法
2016-10-13尤红建耿修瑞曹银贵
许 宁 尤红建 耿修瑞 曹银贵
基于光谱相似度量的高光谱图像多任务联合稀疏光谱解混方法
许 宁*①②③尤红建①②耿修瑞①②曹银贵④
①(中国科学院空间信息处理与应用系统技术重点实验室 北京 100190)②(中国科学院电子学研究所 北京 100190)③(中国科学院大学 北京 100049)④(中国地质大学(北京)土地科学技术学院 北京 100083)
基于图像中存在的邻域以及非局部相似等图像空间特征和联合稀疏解混思想,该文提出一种基于高光谱图像光谱相似性度量的多任务联合稀疏解混方法。通过高光谱图像的光谱特性统计值设定光谱度量阈值,对高光谱图像中相似的像元光谱进行光谱相似性度量分组,再对分组像元光谱数据进行多任务联合稀疏光谱解混模型的构建和求解,得到最终的丰度系数。模拟数据实验结果表明,该方法一定程度上提升了现有联合稀疏光谱解混方法的丰度估计精度,真实数据结果也验证了方法的有效性。
高光谱图像;光谱解混;联合稀疏表示;光谱相似性度量
1 引言
高光谱遥感图像中通常存在大量的混合像元,使得常规的像元级遥感图像分类和识别精度难以满足应用需求[1,2],限制了高光谱遥感数据的精细化、定量化应用。混合像元分解(又称光谱解混)技术正是针对高/多光谱遥感数据中大量存在的混合像元而提出的一种信号分离技术,其获取一个混合像元中包含的组分光谱(又称端元,endmembers)和相应的组分分量(丰度系数,abundances),在地质勘探、油气探测、环境调查等领域发挥着重要作用[2,3]。根据高光谱数据在成像过程中光照与地物之间交互模型的不同,光谱解混技术可分为线性光谱解混和非线性光谱解混两类[1]。在线性混合模型的丰度估计方面,出现了全约束最小二乘[4]、单形体体积比[5]、质心坐标[6]、非负矩阵分解[7]、独立成分分析[8](ICA)等代数、几何以及统计求解方法,并出现了一些综合空间信息的算法[9]。近年来,基于稀疏回归模型的光谱解混方法(SUnSAL)被应用于高光谱图像丰度估计[10],具有无需进行端元提取,丰度重建精度高的特点,由此派生出空间正则化稀疏光谱解混[11,12]、不同范数约束[13]、同步稀疏[14](CLSUnSAL)、多视联合稀疏重建[15](MLJSR)、端元差异协同稀疏[16](Cluster-CLSUnSAL)等高光谱图像解混方法。其中,CLSUnSAL, Cluster-CLSUnSAL和MLJSR稀疏光谱解混均属于一类联合稀疏光谱解混方法。CLSUnSAL在约束稀疏回归(CSR)的基础上,采用一个全局正则化项同时对所有像元的丰度系数矩阵进行行稀疏约束,然而其没有考虑图像中不同像元所含地物的差异性对重建丰度矩阵行稀疏的影响;Cluster-CLSUnSAL虽然考虑了端元的差异性,但在差异分析时采用稀疏重构误差测度,无疑增加了算法计算量;而MLJSR则采用邻域像元组成联合稀疏回归的方式,以利用空间邻域信息来解算丰度系数,其模型将所有邻域像元构建为一个观测量(列向量),光谱库也需要进行复杂的整合,对于上百个波段的高光谱数据而言,计算量非常大。
基于以上分析,考虑到联合稀疏表示在高光谱数据分类和解混中的成功应用以及算法的计算效率,本文提出一种考虑高光谱数据空间相似性度量的多任务联合稀疏光谱解混方法(Spectral Similarity Measure Sparse Unmixing, SSMSU),利用一种简单易算的光谱相似性度量对高光谱数据的所有像元进行分组(或称之为聚类),并按组对这些相似像元光谱进行行稀疏约束的联合稀疏光谱解混,最后引入多任务思想将解混结果进行像元空间位置的重组,得到丰度解算结果。采用模拟数据和AVIRIS高光谱数据对该方法进行了实验验证,并与现有的SUnSAL, CLSUnSAL以及MLJSR稀疏光谱解混算法进行对比分析。
2 光谱相似度量的多任务联合稀疏解混方法
2.1联合稀疏光谱解混
综合考虑常规解混方法中端元提取的难度以及丰度系数矩阵的稀疏性(由于光谱库中纯净光谱数量往往远远大于高光谱图像单个像元中地物种类的数量,导致了丰度系数矩阵中存在的这种稀疏性),文献[10]最早提出基于地物光谱数据库的稀疏回归光谱解混方法。稀疏回归光谱解混模型的最优化形式可表示为
2.1.1 MLJSR稀疏光谱解混 MLJSR稀疏解混的思想来源于分布式压缩感知框架[20](distributed compressed sensing),其将某个像元光谱表示为:,其中和分别表示该像元与滑动的邻域窗口中其他像元的公共组分(common component)和差异组份(innovation component)系数。在处理过程中,将这些滑动窗口内的所有像元向量构建成一个列向量,通过光谱库字典的构建来分别获取丰度系数的公共组份和差异组份。MLJSR解混方法体现了空间邻域像元的联合稀疏表示,将滑动窗口中所有像元表示为非负约束的最优化问题:
2.1.2 CLSUnSAL稀疏光谱解混 CLSUnSAL稀疏解混是对常规稀疏回归解混SUnSAL的一种改进,其主要思想为在包含大量纯净信号的光谱库中,只有少量部分为活动成员(active members,对应高光谱图像中的地物类型),这些活动成员对应的丰度系数矩阵行应为非全零系数行,这样就可以采用混合范数(对丰度矩阵每一行的范数求和)对丰度系数矩阵进行联合稀疏约束,由此提升丰度系数求解精度。该方法在最优化问题中不再考虑式(1)中的范数约束项,这样可以减少对新增的正则化系数的设置,减小系数确定的复杂度。考虑到所有像元组成的像元光谱矩阵,CLSUnSAL光谱解混方法的最优化形式可表示为
对于上述CLSUnSAL稀疏光谱解混模型,文献[14]利用ADMM法进行了求解,通过实验结果表明,CLSUnSAL在一定程度上提升了SUnSAL方法光谱解混精度。然而,该方法没有考虑图像中地物的差异性对重建丰度矩阵的行稀疏的影响,据此本文提出的基于光谱相似性度量的多任务联合稀疏光谱解混方法,通过引入图像中像元的光谱相似性组,进行多任务联合稀疏光谱解混,以期获得更准确的丰度系数。
2.2光谱相似度量的多任务联合稀疏光谱解混
由于自然地物在空间的分布特性,获取的遥感图像中通常存在邻域相关[11]、非局部相似[12]等空间特性,这些特性在遥感图像理解和图像分类等应用中具有重要作用。由于这种空间特性的存在,在进行高光谱图像稀疏解混处理时,通过对图像所有像元进行光谱相似度量分组,相似性组所对应活动成员的丰度系数行通常都不为0,而其他非活动成员丰度系数大多为0,这样对每一组相似像元进行混合范数约束的稀疏光谱解混时,通过正则化系数的调整可以进一步优化丰度系数解的稀疏性,得到更稀疏、更高质量的丰度系数。而对于不同组的像元光谱观测量的处理,引入多任务联合稀疏表示[21,22](MTJSR)思想,优化重叠像元的丰度估计,以此实现对高光谱数据本身空间特性的综合利用,提升稀疏光谱解混的精度。
2.2.1多任务联合稀疏光谱解混 多任务联合稀疏表示[21]方法多应用于计算机视觉和图像分类。多任务体现在可同时对图像中一个目标的不同特征(例如色彩、形状、纹理等)进行稀疏建模和参数的估计[21];而联合稀疏表示则突出对这些不同特征(或任务)稀疏表示所求解系数的混合范数约束[22],考虑到图像的空间相关性,也可理解为对图像局部区域中心像元及其邻域像元的同步稀疏表示(例如采用CLSUnSAL中的混合范数约束),以此来获取更好的稀疏系数。对于一幅高光谱图像,通过光谱相似性度量分组可将其表示为线性混合模型形式:
图1 利用SSMSU方法进行高光谱数据解混的处理流程图
2.2.2 SSMSU解混处理流程 SSMSU解混方法首先得到高光谱图像的光谱相似性组,再对各组进行丰度矩阵的行混合范数约束稀疏光谱解混,最后引入多任务学习思想,采用式(6)得到最终的丰度系数矩阵。具体的处理流程包括以下几个步骤(如图1所示)。
步骤1 对一幅高光谱图像进行像元的光谱相似性度量计算。常用的光谱相似度量方法有欧式距离(ED),光谱角距离(SAD),相关系数(CC)等度量方式,在多数情况下,SAD比距离类方法更具优势[23],且在多/高光谱图像处理中应用很广,因此本文采用SAD(式(7))计算得到一幅高光谱图像所有像元向量的光谱相似性度量矩阵,该矩阵为对称矩阵,且对角元素为1。
步骤2 分组阈值的设定。阈值太大会使得一些差异较大的像元分为一组,导致光谱相似度量分组多任务联合稀疏解混失去意义;阈值太小则会导致分组增多,计算量增大。通常可采用人工比较图像中相似像元向量的光谱度量值的方法,但这样需要主观地选择相似像元,无法实现自动的处理流程。考虑到邻域像元通常具有一定的空间连续性和相关性[9,11],邻域突变现象比较少的实际情况,采用随机抽取10个像元及其四邻域像元来计算SAD的方法,即每个像元计算4个邻域像元的SAD,以这40个SAD统计均值作为分组阈值,这样既能利用空间的邻域信息,也可通过多个像元统计值消除少量邻域突变造成的阈值太大,还能实现自动地获取阈值系数。
步骤3 相似像元分组。在光谱相似性度量矩阵中逐列(即逐像元)求取阈值范围内的相似像元(由于为对称矩阵,第1列中已分到第1组的像元,则后面相应的像元(列)不再重新分组,这样可减少计算量,但仍存在少量的重叠像元),并以这些相似像元组成观测量矩阵,重叠像元会在最后分组完成后统一进行标记,最终采用式(6)确定其丰度系数值。
步骤4 采用联合稀疏光谱解混的最优化问题(式(4))对各组观测量矩阵进行丰度系数的求解,由于在迭代解算过程中考虑了非负约束,在采用ADMM算法进行求解时,需要将该约束融入到最优化问题中,则最优化问题(式(4))可改写为
步骤5 完成逐组的丰度系数求解后,对不同组(任务)的重叠像元按式(6)确定其最终丰度值,最后按原始像元所在位置进行丰度解的赋值,得到最终的丰度矩阵。
3 实验结果与分析
针对SSMSU方法,与现有的SUnSAL, CLSUnSAL, MLJSR稀疏解混方法进行了模拟数据和真实高光谱数据的实验对比。由于模拟数据已知真值,可利用信号重建误差[11](SRE)和平均绝对误差[14](MAE)两项指标对获得的丰度系数值进行量化评价。
3.1 模拟数据实验
模拟数据采用文献[11]中利用USGS光谱数据库合成的一组数据。其合成主要分3步,首先对USGS光谱库数据进行筛选和排序[24]处理;随后生成一组5×5625大小的丰度矩阵,其中上标5表示矩阵中列向量的维度,5625(75×75)表示模拟数据像元个数,每个像元的5个丰度系数满足ASC约束,在5625个像元中,均匀分布着25(5×5)块5×5大小的测试丰度向量,可实现5个端元的不同比例混合(包括单个端元(1个端元丰度系数1,其余为0),2个各0.5混合,3个各0.333混合,4个各0.25混合,5个各0.20混合,其余背景像元以[0.1149, 0.0741, 0.2003, 0.2055, 0.4051]比例混合);最后,从处理过的USGS光谱库中选择前5条光谱作为端元,按线性混合模型公式合成一块224×5625大小的模拟数据,其中224为波段数量。另外,在模拟数据生成过程中增加了高斯白噪声,合成信噪比(SNR)水平分别为20 dB, 30 dB和40 dB的数据。在实验计算不同组中重叠像元的丰度向量时,进行了简化处理,采用光谱相似度最好的一组解作为最终解,即将该组最相似像元的丰度解在式(6)中的权重设置为1。
在正则化系数的选择上,对不同信噪比数据及参与测试的方法,均采用进行实验,并选择最优SRE值所对应的实验结果进行比较。另外,实验中容忍误差门限值及最大迭代次数均设置为和1000。对于SNR为40 dB的模拟数据,不同方法获得的丰度图-1和丰度图-5如图2所示。从视觉上看,前3种方法在丰度图-1中出现了较强的不均一性,存在大量的噪点,MLJSR相对光滑,但邻接同质区块存在发散现象。对于丰度图-5, SUnSAL和CLSUnSAL结果不均一性比较明显,而MLJSR法相对较好,但仍旧有模糊过渡值存在,这是由于算法对邻域的平滑造成;而SSMSU方法无论丰度图-1还是丰度图-5都取得了最好的解混效果,丰度值比较光滑,不同丰度值的同质区块及背景的空间一致性也较好。
从量化分析角度,计算4种方法得到的丰度系数值与真值的SRE和MAE评价指标值,其中MAE随信噪比的变化如图3(a)所示。可以看出,随着信噪比水平的升高,MAE误差值都逐渐变小,SUnSAL方法的MAE误差值在不同信噪比情况下均最大,而本文方法在不同信噪比条件下均获得了最小的误差值;同时,SRE随信噪比的变化情况与MAE所反映的一致,随着信噪比的增加,不同方法得到的SRE值呈递增变化,SUnSAL方法得到的SRE值均最低,而本文方法均得到了最大的SRE值。因此,该模拟数据的两个评价指标值表明本文方法获得了更优的丰度系数解。
图3(b)显示了模拟数据SNR为40 dB时,不同方法SRE值随正则化系数的变化情况。可以看出,在设定的正则化系数范围内,SRE值均有一个由增到减的过程,在不同的值处达到了最优值。对于SNR=40 dB的模拟数据,当时取得最高值。MAE随正则化系数的变化也有类似的规律,SNR=40 dB数据在时取得最小值。
图4给出了处理不同信噪比数据时,4种方法的处理时间(软件-Matlab7,硬件-Intel(R) Core(TM) 2 Quad CPU (主频2.33 GHz), 4 GB内存)。可以看出,SUnSAL所需时间最少,完成一个正则化系数1000次迭代仅需约116 s, CLSUnSAL处理时间与SUnSAL比较接近,与信噪比关系不大;MLJSR和SSMSU的处理时间均随着数据信噪比的减小呈递增趋势且MLJSR所需时间最长,这是由于MLJSR需要在图像空间进行分块处理,并对数据块进行列的重置,导致数据量增大;而对于SSMSU,当信噪比较高时,其进行相似性度量分组较少,因而计算量偏小,但随着噪声增加,分组的类别增加,导致计算时间变长。
3.2 AVIRIS数据实验
真实数据采用经典的美国Cuprite地区AVIRIS机载高光谱数据进行实验,光谱库则采用USGS矿物光谱库,二者在获取时间上存在差异,但仍可作为稀疏解混处理的数据字典[11]。本次采用的AVIRIS真实数据块的大小为187(波段)×250(行)×191 (列),由于原始光谱库数据具有224个波段,需要对光谱库中的数据按照AVIRIS数据提供的中心波长等元数据信息进行了光谱库数据的光谱重采样处理。
对于AVIRIS数据实验所采用的正则化系数,采用了文献中作者建议的系数值(SUnSAL,= 0.001; CLSUnSAL,=0.01; MLJSR,=1.5),本文方法则采用了模拟数据SNR为30 dB(=0.0067)和40 dB(=7.38)时的最优系数进行实验。4种方法对AVIRIS数据的处理结果如图5所示(本文方法取=0.0067结果),可以看出,得到的3种矿物的丰度图比较接近,只在一些细节上有所差异。与Tricorder分类图[25]相比,这些方法获取的结果比较一致,只是由于Tricorder为硬分类结果,其值只有0和1,因此在丰度系数值较小区域存在差异。对于Alunite矿物,4种方法得到的丰度图差异非常小,MLJSR方法得到的丰度图在空间分布上更加平滑;对于Buddingtonite矿物,由于CLSUnSAL和本文方法都采用了像元的联合稀疏约束,得到了更干净的丰度图,与Tricorder分类图在空间分布上更形似;Chalcedony矿物丰度图4种方法在空间分布上也非常相似,其中CLSUnSAL和本文方法结果存在较少的离散分布丰度值,空间分布更干净,与Tricorder分类图的空间一致性最好。另外,从3类矿物的丰度图中也可以看出,MLJSR由于采用了像元空间邻域信息进行中心像元的丰度求解,其得到的丰度图比较光滑,这和该算法设计的初衷吻合。
图2 不同方法求解得到的丰度值图(SNR=40 dB,第1行丰度图-1,第2行丰度图-5)
图3 模拟数据的MAE和SRE误差变化(SNR=40 dB) 图4 4种方法运行时间比较
从定量分析角度,由于真实数据没有丰度系数真值,只能采用将得到的丰度系数和光谱库计算重构图像,再与真实图像进行量化比较的方式,本次引入图像重构误差[26](RE)对真实数据实验求得的丰度系数精度进行对比(如表1),可以看出,对于真实数据实验,相较于其他方法,本文方法在正则化系数=0.0067时获得了最优精度值,CLSUnSAL获得的RE值次之,MLJSR获得的RE值最大。总体来看,在AVIRIS数据实验中,本文方法获得了与其他方法以及Tricorder分类图比较一致的空间分布结果,RE评价指标值在=0.0067时取得最优,这也验证了本文方法的正确性和有效性。
图5 不同方法求解得到的3类典型矿物的丰度图及Tricorder分类图(至上而下为Alunite, Buddingtonite, Chalcedony)
表1 4种方法丰度矩阵求得的图像重构误差(RE)值
4 结论
本文提出了一种基于光谱相似性度量的高光谱数据多任务联合稀疏光谱解混方法,该方法重点考虑了相似光谱像元在进行联合稀疏解混时可以求得更稀疏解的特性,引入了光谱相似性度量来对高光谱数据进行分组,并采用一些随机像元及其邻域的光谱统计特征来实现分组阈值的自动选取,分组过程也设计了重叠像元的处理方法,最后采用多任务联合稀疏解混方法对分组数据进行模型构建和丰度求解。通过模拟数据的处理实验和对比分析,表明本文方法在一定程度上比CLSUnSAL等几种稀疏解混方法获得了更优的丰度解,且相比MLJSR具有更快的处理效率,通过真实AVIRIS高光谱数据的实验也验证了本文方法的有效性。
[1] KESHAVE N and MUSTARD J F. Spectral unmixing[J]., 2002, 19(1): 44-57. doi: 10.1109/79.974727.
TONG Qingxi, ZHANG Bing, and ZHENG Lanfen. Hypersepctral Remote SensinuPrinciples, Techniques and Applications[M]. Beijing: Higher Education Press, 2006: 246-248.
[3] 浦瑞良, 宫鹏. 高光谱遥感及其应用[M]. 北京: 高等教育出版社, 2000: 1-5.
PU Ruiliang and GONG Peng. Hyperspectral Remote Sening and Its Application[M]. Beijing: Higher Education Press, 2000: 1-5.
[4] HEINZ D C and CHANG C I. Fully constrained least squares linear spectral mixture analysis method for material quantification in hyperspectral imagery[J]., 2001, 39(3): 529-545. doi: 10.1109/36.911111.
[5] 耿修瑞, 张兵, 张霞, 等. 一种基于高维空间凸面单形体体积的高光谱图像解混算法[J]. 自然科学进展, 2004, 14(7): 810-814.
GENG Xiurui, ZHANG Bing, ZHANG Xia,. An unmixing method of hyperspectral imagery based on convex volume in high dimensional space[J]., 2004, 14(7): 810-814
[6] HONEINE P and RICHARD C. Geometric unmixing of large hyperspectral images: A barycentric coordinate approach[J]., 2012, 50(6): 2185-2195. doi: 10.1109/TGRS.2011.2170999.
[7] YUAN Yuan, FU Min, and LU Xiaoqing. Substance dependence constrained sparse NMF for hyperspectral unmixing[J]., 2015, 53(6): 2975-2986. doi: 10.1109/TGRS.2014. 2365953.
[8] NASCIMENTO J M P and BIOUCAS-DIAS J M. Does independent component analysis play a role in unmixing hyperspectral data?[J]., 2005, 43(1): 175-187. doi: 10.1109/ TGRS.2004.839806.
[9] SHI Chen and WANG Le. Incorporating spatial information in spectral unmixing: A review[J]., 2014, 149: 70-87. doi: 10.1016/j.rse.2014.03. 034.
[10] BIOUCAS-DIAS J M. A variable splitting augmented Lagragian approach to linear spectral unmixing[C]. First Workshop on Hyperspectral Image Signal Processing: Evolution in Remote Sensing, Grenoble, 2009: 1-4. doi: 10.1109/WHISPERS.2009. 5289072.
[11] IORDACHE M D, BIOUCAS-DIAS J M, and PLAZA A. Total variation spatial regularization for sparse hyperspectral unmixing[J]., 2012, 50(11): 4484-4502. doi: 10.1109/TGRS.2012. 2191590.
[12] ZHONG Yanfei, FENG Ruyi, and ZHANG Liangpei. Non-local sparse unmixing for hyperspectral remote sensing imagery[J]., 2014, 7(6): 1889-1909. doi: 10.1109/JSTARS.2013.2280063.
[13] CHEN Fen and ZHANG Yan. Sparse hyperspectral unmixing based on constrainedl-2optimization[J]., 2013, 10(5): 1142-1146. doi: 10.1109/LGRS.2012.2232901.
[14] IORDACHE M D, BIOUCAS-DIAS J M, and PLAZA A. Collaborative sparse regression for hyperspectral unmixing[J]., 2014, 52(1): 341–354. doi: 10.1109/TGRS.2013.2240001.
[15] BIENIARZ J, AGUILERA E, ZHU X X,. Joint sparsity model for multilook hyperspectral image unmixing[J]., 2015, 12(4): 696-700. doi: 10.1109/LGRS.2014.2358623.
[16] 王蕊, 李恒超, 尹忠科. 考虑端元差异性的协同稀疏高光谱解混算法[J]. 电子科技大学学报, 2014, 43(6): 813-817. doi: 10. 3969/j.issn.1001-0548.2014.06.003.
WANG Rui, LI Hengchao, and YIN Zhongke. Collaborative sparse unmixing of hyperspectral data considering the difference of endmembers[J]., 2014, 43(6): 813-817. doi: 10.3969/j.issn.1001-0548.2014.06.003.
[17] KIM S J, KOH K, LUSTIG M,. An interior-point method for large-scale1-regularized least squares[J]., 2007, 1(4): 606-617. doi: 10.1109/JSTSP.2007.910971.
[18] 刘建军, 吴泽彬, 韦志辉, 等. 基于空间相关性约束稀疏表示的高光谱图像分类[J]. 电子与信息学报, 2012, 34(11): 2666-2671. doi: 10.3724/SP.J.1146.2012.00577.
LIU Jianjun, WU Zebin, WEI Zhihui,. Spatial correlation constrained sparse representation for hyperspectral image classification[J].&, 2012, 34(11): 2666-2671. doi: 10.3724/SP.J.1146. 2012.00577.
[19] ZHANG Hongyan, LI Jiayi, HUANG Yuancheng,. A nonlocal weighted joint sparse representation classification method for hyperspectral imagery[J]., 2014, 7(6): 2057-2066. doi: 10.1109/JSTARS.2013. 2264720.
[20] WAKIN N M, DUARTE M, SARVOTHAM S,. Recovery of jointly sparse signals from few random projections[C]. Processing Workshop on Neural Information Processing System, Vancouver, 2005: 1435-1442.
[21] YUAN Xiaotong, LIU Xiaobai, and YAN Shuicheng. Visual classification with multi-task joint sparse representation[J]., 2012, 21(10): 4349-4360. doi: 10.1109/TIP.2012.2205006.
[22] LI Jiayi, ZHANG Hongyan, and ZHANG Liangpei. Efficient superpixel-level multitask joint sparse representation for hyperspectral image classification[J]., 2015, 53(10): 5923-5936. doi: 10.1109/TGRS.2015.2421638.
[23] 耿修瑞. 高光谱遥感图像信息提取的若干数学原理[R]. 北京师范大学博士后研究工作报告, 北京, 2007.
GENG Xiurui. Several mathmatical principles on information extraction for hyperspectral imagery[R]. Research Report for Post-Ph.D. in Beijing Normal University, Beijing, 2007.
[24] IORDACHE M D, BIOUCAS J M, and PLAZA A. Dictionary pruning in sparse unmixing of hyperspectral data[C]. 4th Workshop on Hyperspectral Image and Signal Processing: Evolution in Remote Sensing, Shanghai, 2012: 1-4. doi: 10.1109/WHISPERS.2012.6874329.
[25] CLARK R, SWAYZE G, LIVO K,. Imaging spectroscopy: Earth and planetary remote sensing with the USGS tetracorder and expert systems[J]., 2003, 108(E12): 5131. doi: 10.1029/ 2002JE001847.
[26] 普晗晔, 王斌, 夏威. 约束最小二乘的高光谱图像非线性解混[J]. 红外与毫米波学报, 2014, 33(5): 552-559. doi: 10.3724/SP.J. 1010.2014.00552.
PU Hanye, WANG Bin, and XIA Wei. Nonlinear unmixing of hyperspectral imagery based on constrained least squares[J]., 2014, 33(5): 552-559. doi: 10.3724/SP.J.1010.2014.00552.
Multi-task Jointly Sparse Spectral Unmixing Method Based on Spectral Similarity Measure of Hyperspectral Imagery
XU Ning①②③YOU Hongjian①②GENG Xiurui①②CAO Yingui④
①(-,,100190,)②(,,100190,)③(,100049,)④(,,100083,)
In this paper, a multi-task jointly sparse spectral unmixing method based on spectral similarity measure of hyperspectral imagery is proposed, which is a refinement of collaborative sparse spectral unmixing method. First, a threshold value is obtained through the statistical characters of some random selected neighboring pixels in hypersepctral image. Second, all pixels of hyperspectral image are grouped by a spectral similarity measure and the threshold value. Then, a multi-task jointly sparse optimization problem is constructed and solved for the grouped pixels, and the abundance coefficients are obtained finally. Experimentals results on synthetic and real hyperspectral image demonstrate the effectiveness of the proposed approach.
Hyperspectral imagery; Spectral unmixing; Joint sparse representation; Spectral similarity measure
TP751.2
A
1009-5896(2016)11-2701-08
10.11999/JEIT160011
2016-01-04;改回日期:2016-06-06;
2016-09-01
许宁 x_ning@aliyun.com
中国地质调查局地质调查项目(1212011120226),国家863计划(2012AA12A308),中国科学院科技服务网络计划项目(KFJ- EW-STS-046)
The Geological Survey Program of China Geological Survey (1212011120226), The National 863 Program of China (2012AA12A308), The Science and Technology Services Network Program of Chinese Academy of Sciences (KFJ-EW- STS-046)
许 宁: 男,1982年生,博士生,研究方向为图像配准、融合以及高光谱图像处理.
尤红建: 男,1969年生,研究员,研究方向为遥感信息处理和应用.
耿修瑞: 男,1976年生,副研究员,研究方向为高光谱图像处理、模式识别.
曹银贵: 男,1982年生,讲师,研究方向为土地利用、土地遥感应用.
1)模拟数据生成及SUnSAL等算法的Matlab源码下载地址:http: //www.lx.it.pt/~bioucas/publications.html