基于加权稀疏近邻表示的人脸识别
2016-02-23谢文浩翟素兰
谢文浩,翟素兰
(安徽大学 数学科学学院,安徽 合肥 230601)
基于加权稀疏近邻表示的人脸识别
谢文浩,翟素兰
(安徽大学 数学科学学院,安徽 合肥 230601)
稀疏表示的人脸识别目前受到广泛的关注。针对现有稀疏近邻表示算法没有考虑不同训练样本对测试样本的重构权重,同时为了提高基于稀疏近邻表示人脸识别的识别率,文中提出一种加权稀疏近邻表示的人脸识别算法。首先在每一类训练样本中寻找与测试样本最近的k个样本,构成这一类新的训练样本;然后在每一类中都进行同样的操作,从而构造一个新的训练字典,在求解l1范数最小化的稀疏系数时,为每一个新的训练样本对应的稀疏系数赋上一个权值;最后在新的字典下,根据重构误差最小化来完成识别任务。在YaleB数据库和ORL数据库上的大量实验结果表明,文中所提算法与KNN算法和稀疏近邻表示算法相比,取得了较高的识别率,证明了该方法的有效性。
稀疏表示;特征提取;加权近邻;人脸识别
0 引 言
人脸识别(Face Recognition,FR)是近几十年来模式识别、图像处理、机器学习等领域研究的热点课题之一[1-2],它在档案管理系统、罪犯身份识别、信用卡验证、海关及银行监控的场合具有广阔的应用前景。
过去二十年已有许多研究者提出一些人脸识别算法。文献[3]提出主成分分析(Principal Component Analysis,PCA)用于人脸识别,该方法将高维向量降到低维,在特征子空间中完成分类,取得了较好的效果,已成为人脸识别的基准程序和事实上的工业标准。文献[4]提出线性鉴别分析(Linear Discriminant Analysis,LDA)利用类别归属信息,它选择类内散度与类间散度差异特征进行人脸识别,也取得了一定的成功。近几年相关研究表明,人脸特征更可能存在于低维非线性流行子空间中,典型的算法有局部线性嵌入(Locality Linear Embedding,LLE)[5]和等距映射(ISOmetric MAPping,ISOMAP)[6],也取得了相当可观的效果。Wright等将稀疏表示(Sparse Representation,SR)[7]用于人脸识别,由于其对噪声和遮挡有一定的鲁棒性使得人脸识别取得了突破性进展[8-11]。该方法将训练样本构成超完备字典,然后求出测试样本在此字典上的稀疏系数,最后根据重构误差最小化来完成分类任务,然而该方法没有考虑样本的分布特性和训练样本的类别代表性,稀疏系数求解的计算量较大,大大限制了它的应用。文献[12-13]在稀疏表示的基础上选取与测试样本最近的k个训练样本构成新的字典来进行分类。文献[14]则在每类中都选取k个最近邻样本构成此类的基进行稀疏表示分类。然而以上近邻的选择忽略了各训练样本对测试样本的不同权重表示,导致识别率下降。
针对以上问题,文中在文献[14]的基础上提出加权近邻稀疏表示的人脸识别算法。该方法首先在每类训练样本中都找出与测试样本最近的k个样本构成新字典,然后在求解稀疏系数时,给每个训练样本对应的稀疏系数赋上一个权值。该方法充分利用了样本的分布特性和样本的局部信息,在YaleB数据库和ORL数据库上的大量实验结果表明,该算法取得了较好的效果。
1 加权稀疏近邻表示
1.1 稀疏表示分类思想
Step1:将训练字典A按列进行归一化,使其具有l2范数;
(1)
其中,ε是误差容限。
Step3:计算各类训练样本对测试样本的重构误差。
(2)
Step4:最后将测试样本归为重构误差最小的类别。
(3)
1.2 加权稀疏近邻表示分类思想
文中提出的加权稀疏近邻表示的人脸识别算法,不是选择所有训练样本构成字典,而是在每类训练样本中选择与测试样本最近的k个样本,然后构成一个新字典,在求解稀疏系数时为每一个训练样本对应的系数赋上一个权值,实现对测试样本的识别。
首先在每一类训练样本中选择与测试样本最近邻的k个样本,如某一类i(1≤i≤C),共有ni个训练样本,首先求得测试样本与每一类中训练样本的距离。
distih=dist(y,Aih),h=1,2,…,ni
(4)
其中,dist()表示距离函数,文中采用欧氏距离。
然后对每一类中的距离按从小到大排序,取前k个最小距离对应的训练样本作为该类的新的训练样本,对每一类都进行同样的操作,最终可获得新的训练字典。
(5)
(6)
其中,W是一个块对角矩阵,也即是一个权重矩阵,对重构一个测试样本对应的每一个训练样本的稀疏系数赋加一个权值。
diag(W)=[dist(y,x11),…,dist(y,xCk)]
(7)
dist(y,xij)=‖y-xij‖s
(8)
其中,i=1,2,…,C,j=1,2,…,k,s为局部适应参数,当s=0时,文中算法就退化为典型的稀疏近邻表示算法。
当测试样本与某一训练样本的距离越大,表明测试样本与这个训练样本的差异性越大,那么这个训练样本对重构此测试样本的贡献就越小。由于图像容易受噪声的影响,式(6)转化为:
通过制定实施财政、金融、担保等方面的政策,促进政府财政、社会商业性、政策性金融机构以及保险机构等合力支持企业科技成果转化,弥补市场机制引导企业成果转化在资金、风险等方面的缺陷和不足,实现科技成果转化市场的有序良性发展。
(9)
求出稀疏系数后,同样计算各类别训练样本对测试样本的重构误差。
(10)
(11)
2 实验结果及分析
为了验证文中算法的有效性,与KNN算法[1]、稀疏近邻表示算法[14]进行对比。文中将采用式(9)进行加权稀疏系数的求解,采用SPAMS工具箱[15-16],ε设置为10-4,s设置为1.5。实验采用YaleB[7]数据库和ORL[12]数据库。实验平台为Inteli3处理器,2.30GHz,4G内存,软件采用MATLABR2012a。
2.1 Yale B数据库
Yale B数据库包括38个人的经裁剪后的2 414幅正面人脸图像,这些图像存在不同的光照差异,原始图像大小为192×168。实验中采用下采样后的32×32大小的图像,每类中随机选取40幅作为训练样本,余下的作为测试样本,并对每一幅图像进行了归一化处理,部分图像如图1所示。
图1 Yale B数据库部分人脸图像
由于图像的维数较高,首先采用PCA进行降维处理,在特征子空间中进行分类,保持0.95的能量,取5次实验的平均值,实验结果见表1。
表1 Yale B数据库上的实验结果
从表1可以看出,在每类近邻数k为20时,文中算法的识别率为0.853 5,均大于SNRC算法的0.830 0和KNN算法的0.727 1。当每类近邻数k为30时,文中算法识别率为0.911 6,也大于SNRC算法和KNN算法的识别率。由此可见,文中算法取得了较好的效果。
为了进一步验证文中算法的识别率,将在每类近邻数k为20和30时测试不同维数下的识别率,也重复5次实验取平均值,实验结果如图2、图3所示。
图2 Yale B数据库k=20时不同维数下的识别率
图3 Yale B数据库k=30时不同维数下的识别率
从图2和图3可以看出,在每类近邻数为20和30时,文中算法均比SNRC算法和KNN算法的识别率高,并且随着特征维数的增加,文中算法可以取得相当好的识别效果。
2.2 ORL数据库
ORL人脸数据库是由AT&T实验室提供,共有40个人的400幅图像,每人10幅图像。这些人脸图像在人脸表情和面部细节都有不同的变化,比如眼镜戴或者不戴,眼睛睁开或者闭着,笑与不笑等。原始图像为112×92,实验中采用下采样至32×32大小,每类随机选取5幅作为训练样本,其余的作为测试样本。也对每一幅图像进行了归一化处理,部分图像如图4所示。
图4 ORL数据库部分人脸图像
首先采用PCA进行降维在特征子空间中完成分类任务,并保持0.95的能量。由于ORL为小样本数据,为了避免数据选取的偶然性,也重复5次实验求取平均值,实验结果见表2。
表2 ORL数据库上的实验结果
从表2可以看出,当每类近邻数k为3时,文中算法的识别率为0.803 0,略低于SNRC算法的0.839 0和KNN算法的0.856 0。这是因为ORL为小样本数据库,此时每类中选取的训练样本个数比较少,算法学习的经验不足。当每类近邻数k为4时,训练样本个数增加,识别率也会提高。文中算法的识别率为0.900 0,均高于SNRC算法和KNN算法的识别率。由此可见,文中算法还是可行的。
为了进一步验证算法的有效性,测试每类近邻数k为3和4时不同维数下的识别率,同样取5次实验的平均值,实验结果如图5、图6所示。
图5 ORL数据库k=3时不同维数下的识别率
图6 ORL数据库k=4时不同维数下的识别率
从图5可以看出,当维数较低时,文中算法的识别率均高于SNRC算法,但却低于KNN算法,而当维数进一步增大时,文中算法的识别率有所下降,这是因为此时每类近邻数k为3,每类选取的训练样本较少,又因为PCA降维存在过拟合,主成分多时存在更多的干扰信息。
如图6所示,当每类近邻数k为4时,由于每类训练样本的增加,所以识别率会进一步提高,此时文中算法的识别率均高于SNRC和KNN算法。所以可以看出,文中算法还是行之有效的。
3 结束语
文中针对稀疏近邻表示算法没有考虑训练样本与测试样本的不同权重表示,提出加权稀疏近邻表示的人脸识别算法。首先在每一类训练样本中寻找与测试样本最近邻的k个样本,逐类进行后构造一个新的训练字典,然后在求解稀疏系数时,对每一个训练样本重构测试样本对应的稀疏系数赋加一个权值。在YaleB数据库和ORL数据库上的实验验证了文中算法的有效性。
现实中人脸识别受到各种因素的影响,如何设计更合理的训练字典以及构造更加鲁棒性的算法是下一步的研究重点。
[1]ZhaoW,ChellappaR,PhillipsPJ,etal.Facerecognition:aliteraturesurvey[J].ACMComputingSurveys,2003,35(4):399-459.
[2] 李武军,王崇骏,张 炜,等.人脸识别研究综述[J].模式识别与人工智能,2006,19(1):58-66.
[3]TurkM,PentlandA.Eigenfacesforrecognition[J].JournalofCognitiveNeuroscience,1991,3(1):71-86.
[4]BelhumeurPN,HespanhaJP,KriegmanD.Eigenfacesvs.fisherfaces:recognitionusingclassspecificlinearprojection[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,1997,19(7):711-720.
[5]RoweisST,SaulLK.Nonlineardimensionalityreductionbylocallylinearembedding[J].Science,2000,290(5500):2323-2326.
[6]TenenbaumJB,deSilvaV,LangfordJC.Aglobalgeometricframeworkfornonlineardimensionalityreduction[J].Science,2000,290(5500):2319-2323.
[7]WrightJ,YangAY,GaneshA,etal.Robustfacerecognitionviasparserepresentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2009,31(2):210-227.
[8]ZhangD,YangM,FengX.Sparserepresentationorcollaborativerepresentation:whichhelpsfacerecognition?[C]//ProcofIEEEinternationalconferenceoncomputervision.[s.l.]:IEEE,2011:471-478.
[9]XuY,ZuoW,FanZ.Supervisedsparserepresentationmethodwithaheuristicstrategyandfacerecognitionexperiments[J].Neurocomputing,2012,79:125-131.
[10] 蔡体健,樊晓平,刘遵雄.基于稀疏表示的高噪声人脸识别及算法优化[J].计算机应用,2012,32(8):2313-2315.
[11] 马小虎,谭延琪.基于鉴别稀疏保持嵌入的人脸识别算法[J].自动化学报,2014,40(1):73-82.
[12]NanZ,YangJ.Knearestneighborbasedlocalsparserepresentationclassifier[C]//ProcofChineseconferenceonpatternrecognition.[s.l.]:IEEE,2010:1-5.
[13]LiCG,GuoJ,ZhangHG.Localsparserepresentationbasedclassification[C]//Procof20thinternationalconferenceonpatternrecognition.[s.l.]:IEEE,2010:649-652.
[14]HuiK,LiC,ZhangL.Sparseneighborrepresentationforclassification[J].PatternRecognitionLetters,2012,33(5):661-669.
[15]MairalJ,BachF,PonceJ,etal.Onlinedictionarylearningforsparsecoding[C]//Proceedingsofthe26thannualinternationalconferenceonmachinelearning.[s.l.]:ACM,2009:689-696.
[16]MairalJ,BachF,PonceJ,etal.Onlinelearningformatrixfactorizationandsparsecoding[J].JournalofMachineLearningResearch,2010,11:19-60.
Face Recognition Based on Weighted Sparse Neighbor Representation
XIE Wen-hao,ZHAI Su-lan
(School of Mathematical Sciences,Anhui University,Hefei 230601,China)
Currently,face recognition via sparse representation has gained widespread attention.Since the sparse neighbor representation algorithm without considering the different weight of training samples to reconstruct the test sample,simultaneously,to improve the recognition rate of face recognition based on sparse neighbor representation,in this paper,a face recognition algorithm of weighted sparse neighbor representation was proposed.First,in each class of the training samples,ksamplesnearesttothetestsamplesareselected,constructednewtrainingsamplesinthisclass.Andthendothesameoperationineachclass,soastoconstructanewtrainingdictionary,whensolvingsparsecoefficientwithl1normminimization,aweightisgiventothesparsecoefficientofeachnewtrainingsample.Finallywiththenewtrainingdictionary,accordingtotheminimumreconstructionerrortocompletetherecognitiontask.ThemostexperimentsresultsonYaleBfacedatabaseandORLfacedatabaseshowthattheproposedmethodachieveshigherrecognitionratecomparedwithKNNandSNRC(SparseNeighborRepresentationforClassification),whichconfirmstheeffectivenessofthealgorithm.
sparse representation;feature extraction;weighted nearest neighbor;face recognition
2015-05-21
2015-08-26
时间:2016-01-26
安徽省高校省级优秀青年人才基金重点项目(2013SQRL005ZD)作者简介:谢文浩(1990-),男,硕士研究生,研究方向为图像处理与模式识别;翟素兰,副教授,博士,硕士生导师,研究方向为模式识别、视频分析、数据挖掘。
http://www.cnki.net/kcms/detail/61.1450.TP.20160126.1521.056.html
TP
A
1673-629X(2016)02-0022-04
10.3969/j.issn.1673-629X.2016.02.005