APP下载

基于邻域区间扰动融合的无监督特征选择算法框架

2021-09-15吕晓林

南京理工大学学报 2021年4期
关键词:特征选择聚类框架

吕晓林,杜 亮,2,周 芃,吴 鹏,2

(山西大学 1.计算机与信息技术学院;2.大数据科学与产业研究院,山西 太原 030006;3.安徽大学 计算机科学与技术学院,安徽 合肥 230601)

高维大数据在许多领域随处可见,科技的进步更是加快了大数据的产生,每天都会有数亿的数据产生,以文本、图像、音频、视频等形式存在,覆盖于各个领域。面对如此庞大的数据,从中选择出合适的信息对学习工作进行指导变得极为困难。在这种境况下,特征选择技术显得尤为重要。特征选择技术的主要目的是在一个特定的评估标准下,从原始的高维特征中选择出最重要的特征子集,然后利用选择出的特征子集结合一些有效的算法去完成数据聚类、分类等任务。

根据数据样本是否含有标签信息,特征选择算法可分为有监督特征选择[1,2]、半监督特征选择[3-5]和无监督特征选择[6-8]3类。有监督和半监督特征选择通常会用到样本的标签信息,通过特征和标签信息之间的相关性来评定特征的重要性。现实中采集到的数据很少有标签信息,并且标记标签信息的代价很昂贵,在大规模数据中更是难以实现,因此,研究无监督场景下的特征选择更具有实用价值。

无监督特征选择方法可分为3类:过滤式方法[9]、包装式方法[10]和嵌入式方法[11-13]。过滤式方法的主要思路是对每一维的特征打分,即给每一维的特征赋予权重,权重代表该维特征的重要性,然后依据权重排序。过滤式方法是独立于学习算法的,它的计算量很低,它的性能也有所欠缺。包装式方法是将子集的选择看作是一个搜索寻优的问题,首先生成不同的组合,对组合进行评价,然后再与其他的组合进行比较。包装式方法是与特定的学习算法相联系的,虽然有较好的性能,但是它的计算量很大,不适用于对大规模数据的处理。嵌入式方法的思路是在模型既定的情况下得出对提高模型准确性最好的属性,即在确定模型的过程中,选出对模型有重要意义的属性。具体而言,嵌入式方法是将特征选择的学习过程嵌入进模型中,故嵌入式方法能获得一个较好的性能,但其计算量很大,不具备通用性。

1 相关工作

近年来,研究者基于无监督特征选择方法已经做了大量的工作,其中最具有代表性的是拉普拉斯特征选择算法(Laplacian score for feature selection,LapScore)[14]和多类簇特征选择算法(Unsupervised feature selection for multi-cluster data,MCFS)[15]。LapScore是一种基于过滤式的无监督特征选择方法,是由何晓飞于2005年提出的,LapScore主要是基于拉普拉斯特征映射和局部保留投影,它的主要思想是距离近的两个样本点更可能属于同一类。因此,LapScore认为,数据的局部结构比全局结构更重要。LapScore是通过特征保留数据局部结构的能力来评估其重要性的。MCFS是一种基于嵌入式的无监督特征选择方法,是由蔡登于2010年提出的,其主要思想是通过谱分析展开数据流形,然后利用L1谱分析回归来决定特征的重要性。这两种方法都是从改造模型的角度出发进行特征选择,并且都没有考虑特征的冗余性,所选出的特征具有很大的冗余性。对此,Wang等[16]于2015年提出了一种基于全局冗余最小化的特征选择框架(Feature selection via global redundancy minimization,GRM)。进一步地,Nie等[17]于2019年提出了一种基于全局冗余最小化的自动加权特征选择框架(General framework for auto-weighted feature selection via global redun-dancy minimization,AGRM)。这两个框架都能够选择出不冗余的特征,既适用于有监督特征选择方法,也适用于无监督特征选择方法。

另外,在以往的无监督特征选择工作中发现,对不同数据集进行降维,选择特征的能力是不同的,甚至有很大差异。数据的准确与否会对所选择的特征产生很大影响,提出的模型抗干扰能力差,性能极易受到个别异常点的破坏。为此,研究者们从不同的维度提出了一系列的解决办法,包括自步学习、鲁棒学习等。

(1)自步学习。

自步学习是近年来被提出的一种学习策略,它从简单到复杂逐步增加训练实例,可以典型地降低局部最优的风险。基于聚类任务现存的一些问题,如聚类结果很容易陷入局部最优、聚类结果容易受到少量异常值的影响、聚类结果对初始参数非常敏感等,很多研究者发现,通过加入自步学习框架可以大大缓解此类问题。具体地,Yu等[18]于2020年提出了一种基于自步学习的K-means聚类算法。其核心思想是通过自步学习方法来模拟人类学习知识的过程,即从易到难地学习知识。该方法首先使用一个自步正则化因子来选择样本的一个特定子集加入训练,然后自动调整自步学习的参数逐步地增加样本的数量和难度,从而逐渐提高聚类模型的性能和泛化能力。

(2)鲁棒学习。

为了克服异常点对模型的影响,增强算法的稳定性,研究者们针对聚类任务提出了许多鲁棒的算法[19,20]。这些方法大致可归为两类:一类是基于惩罚正则化的方法,另一类是基于裁剪函数的方法。Georgogiannis于2016年通过借鉴回归中离群点检测的思想,提出了一个经典二次K-均值算法的变量鲁棒性和一致性的理论分析——鲁棒K-means[21]。在这项工作中,Georgogiannis发现,一个数据集中的两个离群值足以分解这个聚类过程。然而,如果关注的是“结构良好的”数据集,那么尽管有离群值,鲁棒K-means最终还是可以恢复底层的集群结构。

可以看出,针对数据集中的离群点,为了降低其对模型性能的影响,研究者们都是努力地提升模型的稳定性,不可否认的是,这种做法确实能缓解离群点对模型整体性能的破坏,但是,正如Georgogiannis在鲁棒K-means的工作中所提出的,对于“结构良好的”数据集,鲁棒K-means可以克服离群值的影响,恢复数据的底层集群结构,而对于某些数据集,这个数据集中的两个离群值足以破坏整个聚类过程,这足以说明对于一个“非结构良好的”数据集,离群值的破坏力很大。

为此,本文从两方面来提高聚类的准确性。一方面,采用区间的方式对数据进行近似,相较于直接使用某个样本自身的信息,本文采用其邻近的几个样本来刻画这个样本,这样可以有效地降低离群点的影响。另一方面,基于上述产生的多种数据表示,提出了一种新的模型——基于邻域区间扰动融合的无监督特征选择算法框架(Unsupervised feature selection algorithm framework based on neighborhood interval disturbance fusion,NIDF)。此模型可实现对特征的最终得分和近似数据区间的联合学习,最终达到一个不错的聚类效果。

2 研究方法

2.1 方法的提出

图1 算法过程示意图

NIDF模型如下

(1)

式中:Ai∈Rd×d是一个冗余矩阵,用来刻画第i个近似数据集上所有特征间的冗余性;si∈Rd×1代表的是对第i个近似数据集进行无监督特征选择后得到的特征分数;wi代表的是第i个近似数据集的权重;λ是一个自动加权的参数,用来平衡第一项和第二项;z∈Rd×1是利用式(1)联合学习特征选择和近似的数据区间后得出的最终特征分数。

2.2 方法的优化

式(1)可通过迭代地更新λ、z、w来求解,详细过程如下。

(1)固定z和w,更新λ。则式(1)可等价于求解以下问题

(2)

对于式(2),通过求其关于λ的导数,并令其等于0,则可求出

(3)

(2)固定λ和w,更新z。则式(1)可等价于求解以下问题

(4)

很明显,上述问题是一个带有线性约束的凸二次规划问题,该问题可用现有的优化工具轻松解决。

(3)固定λ和z,更新w。则式(1)可等价于求解以下问题

(5)

这里,引入矩阵H∈Rd×d,f∈Rd×1,其中H是一个对角矩阵,其主对角线元素为Hii=zTAiz,矩阵f中的元素为fi=zTsi。则式(5)可被重写为

(6)

同样,这是一个带有线性约束的凸二次规划问题,可用现有的优化工具解决。

总体来说,式(1)的解法如算法1所示。另外,整个NIDF模型的过程总结在算法2中。

算法1式(1)的优化解法

初始化:z,w;

重复:

1.更新λ通过式(3);

2.更新z通过解决式(4);

3.更新w通过解决式(6);

直到λ收敛。

输出:z

算法2NIDF模型的过程

输入:数据集X,样本标签Y,所选特征数m;

步骤:

3.利用算法1求解NIDF模型,实现对特征选择和近似的数据区间联合学习,得出最终的特征分数z;

4.对特征分数z进行降序排序,并选出其前m个特征。

输出:选出前m个特征。

3 实验

本节通过在8个公开的数据集上进行实验,验证本文所提模型的有效性。

3.1 数据集

在实验中,本文使用了多种数据集,包括2个文本数据集,4个图像数据集,1个生物数据集,1个其他数据集,这些数据集都是进行特征选择的常用数据集,数据集的大小如表1所示。

表1 数据集的大小

3.2 实验对比算法

提出的模型作为一个后处理过程,可用于无监督特征选择方法中,这里使用了3个现有的无监督特征选择方法:拉普拉斯算法(LapScore)、多类簇特征选择算法(MCFS)和基于图结构的Kullback-Leibler(KL)散度最小化算法(Gragh-based Kullback-Leibler divergence minimization for unsupervised selection,KLMFS)。

另外,GRM和AGRM框架也可用于无监督特征选择中的后处理过程,此处将这两个框架应用于已有的无监督特征选择方法,可以得出以下几组对比算法。

(1)第一组。

LapScore[14]:基于原始数据集,利用拉普拉斯特征选择算法进行特征选择。

LapScore_GRM[16]:基于原始数据集,将GRM框架应用于拉普拉斯特征选择算法中进行特征选择。

LapScore_AGRM[17]:基于原始数据集,将AGRM框架应用于拉普拉斯特征选择算法中进行特征选择。

LapScore_NIDF:新提出的方法,基于构建的区间近似数据集,将NIDF框架应用于拉普拉斯特征选择算法中进行特征选择。

(2)第二组。

MCFS[15]:基于原始数据集,利用多类簇特征选择算法进行特征选择。

MCFS_GRM:基于原始数据集,将GRM框架应用于多类簇特征选择算法中进行特征选择。

MCFS_AGRM:基于原始数据集,将AGRM框架应用于多类簇特征选择算法中进行特征选择。

MCFS_NIDF:新提出的方法,基于构建的区间近似数据集,将NIDF框架应用于多类簇特征选择算法中进行特征选择。

(3)第三组。

KLMFS[22]:基于原始数据集,利用KL散度最小化算法进行特征选择。

KLMFS_GRM:基于原始数据集,将GRM框架应用于KL散度最小化算法中进行特征选择。

KLMFS_AGRM:基于原始数据集,将AGRM框架应用于KL散度最小化算法中进行特征选择。

KLMFS_NIDF:新提出的方法,基于构建的区间近似数据集,将NIDF框架应用于KL散度最小化算法中进行特征选择。

3.3 评价指标

在实验中,使用了聚类方法常用的两个评价指标来评估方法的性能,即聚类准确性(Accuracy,ACC)和归一化互信息(Normalized mutual information,NMI)。这两个指标的值越大,表示聚类性能越好。

聚类准确性:聚类准确性主要是用来刻画所聚的类和样本原始类之间的一对一关系。给定一个样本点xi,pi和qi分别用来表示聚类结果和样本的真实标签,则ACC为

式中:n是样本数,δ(x,y)是一个这样的函数,若x=y,δ(x,y)的值为1,否则为0。map(·)是一个置换函数,将每一个簇索引映射到一个真实的类标签中。

归一化互信息:归一化互信息主要是用来刻画聚类的质量。记C是真实类标签的集合,C′是通过聚类算法计算的类集合,则它们的互信息MI(C,C′)为

式中:p(ci)和p(c′j)分别是从数据集中任意选定的一个样本点属于类ci和c′j的概率,p(ci,c′j)是这个数据点同时属于这两个类的概率。实验中,使用的归一化互信息NMI为

式中:H(C)和H(C′)分别是C和C′的熵。

3.4 实验结果分析

本文进行了多组实验,以验证所提模型的有效性。

图2 原始数据集和区间近似数据集上LapScore的特征选择效果

其次,针对区间近似数据集对特征选择的不稳定影响,包括积极的和消极的,本文联合学习区间近似数据集和特征选择——NIDF模型。这里同样以PIE数据集中的第一个样本图像进行LapScore特征选择为例。在这组实验中,本文以原始的LapScore特征选择方法、经GRM和AGRM处理过的LapScore_GRM和LapScore_AGRM方法作为对比,实验得出,经本文提出的NIDF处理后的LapScore_NIDF能一定程度上提高特征选择的效果。直观的特征选择效果如图3所示,从图中可以看出,经NIDF处理后的LapScore_NIDF选择出的特征更集中,更具有代表性。

图3 3种框架基于LapScore的特征选择效果

最后,通过在大批量的数据集上分别进行3组对比算法的特征选择能力测试,可以看出本文提出的模型能一定程度上提高无监督特征选择方法的性能,聚类结果分别如表2和表3所示,其中最好的结果加粗表示,次好的结果加下划线表示。另外,3组算法在不同数据集上ACC值的直观展示如图4所示。

图4 不同数据集上ACC值的直观展示

通过分析可以得出,经本文提出的NIDF模型处理后,LapScore_NIDF、MCFS_NIDF以及KLMFS_NIDF相比较于原始的LapScore、MCFS和KLMFS方法,在准确性ACC上分别能提高将近17.51%、15.26%和10.50%。然而,由图4可以直观看出,本文提出的NIDF模型并不能绝对优于现有的GRM和AGRM框架,但是从总体上看,经本文提出的NIDF模型处理后的新方法,相比较于经GRM和AGRM处理后方法的平均值,在准确性ACC上分别能提高将近7.40%、5.41%和8.16%。

总的来说,尽管本文提出的NIDF模型不能绝对优于现有的GRM和AGRM框架,但是在大多数情况下可以达到比这两个框架更好的效果,少数情况下效果相差无几。另外,本文提出的NIDF作为一个后处理框架,相比较于原始的无监督特征选择方法,可以达到对其性能的进一步提升,因此有一定的实用意义。

3.5 参数设置

在求数据集的近似区间数据集时,涉及到邻域k和参数alpha,这里设置的邻域数k是15,alpha是3。由于K-means聚类的结果受初始值影响较大,故本文在每一次评估算法性能时重复进行K-means聚类20次,最终给出平均值。本文在利用所选特征评估算法性能时,所选择的特征数集合是[10:10:100],最终取所有结果的平均数。

4 结束语

本文首先采用区间的方式对数据集进行近似。将一个数据集表示成与其相关几个数据集的组合,然后基于上述得到的多种数据表示,本文通过实验验证了其优劣性,并思考从全局角度对这些数据集进行处理,进而提出了一种新的模型——基于邻域区间扰动融合的无监督特征选择算法框架NIDF。实验证明,通过对特征的最终得分和区间近似数据集的联合学习,该模型能一定程度上提高原始特征选择方法的性能,并且在大多数情况下优于现有的两个后处理框架GRM和AGRM。

猜你喜欢

特征选择聚类框架
一种傅里叶域海量数据高速谱聚类方法
有机框架材料的后合成交换
框架
面向WSN的聚类头选举与维护协议的研究综述
改进K均值聚类算法
基于智能优化算法选择特征的网络入侵检测
故障诊断中的数据建模与特征选择
reliefF算法在数据发布隐私保护中的应用研究
一种多特征融合的中文微博评价对象提取方法
基于Spark平台的K-means聚类算法改进及并行化实现