APP下载

基于哈希存储与事务加权的并行Apriori改进算法

2020-11-14朱洪亮陈玉玲

计算机工程 2020年11期
关键词:项集哈希事务

李 洁,朱洪亮,陈玉玲,辛 阳

(1.北京邮电大学 网络空间安全学院,北京 100876; 2.贵州大学 贵州省公共大数据重点实验室,贵阳 550025)

0 概述

数据挖掘是指从海量、不完整以及模糊的实际应用数据中,提取出人们事先不知道但又可能有价值的信息和知识的过程[1]。关联规则挖掘是数据挖掘领域中的一个重要研究方向,其最早由AGRAWAL等人[2]针对超市购物篮问题分析提出,目的是为了发现超市交易数据库中不同商品之间的关联关系。经典关联规则挖掘算法包括Apriori算法[2]和FP-Growth算法[3]。Apriori算法扩展性较好,可以应用于并行计算等领域,但是其多次扫描事务数据库,每次利用候选频繁集产生频繁集,需要很大的I/O负载。FP-Growth算法利用树形结构,无需通过候选频繁集而直接产生频繁集,大幅减少了扫描事务数据库的次数,从而提高了算法效率。目前,Apriori和FP-Growth 2种算法均广泛应用于市场营销、网络安全和生物信息学等领域。

随着信息化时代的到来,网络交互呈爆炸式增长,需要处理的数据量从GB量级增长到了PB量级,其中,非结构化数据占数据总量的80%~90%,且其价值密度较低,这对数据挖掘算法的性能提出了更高的要求。传统Apriori算法由于每计算一次候选集的支持度都需要遍历原始事务数据库,因此需要多次扫描数据库,效率较低,不能满足大数据处理的要求,对Apriori算法进行改进显得尤为必要。

本文针对传统Apriori算法运行效率低的问题,提出一种基于哈希存储与事务加权的并行Apriori算法。利用哈希结构对事务进行去重,同时将项目与项集的映射存储在哈希结构中,避免计算候选集的支持度时多次扫描事务数据库。同时,通过多线程并行计算候选集的支持度来提高Apriori算法的运行效率。

1 关联规则挖掘相关研究

目前,国内外学者对关联规则挖掘算法进行了大量研究,对挖掘算法的改进主要分为以下4类:

1)基于数据存储结构的改进算法。该类改进主要利用矩阵、树和图等数据结构对事务信息进行存储,以达到减少数据库扫描次数的目的[3-5]。文献[6]提出一种改进的Apriori算法,其通过生成布尔矩阵减少事务数据库的遍历次数,降低了关联规则挖掘的时间和空间复杂度,但是当数据量较大时,该算法对内存的要求较高。文献[7]提出一种基于矩阵与权重向量的Apriori改进方法,该方法通过权重计算在一定程度上压缩了数据矩阵,但当数据量较大时,布尔矩阵的计算性能会显著降低。文献[8]提出一种NSFI算法以挖掘关联规则,其通过使用哈希表来存储与频繁1项集相关联的N个事务,计算候选集的支持度时只需查找对应2个列表之间的交集,从而提高了算法的运行效率和内存使用率,但该算法取交集的效率较低,且未考虑事务重复的情况,当事务重复较多时,其会存储大量的冗余数据,导致性能降低。

2)基于多种算法相结合的改进算法。将关联规则算法与其他算法相结合的改进方式[9],可以发挥关联规则算法与其他算法的优势。文献[10]提出一种基于遗传算法来寻找频繁项集的GNA算法,其结合Apriori算法和遗传算法的特点,设计k步挖掘过程,利用交叉算子产生候选项集和变异算子从而筛选频繁项集,在避免多次扫描数据库的同时减少冗余。文献[11]提出一种Apriori算法和遗传算法相结合的方法,其采用支持度、置信度和覆盖度作为规则的评价指标,与传统Apriori算法相比,该方法可以在相同的支持度下找到更多满足用户期望的规则,并减少无用规则的生成。文献[12]将Apriori算法和图形计算相结合,提出一种图形计算方法ANG来进行频繁项集挖掘。当k很小时,使用Apriori算法计算k项候选集的支持度,当k增大时,使用图形计算方法计算k项候选集的支持度,并给出公式来确定何时从Apriori算法转换到图形计算方法。相较于传统Apriori算法和图形计算方法,ANG方法在性能上有很大提升。但是,基于多种算法相结合的改进算法大多计算过程复杂,且混合算法中的参数容易受到数据集的影响。

3)基于MapReduce[13]等并行处理技术的改进算法。该类改进算法主要利用并行处理技术,对频繁集的查找过程做并行计算,从而缩短算法的运行时间。文献[14]提出一种并发关系关联规则挖掘(CRAR)方法,该方法利用并发性有效缩短了挖掘关联规则的时间,但是其缩放效率和并行运算效率不高,还需进一步优化。文献[15-17]利用开源框架Hadoop中的MapReduce并行处理技术,将数据集按事务进行分组,利用分布式计算的优势使各节点并行地完成候选项集生成与剪枝操作,从而提高Apriori算法的性能,但是此类改进算法采用HDFS(Hadoop Distributed File System)存储系统,每次计算的中间结果都会写入磁盘,造成很多不必要的I/O负载,降低了算法的执行效率。针对上述问题,文献[18]将关联规则算法FP-Growth与Spark框架进行结合,计算的中间结果不再写入磁盘,并针对挖掘频繁项集过程中分组不均衡的问题给出解决方案,提高了FP-Growth算法的并行运算效率,但此类改进算法并行计算的效果参差不齐且不稳定,容易受数据分组算法的影响,且应用框架不够轻量,不利于应用的迁移和扩展。

4)基于约束条件的改进算法。该类改进算法主要针对关联规则挖掘算法中的频繁集补充约束条件,降低无意义的候选频繁集产生。文献[19]提出一种基于SET-PSO的正负关联规则挖掘方法,其通过粒子群优化从数据库中生成关联规则,同时考虑属性的正相关性和负相关性,从而减少候选频繁集的产生,提升Apriori算法的运行效率,但是该算法生成正负关联规则的相关系数往往需要人工确定。文献[20]针对序列数据边界难以确定的问题,提出一种基于模糊关联规则挖掘(DOFARM)的新型参数和度量动态优化方法,其通过使用一定范围内的分界值平滑地分离2个连续的分区,并为原始数据集生成模糊集制定相应的隶属函数,有效解决了连续数据的分组问题,同时对分组参数进行动态优化,在实验数据集上取得了较好的效果。基于约束条件的改进算法多数是针对某种情况下的特定问题而提出。

2 并行Apriori改进算法

2.1 传统Apriori算法

关联规则挖掘算法主要用来查找和分析隐藏在项集之间的类似X⟹Y的规则,Apriori算法[2]是该领域的最经典算法之一,用来查找海量数据中有价值的隐藏关联知识。Apriori算法的经典应用是通过对超市交易数据的关联分析,发现“尿布”和“啤酒”之间的关联关系,从而使超市获得了可观的经济收益。Apriori算法中的相关概念[21]如下:

1)项目和项集。设I={i1,i2,…,im}为项的集合,即项集。项集中的每个ik(k=1,2,…,m)称为项目(item)。项集的长度就是项集I含有的项目数量,长度为k的项集在本文中称为k-项集(k-itemset)。

2)事务和事务数据库。每个事务(transaction)都是项集I的一个子集,记为T,即T⊆I。本文使用事务ID来区分不同的事务,以方便频繁集的查找和计数。事务数据库D是全部事务的集合,本文用|D|来表示D中包含的事务个数。

3)项集的支持度。对于项集X,X⊂I,本文使用count(X⊆T)表示数据库D中包含X的事务数量,则项集X的支持度定义为:

(1)

4)项集的最小支持度和频繁集。在查找关联规则的过程中,项集要满足一个指定的支持度阈值,这个指定的支持度阈值就是项集的最小支持度,记为supmin。当一个项集的支持度不低于supmin时,称该项集为频繁项集,即频繁集;不满足此条件的项集,称为非频繁集。k-项集的支持度若不低于supmin,通常称为k-频繁集,记作Lk。

5)关联规则。本文定义关联规则的形式如下:

R:X⟹Y

(2)

其中,X⊂I,Y⊂I,且X∩Y=∅。规则R表示当一个事务中出现X时,在某一概率下该事务中也会出现Y。本文称X为规则R的条件,Y为规则R的结果。关联规则R:X⟹Y反映了如下规律:当X中的项目出现时,Y中的项目也会随之出现。

6)关联规则的支持度。对于关联规则R:X⟹Y,X⊂I,Y⊂I,且X∩Y=∅,事务数据库中同时包含X和Y的事务个数与所有事务个数之比为规则R的支持度,记为support(X⟹Y),表示为:

(3)

7)关联规则的可信度。对于规则R:X⟹Y,X⊂I,Y⊂I,且X∩Y=∅,其可信度是指同时包含X和Y的事务个数与包含X的事务个数的比值,记为confidence(X⟹Y)。可信度反映了若事务中出现X则事务中同时出现Y的概率,表达式如下:

(4)

8)连接和剪枝。当2个长度相同的频繁项集只有一个项不同时,将它们连接在一起产生候选频繁集的过程称为连接。根据Apriori算法的性质“频繁集的任一子集都是频繁的”来修剪候选频繁集的过程称为剪枝。

传统Apriori算法是一个迭代挖掘频繁模式的过程[22],挖掘过程中会不断地产生候选频繁集,然后计算候选集的支持度,由候选集产生频繁集,再由频繁集经过连接、剪枝步骤生成新的候选集,如此重复,直到无法产生新的频繁集则算法终止。对于项集X,X⊂I,若support(X)≥supmin,则X为频繁集。传统Apriori算法流程如图1所示。传统Apriori算法每次计算候选频繁集的支持度,都需要遍历一次事务数据库,存在扫描数据库频繁、产生候选项集多、耗时较长等问题,在实际应用中往往运行效率较低。本文针对Apriori算法的不足,提出一种基于哈希存储与事务加权的并行Apriori改进算法,以提升传统Apriori算法的性能。

图1 传统Apriori算法流程

2.2 Apriori算法改进

本文利用哈希存储的去重特性对事务进行去重,在一定程度上压缩事务集,同时将项集与事务集的映射存储在HashMap中,计算支持度时只需计算项集对应事务集的权重,从而减少事务数据库的扫描次数。然后利用MapReduce编程思想开启多个线程,并行计算候选频繁集的支持度,从而提高算法的运行效率。

2.2.1 算法描述

原始Apriori算法每计算一次候选集的支持度,都需要遍历一次原始事务数据库,因此需要多次扫描原始事务数据库,当数据库较大时,会进行大量的I/O操作,导致算法性能下降。对此,本文采用以下改进方式:

1)遍历原始事务数据库,利用HashSet的去重特性来存储事务集,并对重复的事务进行计数,将其记为该事务的权重。当事务列表重复项较多时,该步骤能大幅压缩事务数据库。

2)在遍历项集时统计当前项目(item)对应的所有事务集合(transactions),对事务集合的权重进行累加即可快速获得支持度计数。

3)在迭代计算n项集对应的事务集时,对组成它的n-1项集对应的事务集直接做交集操作。此处不需要遍历原始数据库,只对项集对应的事务集合进行操作,从而有效减小了遍历长度。最后对事务集合(transactions)的事务权重进行累加即可快速获得支持度计数。为了提高取交集操作的速度,本文采用数据库视图的思想,不直接操作原始数据,而是先生成一个集合视图,集合视图是对原始集合的一系列逻辑操作,通过集合视图可以快速获取交集是否为空、交集大小是否符合要求等信息。若符合要求,再遍历集合视图,这样可以过滤掉大部分取交集的耗时操作,大幅提升取交集的效率。由于事务集合采用HashMap存储,2个集合取交集时,只需遍历其中一个集合,然后直接通过哈希映射判断当前事务是否存在另一个集合中,保证取交集的遍历操作能在Ο(n)的时间复杂度内完成。同时,由于集合视图只是一系列逻辑运算,因此大幅减少了内存占用。

4)哈希函数的选取。为了避免哈希函数的冲突,本文使所有项集的每个字符均参与哈希计算,首先将项集转为字符串,然后取其中每个字符的值作累加并左移5位,获得哈希值,这样可以尽量避免冲突。同时,为了减少重复计算,使每个项集缓存计算的哈希值。

5)在每次迭代计算项集的支持度时,开启多个线程并行计算。并行运算属于CPU密集型的运算,CPU核数越多,并行度越高,计算速度越快。并行计算示意图如图2所示,Apriori改进算法流程如图3所示。

图2 并行计算示意图

图3 Apriori改进算法流程

Apriori改进算法描述如下:

算法1Apriori_improve算法

输入事务数据库D,最小支持度阈值supmin

输出所有频繁集L

1.扫描事务数据库D,记录项集C1、事务集transactionList以及项集到事务集的映射transMap,同时对重复事务T计数,记为权重w

2.根据映射transMap以及w,并行计算C1中的项目支持度,得到1-频繁集L1

3.若L1==Ø,无频繁集,算法结束

4.for(k=2;Lk-1≠Ø;k++){

5.Ck,transMap=Apriori_gen(Lk-1,transMap);//根据//k-1频繁集产生k候选集

6.for each c∈Ck{//开启多线程并行计算

7.localTrans = transMap.get(c);

8.for each transaction∈localTrans{

9.supportCount+=weightMap.get(transaction) ;

10.}

11.support=supportCount/Len(transactionList)//计算c//的支持度

12.if(support>=supmin){

13.Lk= Lk∪c

14.}

15.}

16.}

17.return L=L∪Lk

Apriori_gen算法的主要功能是对候选频繁集进行连接和剪枝,描述如下:

算法2Apriori_gen算法

输入上一次循环扫描的结果Lk-1,transMap

输出候选频繁集Ck,transMap

1.for each l1∈Lk-1

2.for each l2∈Lk-1

3.if(l1[1]==l2[1]&&…&& l1[k-2]==l2[k-2]&&l1[k-1]==l2[k-1]){

4.c=l1⨁l2//将只差一项的2个项集连接在一起

5.trans1=transMap.get(l1)

6.trans2=transMap.get(l2)

7.trans=trans1∩trans2

8.transMap.add(c,trans)

9.if 存在c的子集不在Lk-1中//剪枝

10.delete c;

11.else Ck=Ck∪{c}

12.}

13.return Ck

本文提出的Apriori改进算法通过扫描原始事务数据库,获取事务集以及项目到事务集的映射关系(Map),并将其存储在哈希映射(HashMap)中,同时记录事务重复出现的次数并开启多个线程,并行计算候选频繁集的支持度。哈希存储具有以下优势:

1)自动去重,减少程序运行所需要的空间,降低算法的空间复杂度。

2)由于改进算法存储了项目与事务之间的映射关系,在计算项目的支持度时,无需重新遍历原始数据库,只需取对应的事务集并做交集运算即可,有效提高了计算速度。

3)使用哈希运算获得局部锁,可以提升算法在计算过程中的并行性能。当数据库中重复的事务较多时,计算事务权重能够大幅压缩事务集,从而提高计算速度。

4)针对关联规则挖掘问题,对哈希函数进行优化,降低了哈希冲突的概率,同时对已计算出的项集对应的哈希值进行缓存,避免了重复计算。在优化取交集运算时,利用数据库视图的思想,利用集合视图能够快速获取交集是否为空、交集大小是否符合要求等信息,避免了直接操作原始数据,在大幅减少耗时操作的同时又避免了数据的复制,降低了内存的使用。在计算候选集的支持度时,开启多个线程并行计算支持度,这样能够充分发挥硬件设备的性能,并且在事务量足够大时提高算法的运行效率。

2.2.2 算法分析

本文对并行Apriori改进算法的正确性和运算效率进行理论分析,分析基于以下假设:

事务数据库为D,项集为I={i1,i2,…,im},项目为ik(k=1,2,…,m),事务为T,事务个数为|D|,事务权重为w={w1,w2,…,wm},其中,Ti的权重为wi,重复事务数与总事务数的比值记为重复率δ,T=w1T1+w2T2+…+wmTm,关联规则R:X⟹Y,其中,X⊂I,Y⊂I,且X∩Y=∅。

对于项集X,X⊂I,X的支持度为:

(5)

关联规则R:X⟹Y的支持度为:

(6)

关联规则R:X⟹Y的可信度为:

(7)

Apriori改进算法的正确性得证。

传统Apriori算法总的访问次数为:

(8)

因此,传统Apriori算法的时间复杂度为O(mq2nb)。

Apriori改进算法的总访问次数为:

(9)

根据以上分析可以看出,本文提出的Apriori改进算法比原始Apriori算法效率至少提高(1-δ)p2倍,且重复事务越多,并行度越高,效率提升效果越明显。

2.2.3 Apriori改进算法的应用框架

在解决实际的数据挖掘问题时,先要对历史数据进行预处理以及特征提取,然后利用本文提出的Apriori改进算法对训练数据实现关联规则挖掘,找出频繁集,建立规则库,最后将待测数据与规则库中的规则进行模式匹配,并根据新信息动态更新所建立的模型。Apriori改进算法的总体应用框架如图4所示。

图4 Apriori改进算法的应用框架

3 实验分析与验证

本文通过实验来验证Apriori改进算法的有效性,实验数据集采用360日志数据,该数据集是2019年奇虎360公司举办的网络攻防比赛所用数据,其中的日志数据包括Web警告信息、IP基础信息、日常访问行为信息和终端行为信息等多个维度的网络行为数据。360日志数据集共包含2018年12月份31天的日志信息,每天的日志信息量大小为11.0 M~1.7 G。实验环境:处理器为Intel®Core i7-9700K 3.60 GHz 8核,内存为32 GB,硬盘为1 T,操作系统为Ubuntu 18.04.3 LTS,运行环境为JDK 13。

为了验证本文所提算法的时间复杂度和空间复杂度,选取数据集中某5天的日志数据,使用传统Apriori算法、FP-Growth算法和本文Apriori改进算法对实验数据进行关联规则挖掘,并统计和比较以上算法的运行时间和内存占用情况,结果如图5、图6所示。

图5 不同数据集大小下的算法运行时间对比

图6 不同数据集大小下的算法内存占用对比

图5、图6所示分别为最小支持度为0.15、改进Apriori算法线程数为8时,不同事务数情况下3种算法运行时间和内存占用的对比情况。从中可以看出,相较于传统Apriori算法,本文Apriori改进算法性能提升明显。在算法运行时间上,Apriori改进算法取得了与FP-Growth算法相近的效果,同时又避免了FP-Growth算法内存占用过大的问题。FP-Growth算法需要递归生成条件FP-tree,内存开销较大,本文Apriori改进算法采用哈希存储与集合视图相结合的改进方案,有效降低了算法的内存开销。

为了验证本文所提算法的稳定性并探究并行度对该算法的影响,针对不同的支持度和并行度进行实验,并统计和对比算法的运行时间,结果如图7、图8所示。

图7 不同支持度下的算法运行时间对比

图8 不同并行度下的算法运行时间

图7所示为数据集大小为11 M、最小支持度分别取0.02~0.30情况下算法的运行时间对比情况。从图7可以看出,支持度越小,挖掘频繁项集所需时间越长,相较于传统Apriori算法,本文Apriori改进算法的运行时间随支持度的变化幅度较小,算法较为稳定。

图8所示为数据集大小为91 M、最小支持度设置为0.15时改进算法的运行时间随并行度的变化情况。从图8可以看出,在线程数小于8时,Apriori改进算法的运行时间随并行度的增加而降低,在线程数为8时,Apriori改进算法的运行效率达到最优,在线程数大于8时,Apriori改进算法的运行效率基本保持平稳状态。

4 结束语

本文针对传统Apriori算法运行效率低的问题,提出一种基于哈希存储与事务加权的并行Apriori改进算法。利用哈希存储减少对原始事务数据库的扫描次数,记录事务的权重,对事务进行去重和压缩,并通过记录项目所在事务的ID建立映射关系,从而减少冗余计算。开启多个线程,并行计算候选频繁集的支持度,使硬件设备的性能得到充分发挥,从而提升算法的运行效率。选取360网络攻防大赛数据集进行验证,结果表明,该算法能够大幅降低关联规则挖掘所需的时间以及内存占用,有效提升传统Apriori算法的性能,在运行时间上取得与FP-Growth算法相近效果的同时又避免了FP-Growth算法内存占用过大的问题,在处理海量数据时,该算法能够大幅降低设备成本。

相较于分布式并行计算框架,本文并行Apriori改进算法更加轻量,易于移植,可扩展性较高,但并行计算所带来的性能提升受限于硬件设备CPU的核数,且线程数并非越多越好,线程切换会导致一定的时间开销。下一步将在硬件条件一定的情况下研究最佳并行度的确定方法,以提升本文算法的性能。

猜你喜欢

项集哈希事务
基于特征选择的局部敏感哈希位选择算法
哈希值处理 功能全面更易用
文件哈希值处理一条龙
河湖事务
基于矩阵相乘的Apriori改进算法
不确定数据的约束频繁闭项集挖掘算法
巧用哈希数值传递文件
基于优先级的多版本两阶段锁并发控制协议
移动实时环境下的数据一致性研究
常用关系数据库并发控制的比较研究