APP下载

基于GPU 的子图匹配优化技术①

2022-03-09林志恒谭光明

高技术通讯 2022年1期
关键词:子图剪枝流水线

孟 轲 林志恒 谭光明

(*中国科学院计算技术研究所高性能计算研究中心 北京 100190)

(**中国科学院大学 北京 100049)

0 引言

子图匹配算法在多个领域有着广泛的应用,例如从蛋白质相互作用网络中提取重要子图结构来揭示其三维结构,在语义数据上挖掘推理模式,从资源描述框架(resource description framework,RDF)[1]数据中挖掘关联信息,在社交媒体数据中挖掘有价值的用户关系等。子图匹配算法通常将带标签的模式图(pattern graph)作为输入,并通过在数据图(data graph)中查找这些模式的所有实例来提取出用户感兴趣的子图。这类算法通常围绕着数据图中的子图展开搜索和匹配,而传统的图计算应用(例如宽度优先搜索和佩奇排名)则是围绕着顶点状态展开计算[2-4],一些基于图的学习模型也不会涉及到图的拓扑,而是在每个节点上有更大计算量[5-7]。与之相比,子图匹配算法内存消耗更大,更容易受到数据非规则性的影响。随着应用领域不断扩大,需要处理的图数据的大小也逐年增加,目前图数据的边数已达到百亿级别[8]。遍历这些边带来的大量数据移动和计算量对当下的计算机构成了不小的挑战。图应用作为一种典型的非规则负载,其极低时空局部性使其很难在当前的体系结构平台上获得令人满意的并行效率,对数据结构和负载均衡算法的设计也一直是图算法的研究热点。

近些年来,以图形处理单元(graphic processing unit,GPU) 为中心的异构图处理系统不断涌现[9-10]。相比于以中央处理器(center processing unit,CPU)为主的图计算系统而言,GPU 有着更高的带宽和并发度,这使得GPU 能够更快地遍历图中所有的边并能同时处理更多的请求。而以子图匹配为代表的图挖掘算法恰恰需要极高的并发度和带宽来保证性能。异构计算平台越来越普遍,尤其是在E 级[8]超算的研发上,异构架构正逐渐成为主流。许多数据中心也开始利用GPU 来加速各类应用。因此如何利用GPU 加速子图匹配算法是非常有意义而且重要的。然而在GPU 上部署子图匹配算法仍然有着巨大的挑战,是因为图数据结构非常稀疏,且不同的图数据访存模式差异巨大,采用单一的静态优化方法往往顾此失彼[10],如何设计对GPU 友好的图数据结构,针对不同情况选择合适的GPU 优化策略显得至关重要。

虽然关于子图匹配算法的研究有很多,但大多数都是针对CPU 算法的研究。解决子图匹配问题最简单的方法是穷举搜索法,但搜索空间随着图的节点规模呈指数型增长,即使图规模很小,计算时间也是不可接受的。文献[11]提出了一种回溯算法,可以大幅减少搜索空间。后来,其他研究者在此基础上提出了VF2[12]、QuickSI[13]、GraphQL[14]、GADDI[15]等算法。Ullmann 算法[11]并未定义查询顶点的匹配顺序。VF2[12]从一个随机顶点开始,选择与已经匹配的查询顶点相连的下一个顶点。通过利用顶点标签频率的全局统计,QuickSI[13]提出了一种匹配顺序,该顺序将尽可能早地访问具有低频率顶点标签。TurboIso[16]将查询图重写为NEC 树,该树将与同时具有相同邻居结构的查询顶点匹配,在一定程度上提高了匹配效率。Spath[17]则提出了一种并行子图匹配算法,将查询子图分解为两层高的树,称之为twig。这些算法用不同的剪枝规则和匹配顺序来提升性能,但是这些算法仍然太慢,且只能处理具有数千个顶点的图。

近些年来,利用GPU 处理稀疏问题逐渐成为一种充满潜力的方案,因此也有一些研究者试图在GPU 上部署子图匹配任务。GpSense[18]根据GPU的特点设计了对GPU 友好的数据结构和优化策略来加速子图匹配。GpSM[19]则基于图拆分的方法,设计了一些剪枝算法减少搜索空间,但是其算法依赖人工指定的参数。GSM[20]是一个基于Gunrock[9]框架的子图匹配算法,它将传统图计算的原语扩展到图挖掘的领域。本文提出一种基于GPU 的顶点预剪枝子图匹配算法(GPU-based vertex-pruning subgraph matching,GVSM),GVSM 基于图拆分的子图匹配算法,利用高效的剪枝规则和GPU 的高并发来提升性能。和现有的子图匹配算法进行性能对比,GVSM 显示了显著的性能优势。在已有研究的基础上,本文的主要贡献有以下3 个方面。

(1)提出了黑名单算法以及调度顺序决定算法。通过快速的预处理,提前大幅减少搜索空间,平衡了并发度和搜索效率。

(2)GVSM 将高并发的匹配过程卸载到GPU 上执行,而回溯和连接过程则放在CPU 上执行。设计了流水线处理方案让CPU 和GPU 协同处理子图匹配任务,并能够动态地负载均衡。

(3)和现有的子图匹配算法进行了性能对比,详细分析了优化的有效性,优化后的算法显示出显著的性能优势。

1 子图匹配算法概述

1.1 算法定义

给定一个数据图D(Vd,Ed,Ld)和模式图P(Vp,Ep,Lp),其中V 指图中的点集,E 指图中的边集,L 指节点的标签。子图匹配算法指在D 中查找所有P 的实例。即对vp∈Vq,存在vd与之对应。因此子图匹配任务通常接受两份输入数据,一个是数据图,另一个是模式图,一般数据图较大而模式图较小。例如,如图1 所示,在给定的数据图中,要查找的模式图为由标签{A,B,C,D}构成的子图。

图1 子图匹配算法与并行化

子图匹配算法的两大挑战是:(1) 产生大量的中间结果,对存储和检索的压力巨大;(2) 由于图数据本身的非规则性,负载不均衡问题十分严重,这对GPU 这类核数多但是单核弱的平台带来了巨大挑战。

而目前国内外针对子图匹配问题的解决方案没有很好地注意到匹配过程可以剪枝的地方,导致做了许多冗余的搜索,浪费了算力,同时缺少针对GPU 这类平台进行系统性的优化。

1.2 查询图拆分优化

Spath[17]是对查询图进行拆分的子图匹配算法,它将查询子图分解为twig(一个两层高的树),如图1 所示。在拆分完模式图之后,算法执行扩展-连接过程。在扩展阶段,算法按一定顺序匹配每一个拆分出来的twig,即遍历数据图中每个点及其一阶邻居,查询其是否能匹配当前twig。在连接阶段,将每个twig 匹配到的待选点集进行笛卡尔积操作,将这些分割开来的待选点组合成完整的子图。基于图拆分子图匹配算法过程可以抽象成2 个步骤。第1 步骤只匹配单独的twig (本文中称为扩展操作,expand),它只检查单个点在数据图中的匹配关系,而不检查子图的拓扑关系;第2 步骤检查生成的子图的拓扑关系是否满足模式图的拓扑关系(本文中称为连接操作,join),它需要对子图的整体连通性进行检查。

1.3 基于前缀树的压缩优化

为了存储产生的大量的中间结果,必须要对其进行数据压缩,来减少其消耗的存储空间。由于产生的中间结果有许多的重合部分,因此可以采用前缀树的方式来压缩中间结果的共同部分,如图2 所示。产生的2 个中间结果{A,B,C}和{A,B,D}有着相同的部分{A,B},因此可以存储到同一个根上。将这些中间结果称为图的一个嵌入。

图2 前缀树存储子图

前缀树的每一部分保存2 个值{vid,idx}。其中idx 表示该嵌入的前序点的索引,vid 表示该嵌入的当前节点的标签。而前缀树的每一层所存储的节点的标签都是相同的。前缀树将随着子图匹配算法的过程进行构建,子图匹配过程中每匹配一个twig就会增加前缀树的一层,由于相同的前缀总是只需保存一份,相比于直接存储子图可以节省大量的存储空间。但是在连接过程中,整个子图需要还原到原始的结构。此时可以从前缀树的叶子节点开始沿着idx 指针进行遍历直到抵达根节点,此时路径上的节点就构成了当前迭代下已经匹配的子图。

2 子图匹配算法优化

本节将详细介绍子图匹配的算法优化,包括缩小搜索空间、搜索时剪枝优化、调度顺序优化,这些算法能够显著减少搜索空间,并减少需要存储的子图的数目。

2.1 缩小搜索空间

为了减少子图匹配过程中产生的中间结果,本文设计了黑名单算法来提前排除数据图G 中的部分点和边。如图1 所示,顶点v1虽然有着和模式图匹配的标签B,但是它没有标签为D 的孩子节点,因此在后序的匹配中必然不能形成有效匹配。如果将这个子图拖到最后才排除,那么势必会浪费优先的计算资源和存储空间。因此在开始子图匹配算法之前,先对子图的部分节点进行标记,使其不参与后序的匹配过程。对子图的标记通过位图(Bitmap)来完成,每一位代表该节点是否被标记为被排除的点。这一部分可以在预处理完成。GPU 在执行匹配的过程中,首先读取该位图中的信息,如果某个线程发现当前节点被位图标记为应当排除的节点,那么就直接跳过该节点的匹配,从而减少搜索时间。

最初位图中所有位全部初始化为0,此时所有的顶点都是合法的。黑名单算法将迭代进行筛选,在上一轮被加入黑名单的节点在本轮迭代中不会参与统计,因此会影响它的邻居节点,使得更多的节点被加入黑名单。该算法将遍历模式图P 中的每个顶点,同时也将其邻居节点的标签进行遍历,记录其邻居标签的种类和数量,并将这些信息单独存入数组中。之后循环遍历数据图D 中的每个节点,记录当前节点v 的邻居节点的标签数目和种类。随后查询P 中是否存在顶点u,其邻居节点的状态能够匹配节点v。若不能匹配,则将v 加入黑名单。这说明节点v 无论如何都无法和模式图中的某个节点进行匹配,故可以提前剪枝。这个算法由于不需要存储中间结果,每次只需要遍历一次边集即可完成标记,因此开销非常低,第4 节将详细分析该算法的开销。

在1.2 节中,介绍了基于图拆分的子图匹配算法,它将模式图P 拆成两层高的树(twig)来和数据图中的节点进行匹配,这意味着在匹配过程中不仅要匹配节点自己的标签,也要匹配节点的一阶邻居的标签。黑名单算法也基于类似的规则,如果数据图中的某个节点v 不能匹配模式图中拆分出来的任意一个twig,那么这个节点就是不合法的,可以提前筛除。而且筛除节点v 将影响到它的所有邻居节点,这将导致它的某个邻居u 从合法状态变为不合法状态,是因为u 的合法性可能依赖于v。例如节点u 必须借助邻居v 才能和模式图P 中拆出来的twig 进行匹配。若v 变为不合法,那么u 也不合法。因此黑名单算法是一个递归的过程,在每一轮迭代中,不断筛除不合法的节点。在最初的几轮迭代中,会标记大量的节点到黑名单中,但随着迭代的推进,标记的效率会大幅下降。因此黑名单算法可以只执行最初几轮迭代就停止,来平衡算法开销和剪枝效率。

2.2 剪枝优化

在搜索之前执行黑名单算法可以有效减少搜索空间。在搜索的过程中,也可以进行一些剪枝操作来提前终止搜索分支以减少内存和算力的开销。最基础的剪枝条件就是数据图中当前节点的标签和正在匹配的twig 的根节点标签要保持一致。而进一步严格的检查则需要对它们的邻居节点进行一一匹配,这是一个耗时的步骤,它需要检索大量的边。由于输入数据常常存在着拥有大量边集的“超级节点”,因此数据图D 中常常存在蕴含关系,即对于D中2 个顶点v 和u,它们具有相同的标签且u 的邻居集合是v 邻居集合的子集,记做v≽u。形式化表达如下,如果v ≽u,当且仅当L(v)=L(u) 且Adj(u)⊆Adj(v),其中L(v)表示v 的标签,Adj(v)是v 的邻居顶点集。根据蕴含关系可以得知,当v≽u时,如果v 匹配失败,那么此时u 的匹配也必然失败。如图3 所示,节点v1、v2、v3都能匹配当前标签B,且节点v2、v3的邻域是v1的邻域的子集,因此v1≽v2且v1≽v3。由于v1没有标签为E 的邻居,因此v1匹配失败,根据蕴含关系,不需要进行数据比对也可以推出v2、v3匹配将失败,因此之后的匹配可以跳过v2、v3。可以利用该依赖关系对子图匹配的搜索过程进行剪枝。因此对于数据图中某一节点u和其在模式图中的匹配节点u′设立3 条规则来实现该剪枝过程。

图3 蕴含关系剪枝优化

(1) 顶点u′和u 标签必须相同,且deg(u) >=deg(u′)(deg(u)表示顶点u 的度)。

(2) 顶点u 的邻居顶点拥有的标签种类必须比顶点u′多。

(3) 若D 中存在v≽u,则要求v 必须能匹配u′。

其中前两条规则可以简单地判断当前顶点u 是否有足够的邻居节点来完成后续的匹配,最后一条规则利用了蕴含关系来进行提前剪枝,其实现方式如图3 所示。通过提前对数据图进行预处理可以得到一个依赖数组Deps,表示节点Deps[i]蕴含节点i,即Deps[i]≽i。在匹配过程中,维护一个匹配数组Match,其中Match[i]表示节点i 可以在模式图中得到一个合法的匹配,其中0 表示不合法,1 表示合法,-1 表示尚未处理。通过查询Match[Deps[i]]即可得知节点i 是否需要被剪枝处理。为了减少开销,在本文中,只关注一层蕴含关系,即不关注嵌套的蕴含关系。即便如此,实验证明该剪枝规则能减少大量的不必要的搜索。

另一方面,蕴含关系也能够减少内存消耗,在1.3 节中介绍了利用前缀树的方式存储子图匹配的中间结果的方法,前缀树需要存储在GPU 的显存中,而这一部分的存储空间往往较少,即使使用了前缀树的方式进行了压缩,子图匹配产生的大量的中间结果仍然是一个巨大的压力。特殊地,若v≽u且u≽v,即v 和u 的邻居节点相同,但是占据着前缀树不同的空间,可以把这些节点合并到一起,以链表的方式存储到一个前缀树分支里,在遍历该前缀树的时候只需处理一次,来代替被合并的链表里的所有节点。在匹配结束后,可以将这些节点依次替换,将其还原,可以节省前缀树存储的空间。

2.3 最优调度顺序

在搜索过程中存在着大量的冗余搜索。这是因为一些搜索分支最终无法匹配模式图,但是在搜索过程中由于无法判断是否能够形成匹配,不得不将其存储到接下来的迭代中。事实上在数据图中顶点的信息量存在着差别,信息量越大的节点匹配越严格,可以更早地排除没有潜力的节点[21]。如图1 所示,查询图P 和数据图D 中,如果不考虑任何剪枝优化,假设匹配顺序为{C,A,B,D},那么在第一轮迭代中数据图有3 个C 符合标签,因此将需要存储3 个中间结果,而若匹配顺序为{D,B,A,C},那么第一轮迭代只需存储一个中间结果。因此,对于数据图里顶点的匹配顺序将影响搜索效率。为了减少中间结果的产生,尽量将较难匹配的节点或者匹配结果较少的节点提前进行匹配,来减少匹配过程中产生的中间结果。对于一个模式图中的节点,它的邻居节点数目和标签的种类越多,其匹配的难度越高。同时它在数据图中的直接匹配越少,则预期产生的中间结果数目就越少,采用g(v)来衡量模式图中节点v 的预期产生中间结果的多少,可设g(v)=(freq(v) -blacklist(v))/(deg(v) × labels(Adj(v)))。其中freq(v)表示v 的标签在数据图中出现的频度,blacklist(v)表示v 的标签在黑名单中出现的频度,deg(v)表示v 的节点度数,labels(Adj(v))表示v 的邻居节点标签的种类数目。当g(v)越高时,匹配v 产生的中间结果就可能越多。因此调度顺序可以通过利用g(v)来启发式地决定。

最优调度顺序生成算法实际上是最小生成树prime 算法的变体。在最开始的一轮迭代里选择g(v)值最小的节点,将其加入到已挑选集合O 中。随后的每一轮迭代里,在剩下的节点里挑选一个与O 联通且g(v)最小的节点,在GVSM 的实现中,可以通过优先队列来维护当前g(v)最小的节点。对于子图匹配而言,实际上其搜索空间并不是整个数据图,而是受限于查询图的特征。通过选择最优的调度顺序,将每一轮迭代可能产生的中间结果控制在最小,该算法可以在预处理阶段进行。若模式图P 中有n 个节点,计算出每个节点的g(v)值并以此为据排序,需要O(n log n)代价,故生成调度顺序的算法需要O(n2log n)的代价。由于n 的数值一般很小,因此该算法带来的预处理开销可以忽略不计。

3 基于GPU 的子图匹配系统的设计

针对GPU 高并发、高带宽的特点,在第2 节的基础上,实现了基于GPU 的子图匹配系统GVSM。GVSM 能充分利用异构架构的特点,协同完成匹配任务。3.1 节将介绍CPU-GPU 的流水线设计,3.2 节将提出GPU 和CPU 之间的自适应负载均衡优化。

3.1 流水线设计

如第1 节所述,子图匹配算法是一个需要大量搜索的算法,如果能利用GPU 大量的线程进行搜索将能够极大地提升搜索效率。但GPU 更适合做规则的运算,如果将整个子图匹配算法都放到GPU上,可能会导致严重的负载均衡问题,使得系统无法充分发挥GPU 的高并发性。另外,由于GPU 的显存大小限制,子图匹配的搜索过程产生的大量中间结果如果保存在GPU 显存内,则可能面临显存溢出的问题。因此,本文采用CPU 和GPU 协同计算的模式进行子图匹配,利用GPU 执行每轮的计算任务,将GPU 计算时产生的大量中间结果和候选子图保存至CPU 主存上克服GPU 的内存溢出问题,同时CPU 的多线程技术也能为GPU 分担一些简单的计算任务,使得两者能够协同计算。

在第1 节中,本文介绍了基于扩展-连接的子图匹配算法。如图4 所示,在GPU 的实现中,扩展过程考虑的是子图和顶点/边的关系,它在已经找到的中间结果上,通过遍历边界点的邻居节点来产生新的待选子图,因此逻辑比较简单。而GPU 擅长利用大量线程做一些简单的任务,这样的特性适合用来执行扩展操作,GPU 只需要输入前缀树的一部分数据就可以进行扩展操作。由于GPU 的内存容量小,而CPU 端的内存容量往往远大于GPU 内存,因此本文通过借助CPU 内存来保存中间结果。对于连接操作而言,其处理的是子图内部的关系,这相比于扩展操作往往更加复杂,它需要按照前缀树的索引将整个待选子图还原,这不仅需要复杂的逻辑也需要大量的非连续内存访问。而CPU 擅长处理逻辑复杂的操作,因此本文利用CPU 的多线程技术来处理连接过程。这就需要CPU 和GPU 进行协同计算,利用数据移动解决内存空间不足的问题。

图4 GPU-CPU 协同处理的Expand-Join 操作

为了充分发挥GPU 和CPU 各自的优势,本文设计了流水线方案来隐藏CPU 和GPU 之间数据传输。在迭代开始时,CPU 端生成初始待匹配的集合。为了让GPU 执行扩展操作,系统需要将数据通过高速串行计算机扩展总线(peripheral component interconnect express,PCI-E)传输到GPU 显存。GPU在接收到数据之后,对当前的子图进行搜索,生成候选匹配的中间结果集合。接着需要将这些中间结果从GPU 设备端拷贝到CPU 主存,让CPU 执行连接操作检查这些子图,CPU 将合格的子图保存在主存上。在下一轮迭代中,将部分数据继续拷贝到GPU上重复执行上述步骤。当迭代结束时,所有挖掘到的子图将保存在CPU 主存上。整个流程简化后可以分为以下4 个步骤。

(1) 数据拷贝到GPU。

(2) GPU 执行扩展操作。

(3) 数据拷贝回CPU。

(4) CPU 执行连接操作。

按这样的4 个步骤,系统可以依次串行执行整个图挖掘过程,在第i 轮时,按串行思路需要依次做完步骤(1)~(4)之后才会执行第i +1 轮迭代。但这样的方式使得当GPU 在执行扩展操作时,由于CPU 还没有接收到数据无法处理而处于等待状态。GVSM 通过流水线的方式,让GPU 和CPU 可以同时进行计算,同时重叠数据传输和计算,如图5 所示。

为防止内存溢出,系统每次仅拷贝本轮的一部分数据至GPU 进行扩展操作,因此本文对前缀树进行了切分,每次计算时只传输前缀树中一层的一部分数据到GPU 中参与扩展,这是因为GPU 执行扩展操作时会消耗大量内存。由于采用了流水线设计,GPU 中需要同时保存第i-1、i、i+1 轮迭代的数据,与之对应CPU 也需要同时保存第i -1、i、i +1轮迭代的数据,因此需要将存储空间分为3 个缓冲区,用来保存3 个相邻迭代的数据。对于GPU 来说,同一时刻,除了正在处理第i 轮的数据以外,还可以同时保存下行的i +1 轮的数据和上行的i -1 轮迭代的数据。如图5 所示,在数据交换的过程中,需要依据对应的内存缓冲区拷贝数据,得益于英伟达GPU 的双拷贝(dual-copy)引擎,第i-1 份扩展后的候选数据的设备到主存传输(device to host,D2H)(步骤(3))和第i +1 份待扩展数据的主存到设备传输(host to device,H2D)(步骤(1))可以进行数据传输重叠,与此同时GPU 上第i 轮的扩展操作和CPU 第i+2 轮的连接操作也可以同时进行。利用这样的流水线模式,系统能够充分利用CPU 和GPU的计算能力,重叠了计算也节省了数据的传输时间。

图5 基于流水线的子图匹配算法流程

3.2 自适应负载均衡

由于子图匹配在扩展操作过程中会产生不可控数量的中间结果,同时产生的中间结果随着迭代的深入而逐渐增多,如果每次流水线固定拷贝一整层数量的节点到GPU,可能会导致实际需要处理的边集相差较大。在子图匹配的早期阶段,需要的内存量很小,整个扩展-连接过程都可以在GPU 上直接完成,此时拷贝到CPU 上反而导致了额外的开销。由于不是所有的情况下使用GPU 都能起到加速效果,比如在数据量较少的时候将数据拷贝到GPU 上反而会使性能下降。因此本文设计一种动态负载均衡方法,通过设置一个阈值th,当前缀树的某一层数量超过这个阈值时,才将连接操作通过流水线的方式交由CPU 处理,否则所有的流程都在GPU 上处理。

为了保证流水线能更好地重叠计算,需要GPU和CPU 的负载尽可能相同,否则会导致算力的浪费。在算法的前期,子图匹配过程将产生大量的中间结果,而且增长速度非常快。GVSM 采用分块的方法进行处理,每次从前缀树中拷贝chunk_size 个顶点到GPU 中去,但是其个数将随着CPU 的负载变动。由图5 可知,为了保证重叠率,其块大小chunk_size 需要保证GPU 处理第i 轮扩展操作的时间要尽可能和CPU 处理第i -2 轮的连接操作时间相同。但是由于不同的节点的邻居节点数量不一样,有的节点可能连接着数百万的节点,而有的节点可能只有数个节点。那么每次拷贝固定大小的块到GPU 上仍然会导致严重的负载不均衡问题,从而影响流水线的运行。因此根据出度数作为每个节点的权重,通过提前保存当前层节点权重的前缀和来进行任务块的划分,通过二分的方法确定当前块的大小,保证每次拷贝到GPU 上的任务块需要处理的边的数目和连接操作需要处理的边的数目满足线性关系,即chunk_size×avg_degree=k×subgraph_size。其中subgraph_size 是第i -2 次迭代需要连接操作的子图的数量,avg_degree 表示当前块的平均出度数。而k 值需要通过多次实验采用回归训练确定。通过这种方法能够以几乎忽略不计的开销保证每次迭代需要处理的任务块有相近的处理时间。

另一方面,扩展操作通过接受前缀树中的一段节点,以及模式图中的一个twig,在数据图中寻找对应的匹配,这一过程通常在GPU 上进行。而在之后的连接操作,则将新匹配出的节点和之前匹配出来的中间结果进行笛卡尔积操作,来判断所形成的新的子图是否符合要求。在此过程中,每次只添加一个节点。事实上,子图匹配也可以在一次内核调用中处理2 个twig,即同时匹配2 个节点,相当于增加了搜索的步长。尤其在算法后期,节点数目较少时,可以增加搜索的步长,加快优化。

4 实验评测

4.1 实验环境和基准测试程序

在本节中,使用本文提出的技术构建了一个完整的子图匹配算法GVSM,并选择6 个真实数据集作为数据图。如表1 所示,这6 个数据集的顶点规模在十万至百万级别,边规模在百万至千万级别。其中nv 表示对应数据集中顶点的数量,ne 表示对应数据集中边的数量。Ave-degree 为数据图中每个顶点的度的平均数。它在一定程度上反映了图的稠密程度,一般来说,平均度数越高说明图越稠密,反之则说明图越稀疏。这些真实数据集普遍具有无尺度(scale-free)的特点,即每个顶点拥有的边的数量呈幂律分布,这导致部分节点拥有大量的边与之相连,而绝大数顶点只有少数边相连。通过预处理,对实验数据分配随机数量的标签,并选择各种不同规模的模式图进行子图匹配任务。

表1 GVSM 测试的数据集

实验运行平台的服务器为搭载架构为Intel Xeon 的处理器并装有Nvidia 的tesla P100 显卡,配备16 GB 显存。操作系统为ubuntu 16.04,内存为94 GB,CUDA 版本为CUDA 10.0。每次测试时间为10 次运行的平均时间。选择近些年发布的开源的基于GPU 的子图匹配算法GpSM[19]和GSM[20]作为参考对象。GpSM 针对GPU 结构做了优化,加速了子图匹配算法的计算流程。GSM 则是基于Gunrock[9]的基础上所构建的子图匹配算法。其实现也都是基于图拆分的子图匹配,分为扩展和连接两步。而Gunrock 是GPU 上非常流行的图算法库,有着优化良好的库函数来处理GPU 上的稀疏数据。

4.2 性能对比

为了验证算法的高效性,在6 个真实图数据上,通过和开源的已发表的工作GpSM 和GSM 进行单节点的性能对比,以测试算法执行时间与查询图中顶点数量之间的关系,结果如图6 所示,从图6 可以发现,GpSM、GSM 和GVSM 的处理时间均随着查询图节点的上升而上升。因为模式图节点的增加将导致需要匹配的边集呈指数上升。但是相比于GSM和GpSM,GVSM 有着更快的处理时间以及更平滑的曲线。这说明GVSM 更有潜力处理规模更大的查询。由于GVSM 有高效的剪枝优化手段,去掉许多冗余的没有必要的搜索分支,这使得整个匹配过程中需要载入的数据和需要的计算量大大缩小。

图6 实验结果对比

在查询图顶点较少的时候,GVSM 的性能略低于GSM 和GpSM,这是因为GVSM 有额外的预处理时间,黑名单算法的额外开销以及流水线的在启动阶段没有办法重叠PCI-E 总线拷贝导致的。由于查询图较少的时候再需要进行的搜索并不多,优化带来的性能提升不足以完全掩盖其带来的开销。因此GVM 更适合处理查询图较大的子图匹配任务,不适合处理查询图较小的子图匹配任务。但随着查询规模的增长,GVSM 性能很快就超过了GSM 并逐渐拉开了差距。除此之外,如图6(f)所示,GSM 和GpSM在边数较多的大图orkut 上无法处理较大的查询图,GSM 在查询图的顶点数量超过8 个时,会导致需要存储的中间结果数量超过GPU 的显存而导致程序异常退出。但是GVSM 由于采用了前缀树对中间结果进行了压缩,并采用流水线的方式,将中间结果转存到CPU 上,并利用CPU 分担了一部分不适合并行处理的计算工作,这使得GVSM 能处理的问题规模大幅增加。

4.3 算法剪枝优化性能分析

在第2 节中,介绍了3 种缩小搜索空间的剪枝优化手段,分别是黑名单算法、蕴含关系剪枝、以及调度顺序优化。在GPU 上实现这3 种优化,并和没有开启这3 种优化的原始程序在6 个真实的图数据上进行性能上的对比,来验证本文优化工作的有效性。

图7 展示了黑名单算法的有效性及其带来的预处理的开销。黑名单算法通过提前的预处理操作剔除掉一些不可能发展为最终子图的节点,并将它们提前标记,这种筛除并不是基于简单的标签匹配而是依赖更深层次的拓扑关系。从图7 左图可以看出,利用该算法在多个数据集上能提升15%~50%的性能,对于标签数量相对较多的图性能提升更显著。图7 右图则展示了该算法在不同数据集上的预处理开销占总运行时间的比例,从中可知在所有的数据集上开销都少于总运行时间的17%。对于规模较小的数据集enron、gowalla、mico 而言,由于总运行时间较短,因而黑名单算法开销占比较高,而对于规模较大的数据集patents、road-central 和orkut 而言,其开销低于7%。可以推测在更大的数据规模下,黑名单算法的开销会更低。因此黑名单算法更适合规模较大的数据集而不适合小规模数据集。考虑到其带来的性能提升,该算法的额外开销是可接受的。

图7 黑名单算法的效果和开销

图8 展示了搜索中利用蕴含关系剪枝在6 个数据集上的优化效果。通过蕴含关系剪枝,GVSM 维护一个额外的数据结构来记录节点间的蕴含关系,并据此对搜索过程进行提前剪枝。尤其是在进行黑名单算法筛除了大量边和顶点以后,将产生更多的蕴含关系,这进一步提升了剪枝效率。该优化对中小规模的图能提供约20%的性能提升。而对部分大图数据性能提升不高,这是因为节点数目增多,边的连接方式变多,这导致蕴含关系较少,同时需要维护的数据结构开销也逐渐增大,因此带来的性能提升无法掩盖需要维护额外数据结构带来的开销。

图8 剪枝优化效果

图9 展示了不同的调度顺序对性能的影响,在这里显示了mico 图数据在进行一个4 节点的查询图的子图匹配任务时采用不同的匹配顺序而导致的性能差异。在全部的6 种顺序中,以C-A-B-D 的顺序进行匹配性能最好,比最坏的情况B-A-D-C 性能要高出1 倍。这是因为提前进行严格的匹配有助于控制子图匹配过程中产生的中间结果,GVSM 采用启发式方法对匹配顺序进行排序,在这种情况下找到顺序也是C-A-B-D,与枚举出来的最优调度顺序相符合。在6 个真实图数据的测试中,在87%的情况下,GVSM 能够根据启发式算法选中最优的调度顺序。

图9 不同调度顺序对性能的影响

4.4 系统实现优化性能分析

第3 节介绍了2 种针对GPU 的子图匹配算法在实现上的设计,分别是利用流水线重叠计算和数据移动,以及负载均衡任务划分。在GPU 上实现这2 种优化,将没有和开启这2 种优化的原始程序在6个真实的图数据上进行性能对比,来验证本文设计的有效性。

图10 展示了流水线优化在6 个真实图数据中的性能。从图中可以发现,对数据规模较小的图而言,使用流水线的方式与不使用流水线进行重叠差别不大。这是因为在此时图的数据可以直接在GPU 中存下,因此流水线优化更适合较大规模的图数据。GVSM 在处理小规模数据时,根据设立的阈值th,所有的计算都在GPU 内完成,因此不需要通过PCI-E 总线来交换数据。而对数据规模较大的图而言,不进行流水线的重叠会导致GPU 因等待数据而空转,所以执行时间较长。在这种情况下开启流水线优化可以将性能提升2~2.8 倍。而直接在GPU 上处理这个规模的数据,可能会由于查询图节点过多而导致无法在GPU 中存下大量的中间数据而任务失败。利用流水线将GPU 和CPU 结合起来可以高效地处理更大的数据集,性能也不低于基于纯GPU 的实现GSM。

图10 流水线优化效果

图11 展示了采用动态块大小方法的负载均衡优化在Mico 图数据上执行的每层迭代的时间。由于每次迭代只处理一块数据,采用静态的方法每次选取固定数量的节点,而采用动态方法每次选择和CPU 上相近的负载。可以发现,在算法初期,采用静态方法的版本有大量的中间结果需要确定,因此会出现一些关键迭代层,在这些迭代中,会搜索到大量的边集,从而决定了整个算法的运行时间。由于负载不均衡,导致在关键迭代层计算和负载不匹配,无法和前后两层的任务进行有效的重叠,而采用动态方法,对每次拷贝进GPU 的数据进行控制,保证前后两次迭代的任务差距不会过大,因此重叠效果更好。另一方面,从图中可以发现,在算法后期,由于中间结果变少,需要搜索的边也逐渐变少,导致后面的迭代需要处理的节点数量变少,此时数据通过PCI-E 总线传输的延迟逐渐成为性能的瓶颈。因此采用一次处理2 条边而不是1 条边的方法可以大幅减少迭代层数,从而减少额外的数据传输开销。

图11 负载均衡优化效果

5 结论

本文对单节点的子图匹配算法及其优化技术进行了介绍,并在查询图拆分的算法上提出了一种基于GPU 的子图匹配方法GVSM。在该算法上设计了黑名单算法,通过提前筛除不可能构成最终子图的节点,减少了搜索需要的计算量和内存空间,同时通过蕴含关系进行剪枝,并通过决策匹配顺序,大幅减少了冗余的搜索分支。在系统优化上,采用GPU与CPU 协同计算的方式,利用流水线优化技术,重叠了计算与数据移动,并利用GPU 的高带宽高并发来完成待选点集的发掘。同时采用了动态负载均衡算法,保证GPU 与CPU 之间的工作量的平衡,保证了流水线的稳定。最终的实验结果表明,本文方法能显著提升子图挖掘任务的性能,相比同类型的实现,可将处理性能提升2 倍,并能应对更大规模的数据集。本文方法具有一定的通用性,这些优化技术也能在其他的图挖掘应用上使用。在未来的工作当中,将会把本文的优化方法扩展到其他类型的图挖掘算法中,并把GVSM 扩展到大规模GPU 集群上,以处理更大规模图挖掘任务。

猜你喜欢

子图剪枝流水线
人到晚年宜“剪枝”
关于2树子图的一些性质
基于YOLOv4-Tiny模型剪枝算法
基于激活-熵的分层迭代剪枝策略的CNN模型压缩
流水线
基于PLC的饮料灌装流水线设计
临界完全图Ramsey数
不含3K1和K1+C4为导出子图的图色数上界∗
流水线
剪枝