基于双向准循环神经网络和注意力机制的业务流程剩余时间预测方法
2022-09-17徐兴荣任崇广曾庆田
徐兴荣,刘 聪,,李 婷,郭 娜,任崇广,曾庆田
(1.山东理工大学计算机科学与技术学院,山东淄博 255000;2.山东科技大学计算机科学与工程学院,山东青岛 266590)
1 引言
预测型流程监控[1]作为流程挖掘领域中重要的研究方向,其目标是对正在执行的业务流程实例进行预测分析,进一步准确预测在未来一段时间内可能出现的执行状态,例如某个实例的演变、下一个将要执行的活动、实例剩余时间[2]等.
业务流程剩余时间预测[3]是预测型流程监控中的一项主要预测任务,旨在对当前业务流程实例剩余执行时间进行预测.对于传统剩余时间预测方法,其事先在业务流程历史日志中挖掘变迁系统[4]、随机Petri网[5]等形式化流程模型,然后利用挖掘的模型对剩余时间进行预测.近年来,深度学习技术被广泛应用于剩余时间预测任务中,如长短期记忆(Long Short-Term Memory,LSTM)循环神经网络[6],并取得较好的预测效果.
然而,基于深度学习技术的业务流程剩余时间预测还处于起步阶段,如下问题尚未得到解决:
(1)应用深度学习技术的前提是需要建立高质量的训练数据,就目前已有方法中,主要是以时间戳或时间先后次序索引来提取历史流程实例轨迹前缀序列,并将其作为深度学习技术的训练数据.但是,在整个业务流程中,不同种类的流程实例轨迹前缀之间存在着较大的差异性[7],例如对于一个刚开始不久的流程实例与一个即将结束的流程实例而言,在对它们剩余时间进行预测时所考虑的因素是各不相同的.此外,不同长度的流程实例轨迹前缀数量呈不均匀分布,且短流程实例轨迹前缀数量在一般情况下要多于长流程实例轨迹前缀,倘若单纯的将二者混合以训练剩余时间预测模型,会被数量较多的短流程实例轨迹前缀影响,从而在一定程度上降低剩余时间预测准确度.
(2)已有方法大都以传统LSTM 构建剩余时间预测模型,但由于LSTM 对序列数据建模能力有限且在处理大规模序列数据时存在训练速度缓慢的问题,因此如何在提升剩余时间预测效果的同时,提高预测模型的训练速度,需进行深入研究.
基于目前工作存在的不足,本文提出一种基于双向准循环神经网络和注意力机制的业务流程剩余时间预测方法,主要创新点体现在:首先,设计了一种基于注意力机制的双向准循环神经网络剩余时间预测模型.该预测模型在利用门函数和记忆单元保证序列信息上下文相关性的同时,通过应用矩阵卷积运算实现对输入序列信息及门函数的有效处理,进而提高了预测模型的并行计算能力,加快了预测模型的训练时间.引入注意力机制是为了在训练过程中通过对不同位置的序列信息权重的计算,进一步提高重要特征对预测结果的影响.然后,设计了一种基于不同长度轨迹前缀训练迭代策略,解决并提升了流程实例中不同长度轨迹前缀间的数量差异性和关联性.最后,提出一种基于Word2vec 的事件表示学习方法,通过对事件日志中事件的高质量向量化表示,达到增强事件辨识度和提升剩余时间预测效果的目的.
2 相关工作
目前,业务流程剩余时间预测在流程挖掘领域中拥有较强的研究价值,它不仅可以起到优化业务系统性能的作用,而且还可以为管理者提供可靠的决策性依据.起初,Will van der Aalst 等[3]利用构建的多层次抽象变迁系统记录事件日志中所有流程实例可能出现的状态,并为每个状态标注所属时间信息,以之进行剩余时间预测;Rogge-Solti 等[5]通过对事件日志中随机Petri 网的挖掘以模拟正在执行的流程实例,并根据相应结果对剩余时间进行预测.由于传统流程挖掘方法在面对剩余时间预测任务时存在较多局限性,导致这些方法在处理海量事件日志的过程中不能获得较优的预测效果.
随着机器学习技术的广泛应用,研究者将其融入到剩余时间预测任务中.Folino 等[8]通过对不同类型数据的分析,提出一种基于聚类的剩余时间预测方法,该方法利用逻辑规则对聚类模型进行表示,从而帮助隐形上下文更好地适应事后分析[9];Polato 等[10]在文献[3]的基础上提出数据感知变迁系统.它通过朴素贝叶斯分类方式为存在的状态节点建立模型,然后利用支持向量机进行剩余时间预测;Verenich等[11]将业务流程抽象为流程树,并在每个流程树节点上训练回归模型以预测剩余时间.
近几年,研究者逐渐开始利用深度学习技术进行业务流程剩余时间的预测工作.Evermann 等[12]通过利用简单的LSTM和嵌入方式对变量进行分类训练,实现对业务流程剩余时间预测的目标;Nguyen 等[13]在现有的基础上提出新特征表示方法,以提高目前深度学习模型的预测能力;倪维健等[14]在文献[2]的基础上通过引入注意力机制,进一步提高了业务流程剩余时间的准确度.随着时间推移,部分研究者通过将深度神经网络与相关分析技术融合研究出新结构变体.Khan 等[15]利用记忆增强神经网络来解决业务流程剩余时间预测任务中复杂问题的过程分析;Pasquadibisceglie 等[16]提出一种数据工程方法.该方法事先将业务流程中事件时间数据转换为抽象的空间图像结构,然后利用卷积神经网络进行处理,从而获得剩余时间预测结果;Taymouri 等[17]采用生成式对抗网络在生成事件后缀的同时,预测剩余时间;Bukhsh 等[18]提出一种高级表示方法.该方法通过使用Transformer 模型克服传统预测模型不能有效捕捉输入序列长期依赖关系的问题,实现对剩余时间的准确预测.
3 任务描述
本节将对业务流程剩余时间预测任务的相关知识进行详细介绍,并给出形式化描述.
3.1 基本知识
定义1事件是业务系统中一个活动的执行实例,可以用元组e=(a,id,Tstart,Tend,P1,…,Pm)进行表示.其中,a为事件执行活动,id 为事件所属流程实例ID,Tstart和Tend分别为事件执行的开始时间和结束时间,P1,…,Pm为事件含有的属性,包括:事件相关资源、执行代价等信息.
定义2轨迹是非空且有限的事件序列,可以用σ=(e1,…,e|σ|)进行表示.其中,对于∀1≤i≤|σ|,ei代表执行的第i个事件,|σ|代表轨迹中事件数量.
定义3轨迹前缀是轨迹σ中的前k个事件,可以用σ(k)=(e1,…,ek)进行表示,其中1≤k≤|σ|.轨迹前缀剩余时间RemainTime(σ,k)=e|σ|.Tend-ek.Tend.
定义4流程实例是整个业务流程的执行实例,可以用元组c=(Cid,σ,Z1,…,Zn)进行表示.其中,Cid 为流程实例的ID,σ为该流程实例中包含的轨迹,Z1,…,Zn为流程实例含有的属性.
定义5事件日志是对业务流程历史执行情况的记录,是全部流程实例的集合,可以用L={c1,…,c|l|}进行表示.其中,|l|表示事件日志L包含的流程实例c数目.
定义6对于业务系统,假若系统给定事件空间为X,则流程实例中轨迹及轨迹前缀空间可表示为X*,剩余时间预测目标是通过建立的预测模型f=X*→R+预测流程实例轨迹前缀的剩余时间.
需说明,本文只利用流程实例轨迹信息开展剩余时间预测任务,故在无特殊情况下通过轨迹表示其所属的流程实例,而如何融入流程实例中其它属性信息将作为下一阶段主要的研究工作.
3.2 业务流程剩余时间预测任务描述
基于深度学习技术的业务流程剩余时间预测可分为训练和应用两个阶段.其中,训练阶段是通过抽取事件日志中流程实例集合训练预测模型f;应用阶段,是利用预测模型f对正在执行的流程实例(即轨迹前缀)剩余时间进行预测.
训练阶段,训练数据集的构建是在流程实例轨迹前缀长度的基础上进行,详细步骤如算法1 所示,基本思想是:遍历事件日志L中每条轨迹σ,并在设定的轨迹前缀长度范围[kmin,kmax]内进行截取,随之得到长度不一的轨迹前缀σ(k)以及对应的剩余时间RemainTime(σ,k),并作为训练集Dk中的训练样本,最后经组合获得全部长度的训练数据集D.
应用阶段,是利用生成的训练数据集学习剩余时间预测模型f,为防止学习过程中过拟合情况的出现,引入正则项Ω(f),即:
4 基于双向准循环神经网络和注意力机制的业务流程剩余时间预测方法
基于双向准循环神经网络和注意力机制的业务流程剩余时间预测方法框架如图1所示.
图1 基于双向准循环神经网络和注意力机制的业务流程剩余时间预测方法框架图
首先,根据算法1将事件日志划分为不同长度轨迹前缀训练数据集;然后,抽取训练数据集中全部事件,利用基于Word2vec的事件表示学习方法对事件进行向量表示,并将其作为预测模型的输入.同时,为进一步克服和提升不同长度轨迹前缀间的数量差异性和关联性,利用基于不同长度轨迹前缀训练迭代策略对预测模型进行迭代训练;最后,获得业务流程剩余时间预测结果.经实验结果表明,将该方法应用于业务流程剩余时间预测任务后,在预测效果等方面展现出一定优势.
4.1 基于Word2vec的事件表示学习方法
目前,基于深度学习技术的业务流程剩余时间预测方法大都以独热(one-hot)编码的方式对事件进行表示,但因one-hot编码存在语义鸿沟等问题,使得剩余时间预测准确度还有待提升.基于此,提出一种基于Word2vec 的事件表示学习方法,以之对事件日志中事件进行表示学习,并将训练得到的事件向量作为预测模型的输入,从而实现提升事件表示质量和预测效果的目标.
由定义1可知,执行活动与执行时间是事件的关键组成部分,因此将其当作事件的主要标识,并进行向量化表示.然而,由于事件执行时间是连续值,故需对其离散化处理,旨在将事件日志中事件对应活动可能出现的执行时间进行细化分类.经离散化后事件e的执行时间为:
式中,t(e)代表事件e的连续执行时间,tMIN(EndTime-StartTime)(e.a)和tMAX(EndTime-StartTime)(e.a)代表经计算整个事件日志所有活动a执行时间后选择的最短与最长执行时间,N代表离散化后事件e执行时间所划分的数量(本文N=10).由此,事件表示学习的目标是将业务系统中全部活动与离散化执行时间进行拼接,通过训练得到事件向量
对事件进行表示学习时,主要利用自然语言处理领域中基于Word2vec 中的CBOW(continuous bag-ofword model)词向量学习方法[19],基本思想为:首先,取第t时刻事件et的上下文c个事件{et-c,…,et-1,et+1,…,et+c}进行one-hot 编码(实验环节c设置为2),并作为训练模型的输入,此时输入向量通过与权重矩阵相乘及加权平均后获得隐藏层向量;然后,隐藏层向量随之与输出层之间权重矩阵相乘,经Softmax 操作后得到事件et的概率分布.最终,经训练获得的权重矩阵为事件et的表示向量.
4.2 基于注意力机制的双向准循环神经网络
由于LSTM 在计算每个时间步时都依赖于前一个时间步的输出,使得在处理大规模序列数据时无法进行有效地并行计算,进一步降低了对序列数据的建模能力.而准循环神经网络(Quasi-Recurrent Neural Network,QRNN)[20]通过一种交替卷积层的神经序列建模方法,在输出时充分利用输入序列的顺序信息[21],实现了对序列数据跨时间步长的并行处理.除此之外,QRNN 在LSTM 结构的基础上进行简化,只需计算遗忘门和输出门,减少了网络计算量[22].卷积层和池化层是QRNN 主要组成部分,其网络模型结构如图2 所示.其中,卷积层的作用在于提取输入序列数据的特征信息并对门函数进行卷积处理,池化层则是提取卷积层输出的特征信息,以达到减少特征数目的目的.
图2 QRNN网络模型结构
假设长度为T的序列X=(x1,x2,…,xT)是QRNN 卷积层输入序列,首先以卷积方式经数量为w、宽度为r的滤波器在时间维度上对输入序列特征信息加以卷积处理,使当前及过去时刻信息输入至QRNN 单元,QRNN单元结构如图3 所示.倘若在t时刻,输入序列为X=(x(t-r+1),…,xt),则输出序列zt、遗忘门ft和输出门ot计算过程为:
图3 QRNN单元结构图
式中,Wz、Wf、Wo代表权重矩阵,Sigmoid和tanh代表激活函数.当滤波器宽度r增大时,模型可以计算更多NGarm特征,实验环节滤波器宽度为2.
池化层采用fo-pooling 池化方式对第t时刻记忆单元状态ct进行更新:
最后,QRNN 输出ht由第t时刻输出门ot和记忆单元状态ct计算而得:
式中,⊙代表向量按位相乘运算,ct-1表示上一时刻记忆单元状态.
针对单向QRNN 在处理序列数据时不能较好地顾及上下文信息之间的联系以及有效区分不同位置的重要程度,本文使用带有注意力机制的双向准循环神经网络(Bi-directional Quasi-Recurrent Neural Network with Attention,Att-Bi-QRNN)构建剩余时间预测模型.该预测模型包含如下关键模块:
(1)基于双向QRNN的上下文编码
双向QRNN 由一条正向QRNN和一条反向QRNN组成,相较于单向QRNN,双向QRNN 可以充分考虑轨迹前缀中不同事件间的相关性.假设正向QRNN和反向QRNN 获得的输出隐向量分别是,则第t时刻上下文编码为
(2)基于注意力机制的轨迹前缀编码
获得第t时刻轨迹前缀上下文编码Ht后,利用注意力机制计算整个轨迹前缀编码,计算过程为:
式中,at代表第t时刻上下文编码权重,同时也进一步反映出轨迹前缀中不同事件对剩余时间预测任务的重要程度.
4.3 基于不同长度轨迹前缀训练迭代策略
针对训练单一剩余时间预测模型而言,利用多个预测模型可以在一定程度上提高剩余时间预测的有效性和针对性,但也面临着众多困难与挑战.第一,利用算法1将事件日志划分为多个训练集后,其内部的轨迹前缀数量会进一步减少,尤其是在现实事件日志,轨迹前缀数量会根据其长度出现逐渐下降的现象,导致长度较长的轨迹前缀数据量变得较少,再加上深度学习技术需要大量的训练数据作为支撑,倘若只在各个训练集中进行训练,将会很难得到准确的预测模型;第二,由于长度较长的轨迹前缀涵盖了所有长度小于其本身的轨迹前缀,因此长度较短的轨迹前缀预测模型可以为长度较长的轨迹前缀预测模型提供有用的预测信息,而仅在各长度不一的轨迹前缀训练集上独立训练预测模型,忽视了不同长度轨迹前缀之间的关联性.
基于此,设计了一种基于不同长度轨迹前缀训练迭代策略,详细步骤如算法2 所示.首先,设定轨迹前缀长度范围[min,max],其中min 表示事件日志中最短轨迹前缀长度,max表示过滤掉不频繁长轨迹前缀后的最大轨迹前缀长度.而过滤掉不频繁长轨迹前缀主要原因在于不频繁出现的长轨迹前缀在整个事件日志中数据量极少,因此在对其进行训练时很容易造成过拟合的情况,进而影响剩余时间预测效果.然后,利用算法1 生成多个训练集Dk.min,…,Dk.max,并在长度短(min)且数量多的轨迹前缀训练集Dk.min上训练剩余时间预测模型Fk.min,当预测模型Fk.min训练完毕,将其训练参数共享于长轨迹前缀预测模型,并进行迭代训练,直至得到最长(max)轨迹前缀的剩余时间预测模型Fk.max.利用此策略不仅可以充分使用不同长度轨迹前缀内在关联性,而且还可以解决长轨迹前缀数据量较少的问题,从而提升剩余时间预测准确性.
5 实验结果与分析
本节对提出的基于双向准循环神经网络和注意力机制的业务流程剩余时间预测方法进行实验探究与分析.
实验基于PC Intel Core i5-10400F 2.90 GHz、NVIDA GeForce RTX 2070 SUPER 环境,使用Pytorch 框架实现.
5.1 实验数据集
实验使用5 个来自4TU Center for Research 平台公开的事件日志数据集,分别为:BPIC_2012_A、BPIC_2012_O、BPIC_2012_W、Helpdesk、Hospital_Billing,其中:
BPIC_2012_A:是记录荷兰财政机构贷款申请审批流程的事件日志;
BPIC_2012_O:同BPIC_2012_A,且仅记录了贷款审批状态的变更信息;
BPIC_2012_W:同BPIC_2012_A,且仅记录了贷款审批资源状态的变更信息;
Helpdesk:是记录意大利软件公司票务管理系统后台流程的事件日志;
Hospital_Billing:是记录某地区医院EPR 系统中出院结算流程的事件日志;
上述5 个事件日志数据集的基本信息统计情况如表1所示.
表1 事件日志数据集基本信息统计
5.2 评价指标
利用平均绝对误差(Mean Absolute Error,MAE)作为剩余时间预测任务的总体评价指标,通过计算轨迹前缀剩余时间真实值和预测值之间差值的绝对值评判剩余时间预测准确度.MAE值越低,表明预测的剩余时间越准确.
式中,σ(k)代表轨迹前缀,f(σ(k))代表轨迹前缀剩余时间的预测值,RemainTime(σ,k)代表轨迹前缀剩余时间的真实值.
实验通过5折交叉验证的方式进行有效评估,故将数据集随机划分为5 等份,每次将4 份数据选作训练集,1 份选作测试集,重复5 次实验,最后把每次实验MAE值的平均值作为最终评估结果.
5.3 实验结果
5.3.1 业务流程剩余时间预测准确度对比分析
本文在5个事件日志数据集上进行了对比实验,实验结果如表2 所示.为验证以QRNN 为基准的预测模型(即QRNN、引入双向机制的Bi-QRNN、引入双向机制和注意力机制的Att-Bi-QRNN)在剩余时间预测任务上的有效性,将与文献[14]提出的基于注意力双向循环神经网络剩余时间预测方法进行比较,同时在预测模型顺序结构和隐层节点数的设置上与对比方法[14]保持一致.此外,Batch_size 设置为512,迭代150 轮,使用Adam优化算法.
表2 业务流程剩余时间预测方法对比实验结果
对比QRNN、LSTM、GRU 三种预测模型(QRNN vs LSTM vs GRU、Bi-QRNN vs Bi-LSTM vs Bi-GRU、Att-Bi-QRNN vs Att-Bi-LSTM vs Att-Bi-GRU),QRNN 整体预测效果在5 个事件日志数据集中优于LSTM和GRU,因此可认为QRNN 比LSTM、GRU 更加适合剩余时间预测任务.
引入双向机制后,Bi-QRNN 相比于QRNN 在5 个事件日志数据集中获得较低MAE 值,说明双向机制可以有效提升事件之间的关联性,达到提高预测效果的目的.而在Bi-QRNN 基础上引入注意力机制后,Att-Bi-QRNN在各事件日志数据集上MAE值进一步降低,表明注意力机制经对不同位置事件信息权重的计算,有效区分出不同事件对剩余时间预测任务的影响,进而获取关键事件信息.此外,在同级相比的条件下,以QRNN为基准的预测模型MAE 值在5 个事件日志数据集中比以LSTM和GRU 为基准的预测模型平均下降近10%(Bi-QRNN vs Bi-LSTM、Bi-GRU)和4%(Att-Bi-QRNN vs Att-Bi-LSTM、Att-Bi-GRU),说明将Att-Bi-QRNN预测模型应用于业务流程剩余时间预测任务具有一定的可行性.
相比于文献[14]以LSTM和GRU 为基准的最佳预测方法,本文方法(即Trans-Att-Bi-QRNN,以Att-Bi-QRNN作为基础预测模型,融入基于不同长度轨迹前缀训练迭代策略和基于Word2vec 的事件表示学习方法)在5 个不同的事件日志数据集中MAE 值平均下降近15%,表明本文提出的剩余时间预测方法在剩余时间预测任务中具备优越性.
5.3.2 基于不同长度轨迹前缀训练迭代策略分析
在实验中,以带有注意力机制的双向QRNN 为基准模型(即Att-Bi-QRNN),并在此基础上训练不同长度轨迹前缀预测模型,具体训练方式如下:
(1)在不同长度轨迹前缀数据集上单独训练剩余时间预测模型,以Diff-Att-Bi-QRNN表示;
(2)在不同长度轨迹前缀数据集上利用第4.3 节基于不同长度轨迹前缀训练迭代策略训练多个剩余时间预测模型,以Trans-Att-Bi-QRNN表示;
两种不同方法在5 个事件日志数据集上所获得的业务流程剩余时间预测准确度(MAE)如图4(a)~(e)所示.
图4 基于不同长度轨迹前缀训练迭代策略效果对比图
由图4实验结果可知,Trans-Att-Bi-QRNN在各事件日志数据集中获得的MAE 值优于Diff-Att-Bi-QRNN,同时,对于BPIC_2012_O、BPIC_2012_W、Helpdesk、Hospital_Billing 事件日志数据集,Trans-Att-Bi-QRNN 在长轨迹前缀上展现出一定优势,说明基于不同长度轨迹前缀训练迭代策略可解决不同长度轨迹前缀之间数量存在差异性的问题,提升了不同长度轨迹前缀的关联性.
为进一步说明Trans-Att-Bi-QRNN 在剩余时间预测任务中的有效性,将Trans-Att-Bi-QRNN 及Diff-Att-Bi-QRNN 在不同长度轨迹前缀数据集下取得的MAE 值进行加权平均,结果如表3所示.
通过表3结果可知,Trans-Att-Bi-QRNN在各事件日志数据集中MAE 值相比于Diff-Att-Bi-QRNN 降低近13%,表明在引入基于不同长度轨迹前缀训练迭代策略后,其对剩余时间预测效果呈现出正影响状态,印证了基于不同长度轨迹前缀训练迭代策略确有助于提升剩余时间预测准确度.
表3 基于不同长度轨迹前缀训练迭代策略实验结果
5.3.3 基于Word2vec的事件表示学习方法分析
在实验中,以Trans-Att-Bi-QRNN 为基础模型,分别将基于Word2vec 的事件表示方法得到的向量(表示为Trans-Att-Bi-QRNN-Vector)及传统one-hot 编码(表示为Trans-Att-Bi-QRNN-NoVector)得到的向量作为预测模型的输入,以验证事件表示学习方法对剩余时间预测效果的影响.
图5 展示了两种不同方法的MAE 值.可以看出,Trans-Att-Bi-QRNN-Vector 在5 个事件日志数据集上的MAE值比Trans-Att-Bi-QRNN-NoVector 的MAE值低3%,因此可以认为基于Word2vec 的事件表示学习方法对提升业务流程剩余时间预测效果具有积极的作用.
图5 基于Word2vec的事件表示学习方法效果对比图
5.3.4 时间性能对比分析
本节在5个事件日志数据集上对各预测模型的训练时间(单位:秒)进行了对比实验,实验结果如图6(a)~(e)所示.在实验过程中,预测模型在不同方法下采用相同模型参数:迭代次数为150、学习率为0.01、Batch_size为512、输入事件向量维度为3、神经元隐向量维度为5.
图6 预测模型训练时间对比图
由实验结果可知,在有无基于Word2vec 的事件表示学习方法和基于不同长度轨迹前缀训练迭代策略的条件下,对于BPIC_2012_A,以QRNN 为基准的预测模型训练时间比以LSTM和GRU 为基准的预测模型训练时间平均缩短11%~18%;对于BPIC_2012_O,以QRNN为基准的预测模型训练时间比以LSTM和GRU 为基准的预测模型训练时间平均缩短19%~29%;对于BPIC_2012_W,以QRNN 为基准的预测模型训练时间比以LSTM和GRU 为基准的预测模型训练时间平均缩短20%~35%;对于Helpdesk,以QRNN 为基准的预测模型训练时间比以LSTM和GRU 为基准的预测模型训练时间平均缩短13%~20%;对于Hospital_Billing,以QRNN为基准的预测模型训练时间比以LSTM和GRU 为基准的预测模型训练时间平均缩短15%~25%.
综上所述,以QRNN 为基准的预测模型相比于以LSTM和GRU 为基准的预测模型在5 个事件日志数据集中训练速度平均缩短了约26%,说明本文使用的预测模型具备更快的系统运行速度,从而使预测模型的整体性能得到有效提升.
综合分析5 个事件日志数据集在各项实验中的结果可知,相比于LSTM、Bi-LSTM、Att-Bi-LSTM、GRU、Bi-GRU、Att-Bi-GRU,所提方法无论是在剩余时间预测效果,还是在预测模型训练速度,都取得较优的实验结果,说明该方法在剩余时间预测任务中存在一定优势.
另外,表4 给出9 种剩余时间预测模型的参数规模,可见在同级相比的条件下,QRNN 预测模型参数量明显少于LSTM和GRU预测模型,说明QRNN预测模型在没有明显增加网络参数的条件下进一步提升了业务流程剩余时间预测性能.
表4 各预测模型参数规模
6 结论
本文提出一种基于双向准循环神经网络和注意力机制的业务流程剩余时间预测方法.该方法采用处理序列数据更佳的准循环神经网络,有效克服传统LSTM因缺少并行计算能力而导致训练缓慢的问题.同时,通过引入双向机制和注意力机制进一步提升了上下文信息之间的联系以及重要特征对预测结果的影响.此外,经使用基于不同长度轨迹前缀训练迭代策略和基于Word2vec 的事件表示学习方法,不仅加强了业务流程剩余时间预测的针对性,而且还为预测模型提供了高质量的输入事件向量.由实验结果表明,本文方法在预测效果以及训练时间上明显优于已有研究.
然而,所提方法只是针对流程实例中轨迹信息、事件信息进行剩余时间预测,而流程实例中还包含执行者、资源等额外属性,因此可在当前工作的基础上增加其他属性,以验证多属性对剩余时间预测效果的影响.此外,作为一种深度学习方法,该方法虽然获得较优的预测效果,但可解释性较差,即使部分研究者开始着手于此方面的研究,但这些方法对深度学习技术应用于剩余时间预测任务的解释效果并不是很理想,因此如何提高剩余时间预测任务的可解释性,是今后一项重要的研究工作.