APP下载

军用机型复杂飞行动作提取与识别的方法研究

2023-05-30李超张原汲万峰司晓锋李璇

航空兵器 2023年1期
关键词:神经网络

李超 张原 汲万峰 司晓锋 李璇

引用格式:李超,张原,汲万峰,等.军用机型复杂飞行动作提取与识别的方法研究[J].航空兵器,2023,30(1):127-134.

LiChao,ZhangYuan,JiWanfeng,etal.ResearchonExtractionandRecognitionofMilitaryAircraftComplexFlightAction[J].AeroWeaponry,2023,30(1):127-134.(inChinese)

摘要:飞行动作识别及其对应飞参数据的提取是飞行训练质量分析的关键内容。现阶段的飞参数据量大、维度高、冗余数据多,为此提出了无监督聚合动态时间规整(UADTW)算法,降低动态时间规整(DTW)算法复杂度,帮助人工快速建立样本集,并提取标准序列相关性特征。同时,根据复杂飞行动作特点,构造深度神经网络模型学习飞行动作序列特征、差量特征和标准序列相关性,并在此基础上设计了自选择特征层,提出自选择深度神经网络(SDNN)模型,该模型能够自主选择对飞行动作识别较大贡献的特征,进一步提高特征表示对飞参数据的刻画。本文所提出的UADTW和SDNN飞行动作提取及识别方法能够减少人工成本,并有效提升了飞行动作识别的准确率。

关键词:飞行动作;自选择机制;动态时间规整;神经网络;飞参数据

中图分类号:TJ760;V271.4

文献标识码:A

文章编号:1673-5048(2023)01-0127-08

DOI:10.12132/ISSN.1673-5048.2022.0080

0引言

飞行训练一直是提高飞行员飞行技术、保障飞行安全的一项重要内容。飞行训练质量的客观分析可通过飞参数据回放进行评估,但飞参数据量大、维度高,对于飞行训练质量分析、操纵品质检测来说,大部分数据为冗余数据。飞行动作识别及其飞参序列数据的提取可快速定位关键的飞参数据,提高工作的高效性和准确性。为此,飞行动作识别与分析对于飞行员提高飞行驾驶技术、保障飞行安全具有重要意义[1]。

飞参数据记录了整个飞行过程中的参数,但并没有对所训练的飞行动作进行特别标记,完整的飞行动作识别过程应包含飞参数据的提取及其分类。目前,飞参数据的提取方法主要是由该领域专家通过人工基于规则的方式[2-3]提取,但飞参数据数量多、维度高,此种方式浪费大量的人工成本,且可扩展性差。飞行动作识别方法主要包含相似性匹配的方法[4-7]和基于典型机器学习的方法[8-12]。在飞行动作识别的两类方法中,模型构造较为简单且易实现,但相似度匹配的方法很难区分相近的飞行动作,如大盘度盘旋和大坡度转弯,且阈值不能客观定义;贝叶斯、支持向量机等飞行动作识别方法在处理

多维时间序列数据时,通常将多维拉平为一维,将破坏在横向时间维度上的规律,不能很好地学习到此刻飞行状态特征与前后时间上飞行状态特征之间的关系。

根据当前飞行动作识别及其飞参数据提取的问题,本文提出一种新的解决思路,通过改进动态时间规整算法,提高算法效率,辅助标记飞行动作样本,降低人工成本,并提出自选择深度神经网络模型(Self-SelectiveDeepNeuralNetwork,SDNN),自主选择对飞行动作识别较大贡献特征,进一步提高飞行动作识别率。该方法能够准确识别飞行动作并提取其对应的飞参数据,已得到相关领域人员的验证和应用。

1相关工作

1.1飞行动作识别

因气象等客观条件的不同和驾驶员操纵的差异,使得同一飞行动作的飞参数据和飞行时间存在差异,即相同飞行动作的序列特征不同和序列不定长。动态时间规整(DTW)算法可进行“扭曲匹配”实现数据对齐,适合计算飞行动作不定长的相似性,李鸿利等[6]利用DTW的思想识别飞行动作,同时针对多元时间序列进行多维融合提出多元动态时间规整(MDTW)的算法。张玉叶等[7]为降低DTW的计算复杂度,提出利用主成分分析(PCA)

提取其参数相关度统计特征,先进行粗分类,再使用DTW的算法细分类。DTW的思想主要是通过相似度匹配的方法识别飞行动作,而基于机器学习的方法可通过机器自主学习飞参数据规律。沈一超等[8]融合多个描述特征构建贝叶斯网络识别飞行动作,其特征的构建需要定义大量阈值,特征表示主观性较强。颜廷龙等[9]使用马尔可夫随机场(MRF)模型表示时间序列中相邻飞参数据的相关关系,进而描述其飞行动作的特征,能够减少标注样本的人工成本,但在识别差异性较小的飞行动作上表现一般。王志刚等[10]基于支持向量机(SVM)算法识别飞行动作,但对于多维时间序列数据,不能很好地学习到横向时间维度上的规律。方伟等[11]提出一种基于神经网络符号化模型的方法,将时间特征转换为图像特征,通过串联CNN和LSTM实现对飞行动作模块化处理。该方法的实验数据使用模拟数据,将复杂的飞行动作拆分成一系列的基本飞行动作,相比实际飞参数据,该方法过于理想化。本文同样采用深度学习的方法,根据实际飞参数据的特点,结合了动态时间规整和深度学习两者的优势提取并学习飞行动作特征,相比经典机器学习的方法,该方法更适合处理多维时序的飞参数据。

1.2DTW模型

动态时间规整(DTW)是一种衡量两个时间序列之间相似度的算法,当两个时间序列在时间线上不对齐时,DTW算法能够对某个时间序列在时间轴上进行扭曲(Warping),使得两个序列的形态尽可能的一致,以达到最大可能的相似。但DTW算法适合处理一维数据且复杂度高,不适合处理高维度复杂飞行动作,而飞参数据是多元的时间序列数据,若将多元空间的数据拉平至一维空间数据,不仅忽略了纵向上各个参数之间的关系,而且算法执行效率较低。在算法复杂度方面,许多学者对DTW算法進行了改进,Al-Naymat等[13]使用稀疏矩阵表示扭曲矩阵;Keogh等[14]提出了下界函数LB_Keogh,将特征序列构建新的上、下包络线;李海林等[15]利用分段聚合近似方法对时间序列进行特征提取和降维;Adwan等[16]利用重新拼接的时间序列进行分段聚合。目前,减小DTW计算复杂度的主要思想是通过减少搜索距离矩阵空间和通过聚合缩短时间序列长度。本文针对飞行动作序列的特点,利用无监督学习的方法,提出无监督聚合的动态时间规整算法(UnsupervisedAggregationDynamicTimeWarping,UADTW),保证纵向参数之间关系的同时缩短序列长度。该算法通过降低序列维度、缩小距离空间来减小DTW算法复杂度,提高算法执行效率。

2基于UADTW和SDNN的飞行动作提取及识别算法

本文飞行动作提取及识别的算法流程如图1所示。具体步骤如下:

(1)飞行动作数据提取。依据专家经验从飞参数据中提取飞行动作的标准序列数据作为基准数据,并根据飞行动作标准序列Q=(q1,q2,…,qm),将飞参数据F=(f1,f2,…,fn)切割,做相似度计算生成飞行动作片段。

(2)飞行动作初步判断并确定样本。利用UADTW计算飞行动作片段和飞行动作标准序列Q的相似性,进一步筛选飞行动作的类别,生成候选样本,并经最终人工确定样本X,标注类别标签Y。同时,将无监督模型学习到相关性特征向量W作为飞行动作识别模型的部分输入。

(3)建立模型数据集。根据样本集数据提取飞行状态序列X、计算差量特征D,并与规整距离向量W共同构建模型数据集(X,W,D,Y)。

(4)构造飞行动作识别模型并训练。构建自选择深度神经网络模型(SDNN),学习与识别飞行动作相关性较强的飞参特征表征,并通过迭代训练生成模型,用于对候选样本的分类。

2.1飞行动作数据提取算法

飞参数据量巨大,且冗余数据较多,人工提取样本难度巨大,为减少人工提取成本,本文设计了多层提取及筛选飞行动作数据的方法,该方法可获取样本候选集,为进一步提高样本质量,人工对候选集进行确定及标注,最终形成飞行动作样本集。同时,该方法可提取出与飞行动作标准序列相关性较高的特征,用于飞行动作识别。

2.1.1飞参数据切割并计算

通过与标准序列数据比对,快速去除冗余数据,提取飞行动作候选序列。给定长度为n的飞参时间序列F=(f1,f2,…,fn),根据i类飞行动作的标准序列Qi=(qi1,qi2,…,qim)的长度m定义滑动窗口长度。飞参时间序列F通过窗口滑动生成(n-m+1)个子序列(如图2所示),每个子序列用f′i表示,那么(n-m+1)个子序列构成的新数据序列为F′=(f′1,f′2,…,f′n-m+1),利用欧式距离(ED)计算每个子序列f′i与i类飞行动作的标准序列Qi的距离dDis=(d1i,d2i,…,d(n-m+1)i):

dji=ED(f′j,Qi)=(f′j1-q1)2+…+(f′jm-qm)2(1)

定义i类飞行动作的阈值Ni,若dj

2.1.2无监督聚合的动态时间规整算法

为提高飞行动作序列的准确度,进一步减少人工筛选样本的时间成本,采用UADTW算法获取更高准确率的样本。为更好地保证纵向参数之间关系,从多元序列降低到一元序列维度,以获取较小的DTW距离空间,本文构建了无监督网络模型(如图3),利用2.1.1节初步判定的飞行动作序列E作为训练集,学习飞行动作飞参数据的特征表示。该模型主要包含两个过程:

(1)输入层E到隐藏层H的编码过程。根据飞行动作序列E具有时序性的特点,模型隐藏层ht与输入层et和上一节点的隐藏层ht-1相关:

ht=σ(wht-1+ujt+b)(2)

(2)隐藏层H到输出层E*的解码过程。模型将编码后的H重新解码得到E*:

e*t=σ(vht+b)(3)

其重构误差损失函数:

f(u,v,w,b)=1N∑Nr=1(Er-E*r)2(4)

式中:u,v,w,b为参数;N为总飞行动作片段数量。

迭代训练后,模型隐藏层H可作为飞行动作序列的特征表征。初选的飞行动作序列E和飞行动作标准序列Q利用飞行动作无监督聚合模型分别获得其隐藏层的特征表征E′i=(e′i1,e′i2,…,e′im),Q′i=(q′i1,q′i2,…,q′im)。根據特征序列E′i和Q′i的元素值建立距离矩阵D,如图4所示,为找到两个时间序列性距离最短的代价路径K,利用动态规划算法计算累积距离矩阵r,最后可以得到两个时间序列的距离表示Dis(J′i,Q′i)=r(m,m)。

算法1无监督聚合的动态时间规整算法:

输入:时间序列Qi=(qi1,qi2,…,qim)和Ei=(ei1,ei2,…,eim)

输出:Dis(E′i,Q′i)

(1)根据训练后的飞行动作无监督聚合模型,利用式(2)计算时间序列Qi和Ei的特征表征,得到E′i和Q′i。

(2)建立距离矩阵D={d(k,j)},其中d(k,j)=(e′i1-q′i1)2。

(3)建立距离累计矩阵r。设定k,j的初始值为1,则r(1,1)=d(1,1)。

(4)k=k+1,j=2。

(5)计算累积距离矩阵:

r(k,j)=d(k,j)+min(r(k-1,j-1),r(k-1,j),r(k,j-1))

(6)若k=m,则执行第(8)步,否则执行下一步。

(7)若j

(8)Dis(E′i,Q′i)=r(m,m)。

(9)若Dis(E′i,Q′i)小于i类飞行动作阈值,则将飞行动作片段Ei归属到i类候选飞行动作集合Si=(si1,si2,…,sin)。

多元时间序列Qi和Ei,通过无监督聚合网络聚合成一元特征序列E′i和Q′i后的动态时间规整,如图5所示。由算法可知,无监督聚合的动态时间规整算法的时间复杂度为O(m2),若多元时间序列Ei中每个时刻的飞行状态ei1有n维数据,则时间复杂度将减少n2倍。

通过无监督聚合的动态时间规整算法获得的候选样本集合S,再经人工筛选便可获得最终样本集(X,Y)。實验表明,无监督聚合的动态时间规整算法能够得到相对较好的飞行动作识别率,并且能够从大量的飞参数据中自动提取飞行动作序列,大大降低了人工提取成本。同时图4中最短代价路径K所对应的距离数据为两个序列之间的最短距离,表示其之间的相似性,可作为飞行动作识别特征。

2.2基于自选择深度神经网络的飞行动作识别算法

本文借助深度学习的思想,针对飞行动作的数据特点,构造自选择深度神经网络模型(SDNN),该模型能够根据不同类别的飞行动作选择对自己贡献较大的特征。模型构造思想从以下三个方面考虑:(1)在2.1节中得到的候选样本集Si与标准飞行动作的序列Qi的相关性对飞行动作识别有较大贡献,本文利用全连接层学习其相关性特征。(2)受飞行空域、任务等因素的影响,部分重要的飞参数据需要重新提取差量特征,利用模型学习其特征表示;(3)在飞参序列数据中,关键的特征表征可以更好地区分飞行动作类别,自选择机制可自主选择其贡献较大的特征,利于提高飞行动作的识别率。同时,飞行动作序列特征的学习选用双向长短时记忆神经网络模型(BiLSTM),学习飞行动作在时间维度上特征表示。

图6为自选择深度神经网络的飞行动作识别模型,模型左边部分的输入数据为飞行动作序列数据X,学习其序列特征表征;模型中间部分学习其序列数据与标准飞行动作序列数据的相关性特征。飞行状态序列X与标准飞行动作序列Q利用UADTW算法可获取2.1节距离矩阵中最短代价路径K对应的距离数据,作为相关性特征向量;模型右边部分的输入数据为差量特征D,学习重要的差量特征表征。三部分特征通过全连接层(FC)学习其融合特征,作为模型分类依据,此部分为深度神经网络(DNN)层。在此基础上,加入模型自选择层C,让模型自主选择对飞行动作识别的较大贡献特征,以进一步提高特征表示对飞参数据的刻画,提高飞行动作识别准确率。

2.2.1深度神经网络模型构造

飞行动作识别的深度神经网络模型(DeepNeuralNetwork,DNN)构造如图7所示。模型可分为差量特征学习、标准飞行动作序列相关度学习,以及BiLSTM模型学习飞行动作序列特征表征。

(1)差量特征学习。在飞行训练中,飞行动作通常比较重视进入时的飞机状态和改出时的飞机状态,特别是参数前后的差值变化,如飞机高度。因空域不同,不同高度都可能进行飞行动作训练,高度不能直接作为一项重要的特征,而完成飞行动作前后高度差及其变化率却是一项非常重要的特征,计算公式如下:

dj=(h1-h2)/t(5)

式中:h1为飞行动作进入前的高度;h2为飞行动作改出后的高度;t为完成飞行动作所需要的时间。

同理,本文提取了飞参数据中航向、油门、速度等特征,将完成飞行动作前后的变化量及其变化率作为差量特征。如图7所示,差量特征向量D={d1,d2,…,dm},通过全连接层学习,其差量特征表示Pd:

Pd=σ(wD+b)(6)

(2)标准飞行动作序列相关度学习。在2.1节飞行动作飞参数据提取的工作中,为计算候选飞行动作序列与标准飞行动作序列的相似性,构建了距离矩阵(如图4所示),该相似性可作为飞行动作识别的重要依据。在距离矩阵中,最短的代价路径K可表示与标准飞行动作序列的距离,其路径K对应的值作为规整距离向量W。模型通过该距离向量W学习与标准飞行动作序列相关度的特征表示Pw:

Pw=σ(uW+b)(7)

(3)飞行动作序列特征学习。飞参数据是一种多元的时间序列,并且综合考虑利用前后飞机状态加强模型对当前飞行状态的理解。本文利用双向长短时记忆神经网络(BiLSTM)对飞行状态序列进行显式建模,捕捉长时依赖特征。Graves[17]深入剖析了LSTM记忆单元的结构及其性能表现。图7中,Xt为飞行动作t时刻的飞参数据,即t时刻的飞行状态,所包含的飞参主要有俯仰角、倾斜角、X轴角速度、Y轴角速度、Z轴角速度、指示空速、升降速度、油门杆位置、升降舵位置、副翼位置、方向舵位置、进气压力。三角符号代表LSTM模型中的记忆单元,t时刻的输出FPt和BPt是由输入Xt和t-1刻隐藏层的输出St-1共同决定的。即对于飞行动作序列数据来说,t时刻的飞机状态输出与当前飞机参数Xt、之前时刻的飞机状态输出FPn、之后时刻的飞机状态输出BPn共同决定,模型以Pn作为最终飞行动作序列特征表示,与差量特征表示Pd、标准飞行动作序列相关度的特征表示Pw融合,并学习特征表示H:

Pn=σ(w(BPn‖FPn)+b)(8)

H=σ(w(Pn‖Pd‖Pw)+b)(9)

2.2.2自选择机制构建

为更好地刻画飞行动作识别的飞参特征,本文提出自选择深度神经网络模型,其自选择模块是在2.2.1节模型中加入一个额外的“前馈神经网络”模块,该模块负责自动学习特征贡献权重a(如图8),该权重包含各个时刻飞机状态、差量特征及标准飞行动作序列相关度对飞行动作识别的贡献值,分别用ai,ad,aw表示,对飞行动作识别影响较大的特征能够获得较大的权重。该模块利用与飞行动作特征表示H之间的相关性学习贡献值,再利用贡献值权重a和每个时刻的飞行状态的特征表示Pt、差量特征表示Pd、标准飞行动作序列相关度Pw相乘,计算相关性特征表示C。该特征表示C能够更好地表征飞行动作识别的飞参特征,并与特征表示H共同作为分类器的输入。

权重a和相关性特征表示C计算公式如下:

aj=exp(σ(wT(H‖Pj)))F(H,P)(10)

F(H,P)=exp(f(H,Pd))+exp(f(H,Pw))+∑ni=1exp(f(H,Pi))(11)

f(A,B)=σ(wT(A‖B))(12)

C=∑ni=1aiPi+adPd+awPw(13)

式中:j={1,2,3,…,n,d,w};权重a1+a2+…+an+ad+aw=1。

自选择深度神经网络模型计算过程如算法2描述。

算法2基于自选择深度神经网络模型的动作识别算法。

输入:飞行动作序列数据X、差量输入向量D、距离向量W。

输出:参数θ={w,v,u,b}。

(1)初始化所有模型参数为小的随机值;

(2)while不收敛do。

·输入沿网络前向传播

序列特征Pn←BiLSTM模型学习飞行动作序列特征表示;

学习标准飞行动作相关度:Pw=tanh(wW+b);

学习差量特征表示:Pd=tanh(wD+b);

特征表示:H=σ(w(Pn‖Pd‖Pw)+b);

相关性特征表示C根据式(2)~(3)计算飞行动作分类的概率计算:p=Softmax(w[H‖C]+b);

优化函数:

JJ(θ)←-1N∑Nj=1∑Mi=1yjilg(pji)。

·反向传播更新模型权值θ

计算Δθ=J(θ)/θ;

更新θ←θ+Δθ;

endwhile。

其中:M为类别数量;N为样本数量;θ为模型的所有参数。如果样本j的真实类别为i,则yji取1,否则取0。pji为样本j属于类别i的概率。

3实验

3.1数据集

军用飞机在基本驾驶技术训练阶段常见的飞行动作训练科目包含简单特技动作(小坡度盘旋、升降转弯等)和复杂特技动作(半滚倒转、草花斤斗等)[2],根据当前军用机型的实际训练科目,主要包含10种飞行动作和1种非飞行动作的其他类型,共11个类别。本文实验的训练数据集有3643个,测试数据集有911个,数据集的分布情况如表1所示。

表2中列出了SDNN网络模型主要的参数设计。在SDNN模型结构中,BiLSTM为两层的双向LSTM层,差量特征和規整距离特征分别是由全连接层(FClayer)学习,其神经元个数为20。实验为离线训练,使用交叉验证方法确定的最佳参数。在迭代过程中,交叉熵损失达到1.2后逐渐趋于稳定,同时根据收敛速度,使用Adam方法调整学习速度,初始学习率为10-3。模型训练中记录最佳参数模型为最终飞行动作识别模型,该模型的实时检测时间达到10-2s,满足实际应用要求。

3.2飞行动作识别实验

为了验证本文提出的自选择深度神经网络模型在飞行动作识别方面的有效性,与2.1节初步筛选飞行动作的UADTW算法和2.2.1节中DNN算法进行对比。本实验采用分类领域中最基本的评价指标[18]:准确率(P)、召回率(R)和F1值。表3和图9列出了本文所涉及的3种算法在飞行动作数据集上的实验结果。

图9展示了本文主要3种算法在11类飞行动作上的F1值分布。UADTW算法的评估结果相对较低,SDNN算法在11类飞行动作中评估结果较好。表3显示,大坡度盘旋、半斤斗翻转、半滚倒转、急上升转弯4个飞行动作的评价得分较高,其中SDNN算法的F1值都在95%以上。这4种飞行动作都有较明显的飞行动作特征,自选择机制可以更好地捕捉到其特征,对比DNN模型,在F1值上表现出较好优势。

图10展示了4类典型飞行动作注意力权重a的权值分布,其中横坐标1~17的权重a表示不同时刻飞行状态对飞行动作识别的贡献,横坐标18~19对应的权重a为差量特征、标准飞行动作序列相关度的贡献。如半滚倒转的飞行动作,在半滚后会有个明显倒转的动作,其特征贡献权重a的权值在6~11s波动较大,符合半滚倒转的动作特征,同时标准飞行动作序列相关度贡献也较大。斤斗动作在其圆形运动轨迹中,最上、最下、最右、最左有较明显的特征,其贡献值较大。横滚和大坡度盘旋的动作相对较为均匀,其贡献值相差不大。此外,从图10中可以看出,差量特征及UADTW算法所获取的标准飞行动作序列相关度的贡献相对较大。

3.3对比实验

本文算法与同类工作的对比实验是在同一数据集上以加权平均准确率(PAvg)、加权平均召回率(RAvg)和加权平均F1(F1Avg)值作为综合评价指标:

PAvg=∑ni=1NiNPi(14)

RAvg=∑ni=1NiNRi(15)

F1Avg=∑ni=1NiNF1i(16)

式中:N为评价数据的总数;Ni为某类别的数量;n为类别数。

表4展示了在飞行动作识别领域的主流算法与本文算法的比较,这些算法中都涉及到动态时间规划算法(DTW)。李鸿利[6]、张玉叶[7]等通过改进DTW算法用来识别飞行动作;颜廷龙[9]、王志刚[10]等主要使用DTW算法对飞行动作序列提取或划分;方伟[11]等与本文主要采用了深度学习的方法识别飞行动作。本文通过改进DTW算法,在获取飞行动作序列数据的同时,提取与标准飞行动作序列相关性特征,通过实验证明其有效性(见图10)。同时,本文提出了自选择深度神经网络模型(SDNN),该模型能够学习高度差、航向差等差量特征,以及与标准飞行动作序列相关性特征,其自选择机制可重点关注某些时刻飞行状态自选择贡献度较高的特征,能够更好地对飞参数据特征刻画,其F1Avg达到0.93,表现出较好成绩,验证了方法的可行性。

本文算法UADTW+SDNN0.930.940.93

4结束语

本文分析了飞行动作领域主要存在两个的问题,并针对这两个问题提出了无监督聚合的动态时间规整算法,降低了DTW算法的复杂度,减少人工提取飞参数据的成本。同时,该算法提取了飞行动作标准序列相关性特征,与飞参数据的差量特征、BiLSTM模型学习的序列特征进行融合,并利用本文提出的自选择机制层自主学习飞行动作重要的特征表征。借助模型训练实验,该模型能够较好地识别出飞机训练的飞行动作,在大坡度盘旋等类别上的准确率达到95%以上。

参考文献:

[1]谢川,倪世宏,张宗麟,等.一种基于知识的特技飞行动作快速识别方法[J].计算机工程,2004,30(12):116-118.

XieChuan,NiShihong,ZhangZonglin,etal.AKnowledge-BasedFastRecognitionMethodofAcrobaticManeuver[J].ComputerEngineering,2004,30(12):116-118.(inChinese)

[2]倪世宏,史忠科,谢川,等.军用战机机动飞行动作识别知识库的建立[J].计算机仿真,2005,22(4):23-26.

NiShihong,ShiZhongke,XieChuan,etal.EstablishmentofAvionInflightManeuverActionRecognizingKnowledgeBase[J].ComputerSimulation,2005,22(4):23-26.(inChinese)

[3]王乐,黄长强,魏政磊.基于SSA算法的飞行动作规则自动提取[J].计算机工程与应用,2019,55(14):203-208.

WangLe,HuangChangqiang,WeiZhenglei.AutomaticExtractionofFlightManeuverRulesBasedonSSA[J].ComputerEngineeringandApplications,2019,55(14):203-208.(inChinese)

[4]方伟,王玉,闫文君,等.基于DTW的复杂飞行动作快速评估方法研究[J].中国电子科学研究院学报,2022,17(1):44-49.

FangWei,WangYu,YanWenjun,etal.ResearchontheRapidEvaluationMethodofComplexFlightActionBasedonDTW[J].JournalofChinaAcademyofElectronicsandInformationTechnology,2022,17(1):44-49.(inChinese)

[5]周超,樊蓉,張戈,等.基于多元时间序列融合的飞行动作识别方法[J].空军工程大学学报:自然科学版,2017,18(4):34-39.

ZhouChao,FanRong,ZhangGe,etal.AFlightActionRecognitionBasedonMultivariateTimeSeriesFusion[J].JournalofAirForceEngineeringUniversity:NaturalScienceEdition,2017,18(4):34-39.(inChinese)

[6]李鸿利,单征,郭浩然.基于MDTW的飞行动作识别算法[J].计算机工程与应用,2015,51(9):267-270.

LiHongli,ShanZheng,GuoHaoran.FlightActionRecognitionAlgorithmBasedonMDTW[J].ComputerEngineeringandApplications,2015,51(9):267-270.(inChinese)

[7]张玉叶,王颖颖,王春歆,等.分析参数相关和时序特征的飞行动作识别方法[J].计算机工程与应用,2016,52(5):246-249.

ZhangYuye,WangYingying,WangChunxin,etal.AcrobaticManeuverReorganizationMethodComparedwithParametersRelevanceandFeatureofSequenceChange[J].ComputerEngineeringandApplications,2016,52(5):246-249.(inChinese)

[8]沈一超,倪世宏,张鹏.基于贝叶斯网络的飞行动作识别方法[J].计算机工程与应用,2017,53(24):161-167.

ShenYichao,NiShihong,ZhangPeng.FlightActionRecognitionMethodBasedonBayesianNetwork[J].ComputerEngineeringandApplications,2017,53(24):161-167.(inChinese)

[9]颜廷龙,李瑛,王凤芹.基于MRF模型的飞机飞行动作识别划分算法[J].计算机工程与科学,2022,44(1):159-164.

YanTinglong,LiYing,WangFengqin.RecognitionandDivisionofAircraftFlightActionBasedonMRFModel[J].ComputerEngineering&Science,2022,44(1):159-164.(inChinese)

[10]王志刚,杨宁,米禹丰.基于动态时间规划和支持向量机的飞机机动动作识别方法[J].飞机设计,2020,40(4):35-40.

WangZhigang,YangNing,MiYufeng.MethodonAircraftManeuverMotionRecognitionBasedonDynamicTimeWarpingandSupportVectorMachine[J].AircraftDesign,2020,40(4):35-40.(inChinese)

[11]方伟,王玉,闫文君,等.基于神经网络的符号化飞行动作识别[J].系统工程与电子技术,2022,44(3):737-745.

FangWei,WangYu,YanWenjun,etal.SymbolizedFlightActionRecognitionBasedonNeuralNetwork[J].SystemsEnginee-ringandElectronics,2022,44(3):737-745.(inChinese)

[12]VaswaniA,BengioS,BrevdoE,etal.Tensor2TensorforNeuralMachineTranslation[EB/OL].(2018-03-16)[2022-04-13].https:∥arxiv.org/abs/1803.07416,2018.

[13]Al-NaymatG,ChawlaS,TaheriJ.SparseDTW:ANovelApproachtoSpeedupDynamicTimeWarping[EB/OL].(2012-01-13)[2022-04-23].https:∥arxiv.org/abs/1201.2969.

[14]KeoghE,RatanamahatanaCA.ExactIndexingofDynamicTimeWarping[J].KnowledgeandInformationSystems,2005,7(3):358-386.

[15]李海林,郭崇慧,楊丽彬.基于分段聚合时间弯曲距离的时间序列挖掘[J].山东大学学报:工学版,2011,41(5):57-62.

LiHailin,GuoChonghui,YangLibin.TimeSeriesMiningBasedonPiecewiseAggregateTimeWarpingDistance[J].JournalofShandongUniversity:EngineeringScience,2011,41(5):57-62.(inChinese)

[16]AdwanS,AlsalehI,MajedR.ANewApproachforImageStit-chingTechniqueUsingDynamicTimeWarping(DTW)AlgorithmtowardsScoliosisX-RayDiagnosis[J].Measurement,2016,84:32-46.

[17]GravesA.GeneratingSequenceswithRecurrentNeuralNetworks[EB/OL].(2013-08-04)[2022-04-13].https:∥arxiv.org/abs/1308.0850.

[18]GoutteC,GaussierE.AProbabilisticInterpretationofPrecision,RecallandF-Score,withImplicationforEvaluation[C]∥AdvancesinInformationRetrieval,2005:345-359.

ResearchonExtractionandRecognitionof

MilitaryAircraftComplexFlightAction

LiChao*,ZhangYuan,JiWanfeng,SiXiaofeng,LiXuan

(SchoolofAviationFundamentals,NavalAviationUniversity,Yantai264000,China)

Abstract:Aircraftflightactionrecognitionanditscorrespondingflightparameterdataextractionarethekeycontentsofflighttrainingqualityanalysis.Atpresent,theflightparameterdatahasfeaturesofbigscale,highdimensionandbigredundancy.Therefore,thispaperproposesanunsupervisedaggregationdynamictimewarpingalgorithm(UADTW)toreducethecomplexityofDTWalgorithm,helpmanualestablishthesampledatasetquicklyandextractthecorrelationcharacteristicsofstandardsequence.Atthesametime,accordingtothecharacteristicsofcomplexflightaction,adeepneuralnetworkmodelisconstructedtolearnthecharacteristicsofflightactionsequence,thedifferencecharacteristicsandthecorrelationcharacteristicsofstandardsequence.Basedonthedeepneuralnetworkmodel,thispaperdesignsaselfselectionfeaturelayerandproposesaself-selectivedeepneuralnetwork(SDNN)model,whichcanindependentlyselectthefeaturesthatcontributegreatlytoflightactionrecognitionandimprovethecharacterizationofflightparameterdatabyfeaturerepresentation.ThepracticalapplicationshowsthatthemethodofflightactionextractionandrecognitionbasedonUADTWandSDNNcanreducethelaborcostandeffectivelyimprovetheaccuracyofflightactionrecognition.

Keywords:aircraftflightaction;self-selectivemechanism;dynamictimewarping;neuralnetwork;flightparameterdata

收稿日期:2022-04-24

基金项目:国家自然科学基金项目(62076249);山东省自然科学基金项目(ZR2020MF154);山东省重点研发计划项目(2020CXGC010701;2020LYS11)

*作者简介:李超(1989-),男,山东济南人,硕士,讲师。

猜你喜欢

神经网络
基于递归模糊神经网络的风电平滑控制策略
BP神经网络在路标识别上的应用研究
神经网络抑制无线通信干扰探究
基于Alexnet神经网络的物体识别研究
基于BP神经网络的旋转血泵生理控制
基于神经网络MRAS的速度辨识仿真研究
基于神经网络的拉矫机控制模型建立
复数神经网络在基于WiFi的室内LBS应用
基于支持向量机回归和RBF神经网络的PID整定
基于神经网络分数阶控制的逆变电源