APP下载

面向运动想象脑电信号识别的多层判别字典对学习方法

2024-03-05商俊燕丁辉胡学龙

计算机应用研究 2024年2期

商俊燕 丁辉 胡学龙

收稿日期:2023-06-14;修回日期:2023-07-31  基金項目:国家自然科学基金资助项目(61802336);江苏省“六大人才高峰”第七批高层次人才资助项目(2010-DZXX-149)

作者简介:商俊燕(1978—),女,江苏常州人,副教授,硕士,主要研究方向为大数据技术、人工智能研究;丁辉(1969—),女,江苏大丰人,教授,硕士,主要研究方向为计算机应用技术研究;胡学龙(1960—),男(通信作者),江苏扬州人,教授,硕士,主要研究方向为图像处理技术研究(shangjycz001@126.com).

摘  要:面向运动想象的脑机接口(brain computer interface,BCI)能够利用自主想象的特定动作触发脑电信号直接实时控制外部电子设备。运动想象脑电信号(motor imagery electroencephalogram,MI-EEG)存在信噪比低、类内差异大、类间差异小等特点,导致MI-EEG的识别率较低且不稳定。针对该问题,提出了多层判别字典对学习(multilayer discriminant dictionary pair learning,MDDPL)方法。与基于字典学习的MI-EEG识别方法不同,MDDPL将字典对学习融入多层学习模型,通过一系列非线性方法将数据投影到更具判别力的子空间。在综合字典和分析字典的共同作用下,前一层的编码向量作为当前层的输入,同时在每一层模型上构建基于分析字典的多分类项,以保证稀疏编码的分类误差最小化,增强模型的类别区分能力。另外,对最后一层的稀疏编码施加低秩约束,以保证同类编码的紧凑性和相似性。在目标式求解中,使用交替更新策略得到每个参数的解析解,使得参数同时得到最优解。在国际BCI竞赛数据集上的实验结果表明,MDDPL方法在所有对比算法中取得了最佳的分类性能。

关键词:运动想象;脑电信号;多层学习模型;字典对学习

中图分类号:TP391    文献标志码:A

文章编号:1001-3695(2024)02-027-0501-06

doi:10.19734/j.issn.1001-3695.2023.06.0238

Multilayer discriminant dictionary pair learning algorithm for motor imagery electroencephalogram recognition

Shang Junyan1,2,Ding Hui1,Hu Xuelong2

(1.Dept.of Information Engineering,Changzhou Vocational Institute of Industry Technology,Changzhou Jiangsu 213164,China;2.College of Information Engineering,Yangzhou University,Yangzhou Jiangsu 225127,China)

Abstract:BCI for motion imagination can directly control external electronic devices in real-time using electroencephalogram signals triggered by specific actions of autonomous imagination.MI-EEG signals have characteristics such as low signal-to-noise ratio,large intra-class differences,and small inter-class differences,resulting in low and unstable recognition performance in MI-EEG.This paper proposed a multi-layer discriminant dictionary pair learning(MDDPL) algorithm to address the issue.Different from current dictionary based MI-EEG recognition algorithm,MDDPL incorporated the dictionary pair learning into the multi-layer learning model and projects data into the discriminant subspaces through a series of nonlinear projections.With the joint learning of synthesis dictionary and analysis dictionary,MDDPL used the encoding vector of the previous layer as the input of the current layer.At the same time,MDDPL constructed the multi-classification item based on the analysis dictionary on each layer of the model,so as to ensure the minimum classification error of sparse encoding and enhance the models class differentiation ability.In addition,MDDPL applied low rank constraints on the sparse encoding matrix of the last layer to ensure its compactness and similarity.In solving the objective function,MDDPL adopted an alternating update strategy to obtain analytical solutions for each parameter,ensuring that all parameters were simultaneously optimal.The experimental results on the international BCI competition datasets show that the MDDPL algorithm achieves the best classification performance among all comparison algorithms.

Key words:motor imagery;electroencephalogram;multi-layer learning model;dictionary pair learning

0  引言

随着脑机接口(BCI)技术的发展,基于BCI的人机交互在许多应用领域获得了广泛关注,例如,基于生理信号的情感识别、脑电控制轮椅运动、计算机操作中的光标运动等[1,2]。在众多BCI信号中,运动想象脑电(MI-EEG)是最常用的脑信号,它具有高时间分辨率、高自由度和采集方便等优点。与常见的基于稳态视觉诱发电位和事件相关电位的BCI相比,基于MI-EEG的BCI可以更好地提供与控制命令之间的直观映射[3]。现有基于MI-EEG的BCI系统常利用EEG特征提取技术和基于机器学习的分类方法,如逻辑回归和线性判别分析方法等[4]。近年来,稀疏表示和字典学习算法在BCI领域的理論和实践上均取得了成功的应用。例如,付荣荣等人[5]使用稀疏思想和贪婪搜索联合学习方法对共空间模式特征进行选择,能有效去除特征模式重复的情况。Sreeja等人[6]从减少模型训练时间出发,使用基于距离加权的策略来构建紧凑的字典,能够有效缩短MI-EEG稀疏表示的计算时间。Sharghian等人[7]提出一种基于相关性的在线字典学习方法,可以获得动态MI-EEG的稀疏表示。

尽管BCI相关领域的研究不断有新的突破,然而构建一个高效的基于MI-EEG的BCI应用系统仍然是一项具有挑战性的任务。一方面,MI-EEG维度高且非平稳,容易受到许多干扰因素的影响,如情绪和药物状态,不仅会给分类任务带来干扰,还会因为高维特性使得字典学习的效率受到影响;而且MI-EEG包含复杂的时域和频域信息,往往呈现出类间相似、类内差异的特点[8]。另一方面,字典学习方法在进行字典空间映射时往往和分类器的学习是分阶段独立运行,即先学习得到稀疏编码,再进行样本的分类。例如,徐淳瑶[9]对时域和频域的MI-EEG先进行特征提取,再利用聚类方法得到多种特征的共有稀疏基矩阵,最后使用字典学习方法建立联合编码模型。Sreeja等人[10]从分割的MI-EEG数据中计算小波能量并构造字典,然后使用字典中的稀疏表示对测试数据进行分类。这些字典学习方法很难从分类器的角度对MI-EEG数据进行识别。

为解决上述问题,本文提出了一种面向运动想象脑电信号识别的多层判别字典对学习(multilayer discriminant dictionary pair learning algorithm,MDDPL)方法。MDDPL使用字典对学习模型作为基线算法学习综合字典和分析字典,习得的综合字典具有信号的重构功能,分析字典则用于线性投影计算稀疏编码。受多层学习模型的启发,MDDPL将字典对学习拓展至多层学习模式,使用一系列非线性方法逐步将数据投影到更具判别力的子空间。为了提高模型类间区别能力,MDDPL在每层模型上都加入基于分析字典的多分类项,它考虑每类稀疏编码的分类误差最小化,同时要求分类器判别不同类别样本近似为空。为了提高编码矩阵的判别能力,MDDPL在最后一层的编码矩阵施加低秩约束,可以保证中间层的编码矩阵也具有低秩性,以促使同类编码矩阵具有强的相似性和紧致性。MDDPL方法的参数优化使用交替迭代优化策略,且参数都具有解析解。在多个MI-EEG数据集的实验结果表明,MDDPL方法在运动想象识别领域是有效的。MDDPL方法的优点在于:a)MDDPL在连续非线性转换中学习稀疏编码矩阵,将它们连续投影到一系列新的特征空间。随着模型层数的增多,多层字典学习到的字典和稀疏编码较单层字典学习模型有更好的重构能力。b)MDDPL利用样本的监督信息,将多层字典学习与分类器联合在一个学习模型,并结合稀疏编码的低秩约束,增强综合字典的重构能力,以及分析字典和分类器的类别区别能力,达到提升模型整体判别能力的作用。

1  相关工作

给定训练集Y=[y1,…,yN]∈Euclid Math TwoRApd×N,其中d表示数据维数,N表示样本个数。字典对学习期望得到一对具有重构和判别能力的综合字典D∈Euclid Math TwoRApd×Q和分析字典P∈Euclid Math TwoRApQ×d,字典的原子维数为Q。字典对学习(dictionary pair learning,DPL)[11]的目标函数为

minP,D∑ci=1(‖Yi-DiPiYi‖2F+τ‖Pii‖2F)

s.t.‖di‖22≤1,i(1)

其中:Di∈Euclid Math TwoRApd×Qi和Pi∈Euclid Math TwoRApQi×d分别表示第i类(1≤i≤c)样本对应的综合子字典和分析子字典;子字典原子数为Qi,∑ci=1Qi=Q,c表示样本的类别数;τ是正则化参数。目标函数的第1项∑ci=1‖Yi-DiPiYi‖2F要求在每一类样本上的重构误差最小。目标函数的第2项‖Pii‖2F要求每个分析子字典投影其他类样本到一个近似的零空间,使得PY矩阵近似为块对角矩阵。

近年来,多层字典学习的有效性在众多学习模型中得到了验证[12,13]。多层字典学习能够对单层字典学习得到的字典或稀疏编码重新迭代利用,能够挖掘不同层次样本的潜在信息。在传统的多层综合字典学习模型中,设D(k)和A(k)是第k层训练得到的综合字典和稀疏编码,g()是多层模型的激活函数。第k-1层训练得到的稀疏编码A(k-1)作为第k层学习模型的输入,得到第k层学习模型的稀疏编码A(k)。多层综合字典学习的模型表示为

minD(1),…,D(K),A(K)‖Y-D(1)g(…g(D(K)A(K)))‖2F+λ‖A(K)‖1

s.t.  A(k-1)=g(D(k)A(k)),k=1,2,…,K(2)

其中:λ是正则化参数。

2  多层判别字典对学习方法

MDDPL方法将传统的DPL模型扩展到多层非线性模型,以逐步将数据投影到更具判别力的子空间,使得MDDPL方法具有更高的能力来处理复杂的MI-EEG识别问题。MDDPL方法的目标函数由多层字典对学习项、基于编码矩阵的低秩项和基于分析字典的多分类项三部分构成。

2.1  多层字典对学习项

因为式(1)是一个非凸模型,引入编码矩阵A∈Euclid Math TwoRApQ×N,将式(1)松弛表示为

minPi,Di  ∑ci=1(‖Yi-DiAi‖2F+τ(‖PiYi-Ai‖2F+‖Pii‖2F))

s.t.‖di‖22≤1,i(3)

MDDPL方法将式(3)拓展至多层字典对学习模型,每一层模型本质上都实现了一个字典对学习。第一层模型的字典對学习项表示为

minP(1)i,D(1)i∑ci=1(‖Y(1)i-D(1)iA(1)i‖2F+

τ(‖P(1)iY(1)i-A(1)i‖2F+‖P(1)i(1)i‖2F))

s.t.‖di‖22≤1,i(4)

第一层输入数据表示为原始训练集Y(1)=[Y1,Y2,…,Yc]。输入数据Y(1)经第一层字典对学习和非线性变化g(),表示为特征矩阵Y(2)=g(P(1)Y(1)),并作为第二层字典对学习的输入数据。经过多层字典对学习,第K层的训练数据表示为特征矩阵Y(K)=g(P(K-1)Y(K-1))。本文使用绝对值扩展函数g()实现非线性变换。

g(y)=[max(yT,0),|min(yT,0)|]T(5)

设第k层第i类的字典对表示为{D(k)i,P(k)i},第k层的字典对学习项表示为

minP(k)i,D(k)i∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+

τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F))

s.t.‖di‖22≤1,i(6)

其中:Y(k)=g(P(k-1)Y(k-1))=[Y(k)1,…,Y(k)c]。

2.2  基于分析字典的多分类项

设H=[H1,…,Hc]∈Euclid Math TwoRApc×N表示训练集Y的类别标签,Hi表示第i类样本的类别标签,hi=[0,…,1,…,0]T∈Euclid Math TwoRApc表示第i个样本的类别标签,元素值为1的位置表示该样本的类别。为保证分类结果的最优,在第k层的字典学习过程中,MDDPL要求每类稀疏编码的分类误差最小化,同时要求属于类别k的分类器判别它类样本的类别标签近似为空。假设第k层模型的多分类分类器为W(k)=[W(k)1,…,W(k)c]∈Euclid Math TwoRApc×K(k),第k层模型的基于分析字典的多分类项表示为

minW(k)i,P(k)i∑ci=1(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F)(7)

2.3  基于编码矩阵的低秩项

为了挖掘多层连续投影过程中编码矩阵的隐藏特征,MDDPL对最后一层模型的编码矩阵实施低秩约束,使得样本能够被少量字典原子线性表示。另外,低秩约束有助于保持编码矩阵紧凑性和同类编码的相似性[14]。MDDPL的最后一层模型基于每个类别编码矩阵的低秩项表示为

∑ci=1rank(A(K)i)(8)

下面证明如果最后一层模型的编码矩阵A(K)i具有低秩性,那么在各中间层模型的编码矩阵A(k)i也具有低秩性。由字典对学习可得A(k-1)i=D(k)iA(k)i,因此rank(A(k-1)i)=rank(D(k)iA(k)i)。由低秩特性,rank(D(k)iA(k)i)≤min(rank(D(k)i),rank(A(k)i)),可得rank(A(k-1)i)≤rank(A(k)i),可以推导得到rank(A(1)i)≤rank(A(2)i)≤…≤rank(A(K)i)。因此,MDDPL方法对最后一层模型上的A(K)i实施低秩约束将保留对前每一层的稀疏编码的低秩特性。通过这种方式,每一层中的稀疏编码将揭示数据投影过程中的全局结构,也可以使得稀疏编码保持紧致和类内相似性。

2.4  目标函数及优化过程

MDDPL方法的目标函数由多层字典对学习项、基于分析字典的多分类项和基于编码矩阵的低秩项三部分组成。联合这三部分,MDDPL方法的目标函数定义为

minP,D,A,Wα∑ci=1rank(A(K)i)+∑Kk=1∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+

τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F)+

λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))

s.t.‖di‖22≤1,i(9)

其中:α和λ是正则化参数。

目标函数中存在四个待求解的变量{P,D,A,W},这四个变量相互影响,不能直接求解。本文采用交替迭代的方式求解,具体分为以下几个步骤。

1)固定变量{P(k)i,D(k)i,W(k)i}求解A(k)i

a)对于第1~(K-1)层学习模型,目标函数可以表示为

minA∑Kk=1  ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ(‖P(k)iY(k)i-A(k)i‖2F+

‖P(k)i(k)i‖2F)+λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))

s.t.‖di‖22≤1,i(10)

得到關于A(k)i的目标式:

minA∑Kk=1  ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ‖P(k)iY(k)i-A(k)i‖2F)(11)

对A(k)i求偏导并令导数为0,可得A(k)i的封闭解。

A(k)i=((D(k)i)TD(k)i+τI)-1(τP(k)iY(k)i+(D(k)i)TY(k)i)(12)

b)对于第K层学习模型,关于A(K)i的目标函数可以表示为

minAα∑ci=1rank(A(K)i)+∑Kk=1  ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ‖P(k)iY(k)i-A(k)i‖2F)(13)

参照文献[15],为了计算rank(A(K)i),假设A(K)i近似为两个矩阵的乘积,即A(K)i≈BiCi,其中Bi∈RKi×s,Ci∈Rs×Ki,其中s是子空间的维度。∑ci=1rank(A(K)i)可以写成

∑ci=1rank(A(K)i)=∑ci=1‖A(K)i-BiCi‖2F(14)

因此,式(13)可以改写成

minA(K)i,BiCi  ∑ci=1(α‖A(K)i-BiCi‖2F+

‖Y(K)i-D(K)iA(K)i‖2F+τ‖P(K)iY(K)i-A(K)i‖2F)(15)

对A(K)i求偏导并令导数为0,可得A(K)i的封闭解。

A(K)i=((D(K)i)TD(K)i+(τ+α)I)-1(τP(K)iY(K)i+(D(K)i)TY(K)i+αBiCi)(16)

对Bi求偏导并令导数为0,可得Bi的封闭解。

Bi=A(K)iCTi(CiCTi)+(17)

对Ci求偏导并令导数为0,可得Ci的封闭解。

Ci=(BiBTi)+BTiA(K)i(18)

其中:+表示Moore-Penrose伪逆运算。

2)固定变量{P(k)i,A(k)i,W(k)i}求解D(k)i

得到关于D(k)i的目标式:

minP,D,A,W  ∑Kk=1  ∑ci=1‖Y(k)i-D(k)iA(k)i‖2F

s.t.‖di‖22≤1,i(19)

对D(k)i求偏导并令导数为0,可得D(k)i的封闭解:

D(k)i=Y(k)i(A(k)i)T(A(k)i(A(k)i)T+δI)-1(20)

其中:δI保证矩阵逆运算一定有解。

3)固定变量{D(k)i,A(k)i,W(k)i}求解P(k)i

得到关于P(k)i的目标式:

minP,D,A,W  ∑Kk=1  ∑ci=1(τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F)+

λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))(21)

对P(k)i求偏导并令导数为0,可得P(k)i的封闭解:

P(k)i=(λ(W(k)i)TW(k)i+τI)-1(τA(k)i(Y(k)i)T+

λ(W(k)i)THi(Y(k)i)T)(Y(k)i(Y(k)i)T+(k)i((k)i)T)-1(22)

4)固定变量{D(k)i,A(k)i,P(k)i}求解W(k)i

得到关于W(k)i的目标式:

minW∑Kk=1∑ci=1(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F)(23)

对W(k)i求偏导并令导数为0,可得W(k)i的封闭解。

W(k)i=Hi(Y(k)i)T(P(k)i)T((P(k)i)T(Y(k)i(Y(k)i)T(P(k)i)T+

(P(k)i)T(k)i((k)i)T(P(k)i)T)-1(24)

2.5  测试

MDDPL方法训练结束后,得到每一层学习模型的最优参数{P(k),D(k),W(k)}。对于任意的测试样本ytest,计算得到其在最后一层编码表示,即

y(K)test=g(P(K-1)y(K-1)test)(25)

ytest的类别可由式(26)计算得到

label(ytest)=arg maxiW(K)iP(K)iytest(K)i  i=1,…,c(26)

值得注意的是,传统字典学习在测试阶段需要根据最小化经验损失求解ytest的稀疏编码。

minatest‖ytest-Datest‖22+λ‖atest‖p(27)

其中:‖·‖p常采用0或1范数的约束。

显然,式(27)比式(25)的时间复杂度高。MDDPL方法继承了字典对学习的优点,在测试阶段具有效率优势。基于上述算法分析,MDDPL方法的训练过程如下:

输入:带类别标签的训练集Y。

输出:字典对{P(k),D(k)}和分类器W(k),1≤k≤K。

使用DPL[10]方法初始化字典对{P(1),D(1)},W{1}初始化为单位矩阵;

repeat

for k=1 to K do

for i=1 to c do

计算Y(k)使用Y(k)=g(P(k-1)Y(k-1))(1≤k-1≤K-1);

固定變量{P(k)i,D(k)i,W(k)i},使用式(12)更新A(k)i(1≤k≤K-1),使用式(16)更新A(K)i;

固定变量{P(k)i,A(k)i,W(k)i},使用式(20)更新D(k)i;

固定变量{D(k)i,A(k)i,W(k)i},使用式(22)更新P(k)i;

固定变量{D(k)i,P(k)i,A(k)i},使用式(24)更新W(k)i;

until目标式(9)收敛或者达到最大迭代次数

返回字典对{P(k),D(k)}和分类器W(k)(1≤k≤K)。

3  实验

3.1  实验数据及实验设置

本文实验数据取自于国际BCI竞赛BCI Competition Ⅲ,Ⅳa[16]和BCI Competition Ⅳ,Ⅱa[17]公开数据集。BCI Competition Ⅲ,Ⅳ a数据集包含aa、al、av、aw、ay受试者的MI-EEG信号,每位受试者执行右手和右脚的两类运动想象任务。每次实验采集118个通道的MI-EEG数据,共获得每个受试者的280组实验数据。BCI Competition Ⅳ,Ⅱ a数据集包含A1~A9受试者,每位受试者分别执行左手、右手、足和舌头四类想象任务,每次实验采集22个通道的MI-EEG数据,共获得576组数据。实验中电极的放置位置如图1所示。实验开始时,被试者正对外部背景为白色十字交叉图案,2 s后,屏幕出现上、下、左、右箭头中的一种,分别代表不同的运算想象任务。箭头1.5 s后消失并由十字图形替代,并按照箭头方向执行代表的运动想象任务,直到t=6 s时停止。实验范式如图2所示。

实验选取0.5~2 s的时间窗对MI-EEG信号进行数据提取,使用一个5阶巴特沃斯滤波器进行8~30 Hz的带通滤波操作。特征提取环节则采用基于时频域分析方法的小波能量(wavelet energy,WE)特征[18],特征的维度=类别数×通道数。WE特征通过小波变换将时频图中较高能量区域进行分解,得到显著性强的局部特征信息。实验对比方法主要包括两类:a)对比算法是传统的字典学习方法,包括K-SVD[19]和PDL[11]方法;b)对比算法是多层学习算法,包括MLDL[20]、TSMDL[21]、IMLP[22]、IML-ELM[23]和DDLCN[24]。K-SVD和PDL方法是单层字典学习,字典的原子数等于训练集样本数。多层学习模型中MLDL和TSMDL是多层字典学习方法,IMLP是多层感知器方法,IML-ELM是多层极限学习机方法。所有的多层学习模型的层数均设为3层。各方法的参数基本设置遵循原始文献的设置,正则化参数的搜索范围均设为{10-3,5×10-2,…,1},IML-ELM方法中节点数量为{10、15、20、25、30、40、50、100},且每层中的节点数相等。IMLP方法中使用修正线性单元(rectified linear unit,ReLU) 激活函数和均方误差损失函数。DDLCN是深度字典学习方法,模型第一层是特征提取层,接着是n层字典学习层,然后是传统CNN网络(包括池化层、全连接层),最后是输出层。输出层使用支持向量机作为分类器。对比算法的其他参数设置均参照相关文献的默认设置。MDDPL、MLDL、TSMDL和DDLCN方法中,字典学习的模型设置为3层结构,每类子字典的维数分别设置为40→30→20。MDDPL的正则化参数的搜索范围均为{10-3,5×10-2,…,1}。实验中随机选取80%的MI-EEG数据用于模型训练,剩余的20%MI-EEG数据用于模型测试,实验重复10次。

3.2  实验结果分析

实验在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa数据集上比较了MDDPL方法与六种对比方法的性能。实验比较了各个方法的分类精度、G-means值和F-measure的平均值。实验结果如表1~6所示。

a)从平均分类精度这一评价指标看,多层学习模型的平均分类精度都高于传统的单层字典学习方法K-SVD和PDL。MDDPL方法较K-SVD方法在两个数据集上的平均分类精度分别提高5.24%和6.63%,比PDL方法在两个数据集上的平均分类精度分别提高4.64%和5.97%。实验结果表明多层次结构模型能更深度地挖掘MI-EEG数据的特征信息,也表明本文提出的多层判别字典对学习方法是适用于MI-EEG识别的。对比实验中的多层学习模型,MDDPL方法也具有明显的优势。其中DDLCN方法分类精度较优,但MDDPL方法较DDLCN在两个数据集上的平均分类精度分别提高1.00%和1.17%。IMLP着重于在多层感知器中优化确定输入和输出数据之间的权重和偏差,以降低损失函数的值,在面向类间相似性高的MI-EEG数据识别问题不具有优势。IML-ELM将多层极限学习机与基准动态系统结合在一起,通过调整每个基准系统相关训练程序来优化多层学习模型,但其在面向高度非平稳的MI-EEG信号也不具有优势。DDLCN方法将字典学习和卷积神经网络结合,但其字典学习部分是传统的综合字典学习,且在多层学习过程中没有考虑分类器的嵌入和系数矩阵的低秩性,因此在处理BCI的MI-EEG识别问题时分类精度也低于MDDPL方法。

b)从G-means这一评价指标看,G-means计算了每个分类器在不同类别上分类准确率的几何均值,只有当每个类别的分类均值较接近时,G-means有较高的值。BCI Competition Ⅲ,Ⅱa是一个2分类数据集,BCI Competition Ⅳ,Ⅱ a是一个4分类数据集。从表2、4结果可以看出,本文MDDPL方法依然取得了最佳的分类结果。从F-measure这一评价指标看, MDDPL方法在两个数据集上均取得了最高值。说明所提方法优于对比的其他字典学习和多层学习模型,MDDPL方法的良好性能主要得益于字典对学习和分层模型的结合,通过一系列非线性投影将数据映射到更具判别力的子空间,在分析字典上引入多分类项,在编码矩阵施加低秩约束,这些策略都能提高模型在MI-EEG领域的分类效果。

3.3  消融性实验

首先,验证多层次学习模型的作用,设置模型层次数K=1。此时,MDDPL方法相当于字典对算法上加上了基于分析字典的多分类项和基于编码矩阵的低秩项。实验结果如表7所示。可见,在层次数K设为1的情况下,MDDPL方法的平均分类精度明显下降,在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa数据集上的分类精度分别下降3.92%和4.30%。实验结果表明,多层次学习模式确实有助于挖掘MI-EEG的深层特征信息,能构建更有识别性的学习模型。

其次,验证MDDPL方法中基于分析字典的多分类项的作用,设置τ=0。实验结果如表7所示。基于分析字典的多分类项利用训练样本的监督信息构建具有类间分离性的多分类器,显然能对模型的分类性能起到决定性的作用。正如实验结果所示,不考虑这项时,MDDPL方法在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa数据集上的分类精度分别下降1.06%和2.24%。

然后,验证MDDPL方法中基于稀疏矩阵低秩项的作用,设置参数α=0。∑ci=1rank(A(K)i)的目的是保证学习到的编码矩阵具有类内紧致性,与基于分析字典的多分类项一起来提高模型的分类性能,实验结果如表7所示。可以看出,基于编码矩阵的低秩项能直接影响模型最终的分类精度,在不考虑这项时,MDDPL方法在BCI Competition Ⅲ,Ⅳ a和BCI Competition Ⅳ,Ⅱ a数据集上的分类精度分别下降0.83%和0.98%。可见,增强编码矩阵的紧致性和类内相似性对提高模型的分类精度起到了重要作用。

3.4  参数敏感性分析

首先,考察每个正则化参数的作用。MDDPL方法中正则化参数包括α、τ和λ。三个参数的搜索范围均为{10-3,5×10-2,…,1},实验中采用网格搜索法来确定其最优值,参数寻优中固定另外两个参数。实验结果分别如图3(a)~(c)所示。α是基于稀疏矩阵的低秩项的正则化参数;τ是字典对学习中‖P(k)i(k)i‖2F的正则化参数,λ是基于分析字典的多分類项的正则化参数。从实验结果看出,针对不同的α,MDDPL方法的分类精度变化也较温和,只在小幅范围内起伏变化。结合表5的实验结果表明,基于稀疏矩阵的低秩项在MDDPL方法中是必须的,实际BCI运动想象MI-EEG识别问题中也可使用固定的α值。针对不同的τ,MDDPL方法的分类精度变化较温和,不同的τ对应的分类精度变化不大。说明‖P(k)i(k)i‖2F对于整个模型较为重要。在面向BCI系统运动想象MI-EEG识别问题中,可以采用固定的τ值。对不同的λ,MDDPL方法分类精度是较敏感的,不同的λ值导致分类性能差异较大。因此,对λ采用网格搜索法是有效的。

其次,考察模型层数的作用。模型层数K的搜索范围均为{2,3,…,6}。实验结果分别如图3(d)所示。MDDPL方法使用多层非线性模型来挖掘在多层连续投影过程中编码矩阵的隐藏特征。K的值对应不同的投影变化。从实验结果看出,在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa数据集上,当K=3时,模型的分类精度可以达到稳定。因此,实验中可以设置K为固定值3。

3.5  矩阵可视化

实验显示了稀疏编码矩阵A的可视化,实现结果如图4所示。矩阵A具有类分离和稀疏的特性,同时,由于MDDPL方法在模型最后一层的每个类别的矩阵A(K)i上施加低秩约束,矩阵A具有块对角结构,只需被少量字典原子线性表示。所以,MDDPL方法能够充分挖掘多层连续投影过程中编码矩阵的隐藏特征,模型具有较强的类区别能力。以促使同类编码矩阵具有强的相似性和紧致性。

4  结束语

运动想象BCI能结合人脑的想象思维和实际的控制应用,不依赖于外部视觉或听觉刺激,是目前被广泛研究的BCI技术。本文提出了一种适用于面向MI-EEG信号识别的多层判别字典对学习方法。该方法在字典对学习的基础上,通过非线性函数将数据投影到一系列更具分辨性的子空间。为了增强模型的类间区分性和类内紧致性,引入基于分析字典的多分类项和基于编码矩阵的低秩约束项,同时要求分类器判别不同类别样本近似为空。实验结果表明该方法在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa数据集上取得了较好的分类性能。后续的研究工作包括:a)MDDPL方法对MI-EGG信号进行离线分析,训练集和测试集都是事先准备好的。但在实际操作中测试集的获取需要实时获取,将MDDPL方法扩展至在线学习模式,根据测试样本的批量输入实时更新模型;b)训练集样本的标记信息获取需要专业知识和时间成本,将MDDPL方法扩展至半监督学习模式,利用大量无标记样本来辅助少量的标记样本训练模型。参考文献:

[1]Chu Xiaolei,Song Xizi,Li Yuru,et al.An ultrasound-guided percutaneous electrical nerve stimulation regimen devised using finite element modeling promotes functional recovery after median nerve transection[J].Neural Regeneration Research,2023,18(3):683-688.

[2]Cui Zhengzhe,Li Yongqiang,Huang Sisi,et al.BCI system with lower-limb robot improves rehabilitation in spinal cord injury patients through short-term training:a pilot study[J].Cognitive Neurodynamics,2022,16(4):1283-1301.

[3]Dhiman R.Electroencephalogram channel selection based on Pearson correlation coefficient for motor imagery-brain-computer interface[J].Measurement:Sensors,2022,25(2):article ID 100616.

[4]张力新,常美榕,王仲朋,等.SSSEP提升下肢MI-BCI系统性能及其多维脑电特征分析[J].中国生物医学工程学报,2021,40(4):429-437.(Zhang Lixin,Chang Meirong,Wang Zhongpeng,et al.Improve the performance of lower limb MI-BCI system based on SSSEP and its multi-dimensional EEG feature analysis[J].Chinese Journal of Biomedical Engineering,2021,40(4):429-437.)

[5]付榮荣,田永胜,鲍甜恬.基于稀疏共空间模式和Fisher判别的单次运动想象脑电信号识别方法[J].生物医学工程学杂志,2019,36(6):911-915.(Fu Rongrong,Tian Yongsheng,Bao Tiantian.Recognition method of single trial motor imagery electroencephalogram signal based on sparse common spatial pattern and Fisher discriminant analysis[J].Journal of Biomedical Engineering,2019,36(6):911-915.)

[6]Sreeja S R,Samanta H D.Distance-based weighted sparse representation to classify motor imagery EEG signals for BCI applications[J].Multimedia Tools and Applications,2020,79(5):13775-13793.

[7]Sharghian V,Rezaii T Y,Farzamnia A,et al.Online dictionary lear-ning for sparse representation-based classification of motor imagery EEG[C]//Proc of the 27th Iranian Conference on Electrical Engineering.Piscataway,NJ:IEEE Press,2019:1793-1797.

[8]Meng Ming,Yin Xu,She Qingshan,et al.Sparse representation-based classification with two-dimensional dictionary optimization for motor imagery EEG pattern recognition[J].Journal of Neuroscience Methods,2021,361(9):article ID 109274.

[9]徐淳瑶.基于稀疏表示的运动想象脑电信号分类研究[D].秦皇岛:燕山大学,2021.(Xu Chunyao.Classification of motor imagery EEG signals based on sparse representation[D].Qinhuangdao:Yanshan University,2021.)

[10]Sreeja S R,Samanta D.Classification of multiclass motor imagery EEG signal using sparsity approach[J].Neurocomputing,2019,27(11):133-145.

[11]Gu Shuhang,Zhang Lei,Zuo Wangmeng,et al.Projective dictionary pair learning for pattern classification[C]//Proc of the 27th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2014:793-801.

[12]Gu Xiaoqing,Ni Tongguang,Zhang Cong.A hierarchical discriminative sparse representation classifier for EEG signal detection[J].IEEE/ACM Trans on Computational Biology and Bioinforma-tics,2021,18(5):1679-1687.

[13]Tim S,Rombaut M,Pellerin D,et al.Descriptor extraction based on a multilayer dictionary architecture for classification of natural images[J].Computer Vision and Image Understanding,2020,191(2):article ID 102708.

[14]Jiang Heng,Xu Chen,Liu Liu.Joint spatial structural sparsity constraint and spectral low-rank approximation for snapshot compressive spectral imaging reconstruction[J].Optics and Lasers in Enginee-ring,2023,162(3):article ID 107413.

[15]Ding Zhengming,Fu Yun.Deep low-rank coding for transfer learning[J].IEEE Trans on Neural Networks and Learning Systems,2019,30(6):1768-1779.

[16]Kübler A,Kotchoubey B,Kaiser J,et al.Brain-computer communication:unlocking the locked in[J].Psychological Bulletin,2001,127(3):358-375.

[17]Blankertz B,Muller K R,Curio G,et al.The BCI competition 2003:progress and perspectives in detection and discrimination of EEG single trials[J].IEEE Trans on Biomedical Engineering,2004,51(6):1044-1051.

[18]Phadikar S,Sinha N,Ghosh R.Unsupervised feature extraction with autoencoders for EEG based multiclass motor imagery BCI[J].Expert Systems with Applications,2023,213(3):article ID 118901.

[19]Jiang Zhuolin,Lin Zhe,Davis L S.Label consistent K-SVD:learning a discriminative dictionary for recognition[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2013,35(11):2651-2664.

[20]Tim S,Rombaut M,Pellerin D.Multi-layer dictionary learning for image classification[M]//Blanc-Talon J,Distante C,Philips W,et al.Advanced Concepts for Intelligent Vision Systems.Cham:Springer,2016:522-533.

[21]Gu Yi,Li Kang.A transfer model based on supervised multiple dictionary learning for brain tumor MRI image recognition[J].Frontiers in Neuroscience,2021,15(5):article ID 687496.

[22]Lee E.Runoff prediction of urban stream based on the discharge of pump stations using improved multi-layer perceptron applying new optimizers combined with a harmony search[J].Journal of Hydrology,2022,615(12):article ID 128708.

[23]Kale G,Karakuzu C.Multilayer extreme learning machines and their modeling performance on dynamical systems[J].Applied Soft Computing,2022,122(6):article ID 108861.

[24]Tang Hao,Liu Hong,Xiao Wei,et al.When dictionary learning meets deep learning:deep dictionary learning and coding network for image recognition with limited data[J].IEEE Trans on Neural Networks and Learning Systems,2021,32(5):2129-2141.