APP下载

基于改进GhostNet的轻量级手势图像识别方法

2023-08-30田秋红孙文轩章立早施之翔潘豪吴佳璐

浙江理工大学学报 2023年5期
关键词:注意力机制卷积神经网络

田秋红 孙文轩 章立早 施之翔 潘豪 吴佳璐

摘 要: 卷积神经网络应用于复杂背景的手势图像识别时,存在深层模型参数量大、计算成本高、轻量级模型准确率低等问题,针对这些问题提出了一种基于改进GhostNet的轻量级手势图像识别方法。首先,在Ghost模块中添加通道混洗操作,建立CS-Ghost模块以提取手势图像中的手势特征;然后,选用SMU(Smoothing maximum unit)激活函数优化模型在反向传播中的学习能力;最后,使用注意力机制中的轻量级通道注意力模块ECA去除特征中的噪声信息。该方法在ASL和NUS-Ⅱ数据集上的实验平均准确率分别为98.82%和99.36%;在OUHANDS数据集上的实验平均准确率为97.98%,参数量为1.2 Mi,FLOPs为0.29 Gi。实验结果表明该方法参数量小,计算成本低,可有效提高手势图像识别的准确率。

关键词:手势图像识别;卷积神经网络;轻量级模型;注意力机制;激活函数

中图分类号:TP181

文献标志码:A

文章编号:1673-3851 (2023) 05-0300-10

引文格式:田秋红,孙文轩,章立早,等. 基于改进GhostNet的轻量级手势图像识别方法[J]. 浙江理工大学学报(自然科学),2023,49(3):300-309.

Reference Format: TIAN  Qiuhong,SUN  Wenxuan,ZHANG  Lizao,et al. Lightweight gesture image recognition method based on improved GhostNet[J]. Journal of Zhejiang Sci-Tech University,2023,49(3):300-309.

Lightweight gesture image recognition method based on improved GhostNet

TIAN Qiuhong, SUN Wenxuan, ZHANG Lizao, SHI Zhixiang, PAN Hao, WU Jialu

(School of Computer Science and Technology, Zhejiang Sci-Tech University, Hangzhou 310018, China)

Abstract: When convolutional neural network is applied to the recognition of gesture images with complex backgrounds, the deep model has a large number of parameters and high computational cost, and the accuracy of the lightweight model is low. To solve these problems, a lightweight gesture image recognition method based on improved GhostNet was proposed in this paper. Firstly, channel shuffling operation was added to the Ghost module, and the CS-Ghost module was designed to extract gesture features from gesture images. Then, SMU (smoothing maximum unit) was selected to activate the function to optimize the learning ability of the model in the back propagation. Finally, the lightweight channel attention module ECA in the attention mechanism was used to remove the noise information in the feature. The experimental average accuracy of the proposed method on ASL and NUS-Ⅱ datasets are 98.82% and 99.36%, respectively. The experimental average accuracy on the OUHANDS dataset is 97.98%, the parameter quantity is 1.2 Mi, and the FLOPs is 0.29 Gi. The experimental results show that the proposed method has small parameters, low computational cost, and effectively improves the accuracy of gesture image recognition.

Key words:gesture image recognition; convolution neural network; lightweight model; attention mechanism; activation function

0 引 言

手勢是一种自然形态的交互方式,表达意义丰富;手势图像识别在人机自然交互中可以为用户提供更加真实的交互体验[1。近年来,手势图像识别在机器控制、虚拟现实和辅助驾驶等领域中发挥着重要的作用。现有手势图像识别任务的解决方法主要分为基于机器学习技术的传统方法和基于卷积神经网络为主的深度学习方法2

传统手势图像识别方法针对特定数据集,人工设计手势特征进行手势建模[3。Tian等[4使用YCbCr特征提取出有效的手臂区域,并使用SVM分类器进行手势分类;该方法对简单背景的手势图像识别准确率较高,在复杂背景的手势图像中识别效果较差。Sadeddine等[5提出了一种基于梯度局部自相关描述符、Gabor小波变换和快速离散曲线变换的静态手势识别方法,识别率达94%。以上方法采用的特征易于提取,但提取特征较为单一,复杂手势图像的识别准确率不高。为了提高手势识别的准确率,一些学者采用更丰富的手势特征,并通过特定机器学习方法进行手势图像识别。杨述斌等[6提取手势图像中的HOG特征并进行PCA降维,再将特征归一化处理,识别准确率高于一般机器学习方法。以上传统手势图像识别的方法需要对特征进行针对性调整,且容易受到背景与光照等因素的影响,要求数据集中手势动作简单,背景噪声较小,难以推广使用。

近年来,深度学习在图像识别领域有着广泛的应用,其中卷积神经网络(Convolutional neural network, CNN)由于其无需人工设计特征受到了广泛关注。Pardasani等[7将CNN应用到机器人上,识别人类的简单手势,在美国手语数据集上达到85%的准确率。Khotimah等[8使用CNN对动态和静态两个场景的手势进行分类,平均准确率为89%。以上两种方法通过简单的CNN实现了手势图像识别,但准确率不高,因此一些学者使用更复杂的模型进行识别。Kwolek等[9提出了一种基于生成性对抗网络和ResNet模型的方法对日本手语图像进行分类。Xie等[10使用Inception V3模型对表达24个英文字母的手势数据集进行分类,采用两阶段训练策略对模型进行微调,准确率达到91.35%。Tao等[11提出了一种利用CNN进行多视角增强的手语识别方法,该方法具有较高的识别精度,但模型的计算成本较高。Singh等[12构建了基于VGG16的手势图像识别系统,该系统对手势图像的识别率为96.7%。以上使用复杂CNN的方法能够提升手势图像识别的准确率,但随着网络加深,模型的计算成本越来越高,为了加快模型识别速度,一些学者采用轻量级模型进行手势图像识别。辛文斌等[13提出了一种ShuffleNetv2作为主干网络的YOLOv3模型,同时采用CBAM模块优化特征提取,能够得到较快的识别速度。Wang等[14提出了一种改进的轻量级模型E-MobileNetv2进行手势图像识别,准确率达到了96.82%,并且减少了30%的参数量。Ansari等[15提出了一种使用MobileNetV2与SSD相结合的方法进行手势图像识别,大幅减少了模型计算成本,但识别的准确率只有44.7%。上述基于轻量级模型的方法能够有效降低计算成本,但提取到的特征不够丰富且存在较多的噪声信息,手势图像识别的准确率较低。

为了提高轻量级模型在手势图像识别任务中的准确率,本文提出了一种基于改进GhostNet的轻量级手势图像识别方法。该方法在Ghost模块的基础上加入通道混洗操作,设计了能够对不同通道的特征进行重新分配的CS-Ghost (Channel shuffle ghost)模块。该模块可以增强通道间的信息交流从而提取丰富的特征信息;同时,采用SMU激活函数避免ReLU函数中的神经元死亡问题,加强模型在训练过程中的特征学习能力;最后,使用轻量级通道注意力模块ECA去除特征中的噪声信息,以增强有效特征的表达能力。本文提出方法对GhostNet结构进行优化,在减少计算成本的同时,进一步提高手势图像识别的准确率。

1 方法设计

对于包含特定手势的图像,手势图像识别任务需要理解图像内容,排除背景干扰,强化手势特征并准确识别出手势类型。本文建立了轻量级模型CS-GhostNet,对复杂手势图像中的手势进行分类。首先,在Ghost模块中加入通道混洗操作,设计了CS-Ghost模块,该模块能够提取更丰富的手势特征;其次,使用CS-Ghost模块和SMU激活函数搭建CS-Ghost瓶颈层,增强模型的学习能力;然后,利用ECA模块减少特征中的噪声信息;最后,构建出CS-GhostNet模型,实现手势图像识别。

1.1 网络结构

CS-GhostNet网络结构示意图如图1所示,该模型建立在GhostNet的基础上,网络结构为:首先使用一层卷积层提取尺寸为224×224×3的手势图像特征;再将特征输入10层CS-Ghost瓶颈层和6个CS-Ghost-ECA模块中,输出尺寸为7×7×160的特征到卷积层中;接着经过一层平均池化层、一层卷积层和一层全连接层,最终得到形状为1×1×1280的特征进行手势分类。CS-Ghost-ECA模块由CS-Ghost瓶颈层和ECA模块组合得到,具体结构如图1所示。为了減少ECA模块对模型增加的计算成本,本文只使用6个CS-Ghost-ECA模块。其中5个模块在传递过程中改变特征尺寸,该操作可以有效利用ECA模块的注意力机制增强手势特征表达能力,第6个CS-Ghost-ECA模块用于在分类前强化手势特征,增强模型的分类能力。

1.2 CS-Ghost模块

手势图像中会存在一些非手势的干扰物品,卷积操作会从图像中提取出手势特征和非手势特征。为了强化其中的手势特征,需要将同一手势的多幅图像输入网络进行训练,这种操作会产生大量的特征图。Han等[16发现,在特征图中存在部分相似的特征,这些相似特征可增强模型对输入数据的理解程度,有助于提升模型的准确率;但这些相似特征在卷积过程中产生的冗余映射会消耗大量计算资源。为了减少冗余映射带来的计算量,目前普遍采用轻量级模型GhostNet通过简单的线性操作生成特征图。GhostNet由多个Ghost模块组成,Ghost模块的具体结构如图2(b)所示,每个Ghost模块通过三步操作获得与普通卷积一样数量的特征图。第一步操作是少量卷积,相对图2(a)中的普通卷积操作,少量卷积只使用相当于普通卷积一半数量的卷积核,减少了一半的计算量;第二步,对特征图进行廉价操作,其中12,…,m表示对m个通道中的特征图逐个进行线性变换,线性变换会选择计算成本低的深度可分离卷积操作;第三步,对恒等映射后的特征图和线性变换后的特征图进行拼接,得到最终的输出特征。

在Ghost模块中会生成两组特征图,其中第二组特征图由第一组特征图通过线性变换得到。由于两组特征图中存在较多的相似特征且通道结构一致,模型在训练的过程中只能学习到其中一组特征图的主要信息,而另一组信息被忽略。因此,本文设计了CS-Ghost模块,使用ShuffleNetV2[17中的通道混洗操作来增强两组特征图不同通道之间的信息交流,具体结构如图2(c)所示。其中通道混洗操作是在通道的层面上打乱特征的顺序,首先假设一组特征图中有N个特征通道,将其看作一个(1,N)的一维数组并重塑成(g,N/g)的多维数组,其中g为分组的数量,值为2;然后对多维数组进行转置,构成(N/g,g)的数组;最后对其进行重塑,将特征数组变回(1,N),完成通道混洗操作。通过打乱特征通道的位置顺序,CS-Ghost模块能够同时学习到两组特征图的信息,从而提升模型的特征提取能力。

1.3 基于SMU激活函数的CS-Ghost瓶颈层

ReLU激活函数具有快速的收敛能力。ReLU函数对负的特征值直接归零,特征值在原点不可微的特性使得下一层出现更多的负值特征,最终超过50%的神经元在模型训练期间死亡。相比ReLU函数,SMU函数在原点处可微,在模型训练时能够更加平滑地传递特征到下一层,有效避免ReLU函数导致的神经元死亡问题。应用SMU函数的模型可以在训练过程中更好地从手势图像中学到手势特征。因此,为了提升模型在训练时的稳定性,本文选用SMU激活函数[18代替ReLU函数,该函数的公式可用式(1)表示:

其中:a是一个超参数,默认值设为0.25;u是一个可训练参数,初始化值为1000000;erf()是高斯误差函数,定义为:

本文参照ResNet中的残差结构[19,通过CS-Ghost模块和SMU激活函数构建CS-Ghost瓶颈层,如图3所示。CS-Ghost瓶颈层分为步长为1和步长为2两种结构,每种结构主要由两个CS-Ghost模块组成。对于步长为1的CS-Ghost瓶颈层,在第一个CS-Ghost模块后添加一个批量归一化层(BN)和一个SMU激活函数;同时根据MobileNetV2[20的建议,在第二个CS-Ghost模块后使用一个批量归一化层而不使用激活函数,以避免信息损失;最后使用Add操作将输入特征与经过两个CS-Ghost模块后的特征进行相加,得到输出特征。对于卷积步长为2的CS-Ghost瓶颈层,需要使用步长为2的深度可分离卷积(Depthwise separable convolutions, DWConv)对特征进行空间下采样,其他结构与步长为1的CS-Ghost瓶颈层相同。使用SMU激活函数代替ReLU函数,CS-Ghost瓶颈层在模型训练时可以接收到更多的有效特征。

1.4 ECA模块

在复杂背景下,手势图像中一些环境干扰因素,例如光照以及背景中不同的物品等,在训练过程中这些因素会产生影响模型准确率的不利特征,并且在训练过程中被传播放大,可视为噪声。通道注意机制削弱了这些背景特征的通道,降低了它们的权重[21,从而减少干扰因素对模型的负面影响。大多数注意力机制模块无法兼顾计算成本和识别性能22,例如SE模块[23在通道之间交换信息并进行特征降维,这个操作会增大模型的计算成本,且对通道注意力的预测产生负面影响24

ECA(Efficient channel attention)模块是一种轻量的通道注意力模块,使用一维卷积组合相邻通道上的特征进行特征加权,以补偿特征维数减少所造成的缺陷,避免了特征降维操作的负面影响。此外,ECA模块采用了跨通道交互,在保持性能的同时不会过多增加模型的计算开销。因此,轻量级模型适合引入ECA模块,在提高模型特征提取能力的同时保持模型的轻量级特性。本文在CS-Ghost瓶颈层的Add操作之前嵌入ECA模塊,对残差模块生成的特征进行校准,加强模型的识别能力。ECA模块的具体结构如图4所示,其中:W是特征图的宽度,H是特征图的高度,C是通道的数量,GAP(Global average pooling)表示全局平均池化层。ECA模块能够根据通道数自适应地确定卷积核大小K,从而节省计算资源。K的计算公式如式(3)所示:

其中:b和γ是固定数值的系数,其值分别为1和2;||odd代表取最接近其值的奇数。

2 结果与讨论

2.1 实验数据集

本文使用NUS-Ⅱ和ASL手势图像数据集进行实验,图5(a)和图5(b)分别为NUS-Ⅱ和ASL手势数据集的示例图像。NUS-Ⅱ数据集由50名受试者在不同背景下采集制作,包含10种不同的手势,共有2000幅图像,ASL数据集提供了一套手势代替从“A”到“Z”的26个字母以及“Delete”“Space”和“Nothing”字符,共29個手势类别,包含80000幅图像。

为了验证本文方法的有效性,本文将复杂程度更高的OUHANDS手势图像数据集作为主要数据集。OUHANDS数据集由深度传感摄像头拍摄捕捉,23名受试者,包含从“A”到“K”(不包含“G”)10种不同的手语动作。该数据集中图像背景较为复杂,共包含28种不同的背景。图5(c)中展示了“F”“I”和“J”3种手语动作,每种手语动作选取3幅图像放在同一列中,每列的前两幅图像处于同一背景下,第三幅图像和前两幅图像的背景不同。手势“F”中两种背景图像分别处于暗光和正常光环境下,其中正常光环境中的手势放在人像前面,存在肤色干扰因素。对于手势“J”,相同背景的两幅图像中手势的位置和角度不同,不同背景的图像之间光源位置不同。OUHANDS中拥有3000幅RGB图像,每幅图像数据的分辨率为640×480,本文将其中的80%划分为训练集,20%划分为测试集。

2.2 实验准备

实验环境如下:服务器操作系统为Ubuntu16.04,Python版本3.7.2,使用的深度学习框架为TensorFlow2.3,显卡为Nvidia GeForce GTX 2070Ti,实验选用Adam算法作为模型参数优化器,BatchSize的大小设置为16,训练周期为100次。在训练之前对图像进行预处理,先对读入的原始手势图像进行尺寸归一化,变成224×224×3的三通道RGB图像,再对三通道RGB图像进行标准化,将三通道RGB图像的像素从0~255的整数映射为0~1的浮点数,最后输入模型进行训练和测试。

2.3 激活函数对比实验

为了验证SMU激活函数的有效性,本文在CS-GhostNet模型中使用5种激活函数在OUHANDS数据集上进行对比实验,对于每种激活函数,本文进行了20次测试,最终求出每种激活函数对应的平均准确率及方差。采用不同激活函数的模型平均准确率如表1所示,使用SMU激活函数的模型平均准确率为97.98%,相比Sigmoid函数和Tanh函数分别提高了0.42%和0.76%。在反向传播的过程中,Sigmoid函数和Tanh函数饱和区域接近于0且非常平缓,容易出现梯度消失的问题,导致网络中神经元的权重无法即时更新。SMU函数在超参数确定的情况下,正输入时得到的结果是线性的,能够完整传递梯度,可以避免梯度消失问题。同时,SMU函数的平均准确率相比ReLU函数和Leaky ReLu函数分别提高了0.06%和0.12%。由于ReLU函数解决了梯度消失问题,所以其平均准确率相对Sigmoid函数和Tanh函数有所提升,但ReLU函数在输入负值的情况下存在神经元坏死的问题,Leaky ReLU函数在负半轴添加了一个小的正斜率,确保神经元的权重在负值输入的情况下仍然可以更新。但Leaky ReLU函数中使用的斜率很小,影响权重更新的速度,最终会影响模型的平均准确率。SMU函数通过平滑逼近的方式更新权重,在避免神经元坏死问题的同时加快模型的收敛速度,在模型训练过程中能够传递更多的有效参数,得到的特征更加契合手势图像,最终提高了模型的平均准确率。

为了验证激活函数对模型稳定性的影响,本文计算了5种激活函数的准确率方差。从表1中可以看出,Tanh函数的方差最大,达到了0.32%,当输入较大或较小时,Tanh函数的输出较为单一,不利于权重更新,最终影响了模型的收敛速度使得平均准确率不够稳定。Sigmoid函数和Leaky ReLU函数的方差较为接近,分别为0.23%和0.24%,Sigmoid函数中的梯度消失问题影响了模型收敛速度,Leaky ReLU函数在负值输入下使用小斜率不利于权重更新。ReLU函数的方差为0.19%,其在正输入时输出是线性的,负输入时输出直接为0,计算速度快且不存在梯度消失的问题。SMU函数的方差最小,只有0.16%,SMU函数能够平滑地传递特征到下一层,权重更新快,模型收敛速度加快,使得平均准确率波动幅度小,从而增强模型的稳定性。

2.4 通道混洗机制和ECA模块的性能验证实验

为了探索通道混洗机制和ECA模块对模型产生的影响,本文将对GhostNet和CS-GhostNet嵌入不同注意力模块进行对比实验,实验结果如表2所示。从表2中可以看出,CS-GhostNet相对GhostNet平均准确率有显著提升,在不加注意力模块的情况下,CS-GhostNet相对GhostNet提高0.92%的平均准确率,参数量没有变化,FLOPs增加了0.01 Gi。将SE模块、CBAM模块和ECA模块分别加入模型后,CS-GhostNet相对GHostNet平均准确率分别提高了0.84%、0.80%和0.90%,参数量和FLOPs没有显著变化,这是因为通道混洗机制用于增强模型的特征提取能力且花费的计算成本较低,能够进一步提升模型的性能。加入SE模块与CBAM模块的CS-GhostNet平均准确率分别提升了0.50%和0.26%,但SE模块将模型的参数量从1.19 Mi增加到4.36 Mi,FLOPs从0.29 Gi增加到0.32 Gi,CBAM模块增加了1.34 Mi的参数量和0.02 Gi的FLOPs。SE模块和CBAM模块虽然提升了模型的平均准确率,但增大了模型的计算成本。加入ECA模块的CS-GhostNet在平均准确率提升了0.52%的同时参数量只增加了0.01 Mi,且FLOPs没有增加。与实验中的其他注意力模块对比,ECA模块在提升平均准确率的同时不会显著影响模型的参数量和计算成本,有效提升模型的性能。

2.5 CS-GhostNet的性能验证实验

为了验证提出的CS-GhostNet模型的有效性,将此模型与主流的分类模型ResNet50、VGG16、ShuffleNetV2以及MobileNetV2在OUHANDS数据集上进行实验,在平均准确率和FLOPs两个方面作对比分析,实验结果如表3所示。

由表3可见,本文提出的CS-GhostNet模型在平均准确率上比ResNet50高0.66%,比VGG16高0.60%,且FLOPs为0.29 Gi,远低于ResNet50的4.1 Gi和VGG16的3.13 Gi,CS-GhostNet在保持模型轻量特性的同时平均准确率能够高于VGG16和ResNet50这些计算成本较高的模型。与ShuffleNetV2和MobileNetV2相比,CS-GhostNet不仅平均准确率分别提升了2.55%和4.58%,FLOPs也分别降低了0.12 Gi和0.30 Gi,CS-GhostNet的平均准确率提升幅度较大且计算成本也低于两个轻量级模型实验结果表明,CS-GhostNet在保持模型低计算成本的同时实现了较高的平均准确率,是一种性能优良的网络模型。

2.6 训练性能对比实验

为了测试本文提出的CS-GhostNet模型在训练时的性能,将该模型与VGG16、ResNet50、MobileNetV2、ShuffleNetV2和GhostNet模型在训练时的准确率变化情况进行对比分析,这6种模型在OUHANDS数据集上的准确率变化曲线如图6所示。由图6可知,CS-GhostNet在60次迭代后基本收敛,VGG16和ResNet50在70次迭代后收敛,GhostNet、MobileNetV2和ShuffleNetV2都在80次迭代后才开始收敛,且在80到100次迭代中准确率曲线仍然存在一定程度的波动。轻量级模型GhostNet、MobileNetV2和ShuffleNetV2的收敛速度较慢且稳定性较差。ResNet50和VGG16的稳定性较好,但收敛速度一般。CS-GhostNet的收敛速度最快且稳定性好,这是因为通道混洗操作和ECA模块能够让模型在训练前期提取到更多的有效特征,加快了模型的收敛速度;SMU函数增强了模型在反向传播中的学习能力,提高了模型的稳定性。观察图6中模型的准确率变化曲线,可以发现CS-GhostNet的准确率最高,VGG16和ResNet50准确率略低,GhostNet、ShuffleNetV2和MobileNetV2的准确率较低。实验结果表明,在模型训练的过程中,CS-GhostNet在收敛速度和稳定性方面表现较好,识别准确率达到最高,模型整体性能优秀。

2.7 时间性能验证实验

为了测试提出方法的时间性能,本文将不同方法的训练时间和预测时间进行对比,实验结果如表4所示,其中训练时间是指模型从开始训练到100个周期训练完成所花费的时间,预测时间是指已经训练完成的模型对于预测一幅分辨率为640×480的手势图像花费的时间。从表4中可以看出,CS-GhostNet的训练时间为0.72 h,相对MobileNetV2和ShuffleNetV2分别减少了0.05 h和0.08 h,比训练时间最长的Xception减少了0.62 h。CS-GhostNet对于单幅图像的预测时间只需要232 ms,比轻量级模型MobileNetV2和ShuffleNetV2分别减少6 ms和11 ms,比ResNet50和Xception分别减少了30 ms和81 ms。CS-GhostNet的训练时间较短,表明了模型具有较低计算成本。相比其他模型,CS-GhostNet对单幅图像预测的时间成本较低,在时间性能方面有一定的优越性。

2.8 不同数据集上的对比实验

为了测试提出模型的泛化性能,在OUHANDS数据集、ASL数据集以及NUS-Ⅱ数据集上进行CS-GhostNet和其他模型的对比实验。由表5可见,在OUHANDS数据集的实验结果中,CS-GhostNet的平均准确率为97.98%,在所比较的方法中平均准确率最高。ASL数据集图像背景较为简单,VGG16在该数据集上存在过拟合现象,平均准确率为98.46%,ResNet50在一定程度上解决了过拟合问题,得到了99.2%的平均準确率,CS-GhostNet作为参数量较少的轻量级模型,过拟合风险较低,平均准确率为98.82%,略低于ResNet50,但高于其他模型。在NUS-Ⅱ数据集上,CS-GhostNet达到了98.36%的平均准确率,高于其他模型。通过分析可知,本文提出的CS-GhostNet能够在3个数据集上获得较高的平均准确率,泛化性能良好。

3 结 论

本文提出一种基于改进GhostNet的轻量级手势图像识别方法,通过通道混洗操作改进Ghost模块,增强特征通道之间的信息交流;使用SMU激活函数加强模型的特征学习能力和训练时的稳定性;加入ECA模块减少特征中的噪声信息。实验结果表明,采用CS-Ghost模块、SMU函数和ECA模块可以保证模型在轻量的特性下提高手势图像的识别准确率。本文提出方法在ASL和NUS-Ⅱ数据集上分别得到了98.82%和98.36%的平均准确率,在OUHANDS数据集上平均准确率达到了97.98%,参数量为1.20 Mi,FLOPs为0.29 Gi,在准确率和计算成本方面与现有手势图像识别方法相比有明显优越性。

参考文献:

[1]Jiang D, Zheng Z J, Li G F, et al. Gesture recognition based on binocular vision[J]. Cluster Computing, 2019, 22(6): 13261-13271.

[2]王银, 陈云龙, 孙前来. 复杂背景下的手势识别[J]. 中国图象图形学报, 2021, 26(4):815-827.

[3]陈影柔, 田秋红, 杨慧敏, 等. 基于多特征加权融合的静态手势识别[J]. 计算机系统应用, 2021, 30(2):20-27.

[4]Tian Q H, Bao J X, Yang H M, et al. Improving arm segmentation in sign language recognition systems using image processing[J]. Technology and Health Care: Official Journal of the European Society for Engineering and Medicine, 2021, 29(3): 527-540.

[5]Sadeddine K, Chelali F Z, Djeradi R, et al. Recognition of user-dependent and independent static hand gestures: Application to sign language[J]. Journal of Visual Communication and Image Representation, 2021, 79: 103193.

[6]杨述斌, 潘伟, 蒋宗霖. 基于HOG特征与手部多特征信息融合的静态手势识别[J]. 自动化与仪表, 2020, 35(8):47-51.

[7]Pardasani A, Sharma A K, Banerjee S, et al. Enhancing the ability to communicate by synthesizing american sign language using image recognition in a chatbot for differently abled[C]∥2018 7th International Conference on Reliability, Infocom Technologies and Optimization(Trends and Future Directions). Noida, India: IEEE, 2018: 529-532.

[8]Khotimah W N, Suciati N, Benedict I. Indonesian sign language recognition by using the static and dynamic features[C]∥2018 International Seminar on Intelligent Technology and Its Applications (ISITIA). Bali, Indonesia: IEEE, 2018: 293-298.

[9]Kwolek B, Baczynski W, Sako S. Recognition of JSL fingerspelling using deep convolutional neural networks[J]. Neurocomputing, 2021, 456: 586-598.

[10]Xie B, He X Y, Li Y. RGB-D static gesture recognition based on convolutional neural network[J]. The Journal of Engineering, 2018, 2018(16): 1515-1520.

[11]Tao W J, Leu M C, Yin Z Z. American Sign Language alphabet recognition using Convolutional Neural Networks with multiview augmentation and inference fusion[J]. Engineering Applications of Artificial Intelligence, 2018, 76: 202-213.

[12]Singh D K, Kumar A, Ansari M A. Robust modelling of static hand gestures using deep convolutional network for sign language translation[C]∥2021 International Conference on Computing, Communication, and Intelligent Systems (ICCCIS). Greater Noida, India: IEEE, 2021: 487-492.

[13]辛文斌, 郝惠敏, 卜明龍, 等. 基于ShuffleNetv2-YOLOv3模型的静态手势实时识别方法[J]. 浙江大学学报(工学版), 2021, 55(10):1815-1824.

[14]Wang W J, He M L, Wang X H, et al. Medical gesture recognition method based on improved lightweight network[J]. Applied Sciences, 2022, 12(13): 6414.

[15]Ansari Z A, Harit G. Nearest neighbour classification of Indian sign language gestures using kinect camera[J]. Sadhana, 2016, 41(2):161-182.

[16]Han K, Wang Y H, Tian Q, et al. GhostNet: More features from cheap operations[C]∥IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, USA: IEEE, 2020: 1577-1586.

[17]Ma N N, Zhang X Y, Zheng H T, et al. ShuffleNet V2: Practical guidelines for efficient CNN architecture design[C]∥Ferrari, V, Hebert M, Sminchisescu C, Weiss Y. Lecture Notes in Computer Science: European Conference on Computer Vision . Springer, Cham, 2018, 11218: 116-131.

[18]Biswas K, Kumar S, Banerjee S, et al. SMU: Smooth activation function for deep networks using smoothing maximum technique[EB/OL]. (2022-10-31)[2021-11-08]. https:∥arxiv.org/abs/2111.04682.

[19]He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 770-778.

[20]Sandler M, Howard A, Zhu M L, et al. MobileNetV2: Inverted residuals and linear bottlenecks[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 4510-4520.

[21]He L J, Gong X L, Zhang S, et al. Efficient attention based deep fusion CNN for smoke detection in fog environment[J]. Neurocomputing, 2021, 434: 224-238.

[22]Gao R H, Wang R, Feng L, et al. Dual-branch, efficient, channel attention-based crop disease identification[J]. Computers and Electronics in Agriculture, 2021, 190: 106410.

[23]Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 7132-7141.

[24]Wang Q L, Wu B G, Zhu P F, et al. ECA-Net: Efficient channel attention for deep convolutional neural networks[C]∥Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA: IEEE, 2020: 11531-11539.

[25]Chollet F. Xception: Deep learning with depthwise separable convolutions[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE, 2017: 1800-1807.

[26]Tan M X, Le Q V. EfficientNet: Rethinking model scaling for convolutional neural networks[C]∥International Conference on Machine Learning. Long Beach, CA, USA: PMLR, 2019: 6105-6114.

[27]Adithya V, Rajesh R. A deep convolutional neural network approach for static hand gesture recognition[J]. Procedia Computer Science, 2020, 171: 2353-2361.

[28]Yadav K S, Kirupakaran A M, Laskar R H, et al. Design and development of a vision-based system for detection, tracking and recognition of isolated dynamic bare hand gesticulated characters[J]. Expert Systems, 2022: e12970.

[29]Bhaumik G, Verma M, Govil M C, et al. HyFiNet: Hybrid feature attention network for hand gesture recognition[J]. Multimedia Tools and Applications, 2022: 1-20.

[30]Wang S, Zhang S H, Zhang X W, et al. A two-branch hand gesture recognition approach combining atrous convolution and attention mechanism[J]. The Visual Computer, 2022: 1-14.

(責任编辑:康 锋)

猜你喜欢

注意力机制卷积神经网络
面向短文本的网络舆情话题
基于自注意力与动态路由的文本建模方法
基于深度学习的问题回答技术研究
基于LSTM?Attention神经网络的文本特征提取方法
基于注意力机制的双向LSTM模型在中文商品评论情感分类中的研究
InsunKBQA:一个基于知识库的问答系统
基于卷积神经网络温室智能大棚监控系统的研究
基于深度卷积神经网络的物体识别算法
深度学习算法应用于岩石图像处理的可行性研究
基于深度卷积网络的人脸年龄分析算法与实现