APP下载

基于通道融合的调制信号识别方法

2023-06-16潘一震韩顺利季桓勇

现代电子技术 2023年12期
关键词:正确率信噪比卷积

潘一震,韩顺利,季桓勇,张 博

(中国电子科技集团第四十一研究所,山东 青岛 266555)

0 引 言

在无线通信中,自动调制识别(Automatic Modulation Recognition, AMR)是非协作通信系统中的一项关键技术,是进行信号解调从而获取信息的前提,研究可靠高效的自动调制识别技术在电子对抗、电子干扰、频谱感知等领域具有重要意义。

传统调制识别技术主要分为两大类:基于极大似然的调制识别方式、基于特征提取的调制识别方式。基于极大似然的调制识别算法是使用似然函数进行决策以完成信号的分类,似然函数主要包括平均似然比[1]、广义似然比[2]、混合似然比[3]。基于特征提取的调制识别算法则需要人工手动提取信号特征,主要包括基于高阶统计量[4]、基于时频变换域[5]、基于循环谱[6]、基于星座图[7]等方法。上述两类传统方法计算都较为繁琐,依赖大量人工操作且易受环境变化影响,因此,难以在现实通信系统中得到应用。

近年来,深度学习(Deep Learning, DL)方法因其强大的学习能力而被广泛用于计算机视觉、数据挖掘以及自然语言处理等领域,深度学习中的神经网络能从原始信号中自动提取出具有区分度的深层特征,因此基于深度学习的识别方法在自动调制识别领域中引起了研究人员广泛关注。文献[8]率先将深度学习应用至自动调制识别领域,提出了一种无需判决门限和人工提取特征的自动调制识别算法。该算法使用基带IQ 信号来训练不同的卷积神经网络,首次实现了调制信号的端到端识别。文献[9]提出了一种将卷积神经网络和长短时记忆神经网络并联的网络结构,通过直接对原始IQ 数据进行学习,可在较低信噪比下获得较好的识别率。文献[10]提出使用二值星座图来表示调制信号,并使用三通道图像和灰度图像来优化星座的表示。文献[11]提出的CLDNN 网络将卷积神经网络、长短时记忆神经网络进行融合使用,实验证明该网络比单一神经网络具有更好的识别效果。

本文提出了一种新型的基于通道融合MCGNN(Multi-Channel Convolution Gated-Cycle-Unit Neural Network)的自动调制识别方法,使用双流卷积网络增加网络宽度,在保障算法效率的同时提取出信号不同尺度下的空间特征,并将融合的空间特征输入到GRU 神经网络中提取时序特征,使网络学习到更加丰富的信号特征。最后将所提出的方法与其他神经网络方法在RadioML2016.10a 数据集上进行比较,实验结果表明,所提算法具有较高的识别性能。

1 相关知识

1.1 信号模型

典型的通信系统包括发射机、信道和接收机,如图1 所示。接收机处的连续信号为:

图1 通信系统组成

式中:x(t)为按时间t发射的通信信号;f(t)为对应的调制类型;h(t)为信道函数;n(t)为加性高斯白噪声。在给定接收信号y(t)后,调制方式识别旨在预测f(t)的调制方式。

1.2 深度可分离卷积神经网络

深度可分离卷积网络[12]和标准卷积网络结构如图2所示。在标准的卷积神经网络中,卷积滤波器会同时学习信号空间和通道的相关性;而深度可分离卷积网络则将上述操作分解为深度卷积(Depthwise Convolution)和逐点卷积(Pointwise Convolution)来实现。首先深度卷积使用不同的卷积核,分别作用在不同的通道上,即每一个通道都有与其对应的卷积核;逐点卷积则使用卷积核大小为1 的标准卷积来融合深度卷积的输出结果。深度可分离卷积的整体效果与一个普通的标准卷积相同,但是其模型参数量和计算量却大幅减少。

图2 标准卷积与深度可分离卷积结构图

深度可分离卷积网络和标准卷积网络的参数量公式如下:

式中:P为网络的参数量;Dk为输出特征图大小;M为输入通道大小;N为输出通道大小。

式(4)表示标准卷积网络与深度可分离卷积网络的参数量之比。可以看出,深度可分离卷积网络参数量比标准卷积网络减少了许多。

1.3 GRU 神经网络

门控循环单元(Gated Cycle Unit, GRU)[13]属于循环神经网络(Recurrent Neural Network, RNN)中的一种特殊结构,可以使每一个循环单元自适应地提取不同时间段信号的依赖关系。GRU 使用了包含重置门、更新门的门控结构,这两个门可以有效地控制单元内部的信息流动,从而解决RNN 存在的长短期依赖、梯度消失和梯度爆炸等问题。

GRU 结构图如图3 所示,其中rt和zt分别代表GRU网络中的重置门和更新门。重置门rt主要用来描述前一时间的状态信息被忽略的程度,重置门的阈值越小则说明被忽略的信息越多,有助于捕获时序信号的中短期依赖关系。

图3 门控循环单元结构图

重置门rt的具体公式如下:

式中σ为sigmod 激活函数。

ht-1的传递比例则需根据ht-1与重置门之间的点乘计算进行确定,将ht-1、xt进行融合后,可得到信号的中间状态ht,具体公式如下:

当rt接近于1 时,该记忆单元可以保留之前的信息,从而解决RNN 中梯度消失的问题。

更新门zt用来描述前一时间中的状态信息被带入至当前状态中的程度,更新门的阈值越大则说明前一时间的状态信息被带入得越多。可通过ht-1、xt来确定前一时间状态保留的比例,具体公式如下所示:

更新门zt还可用来决定ht对ht-1的保留比例,其中间状态ht可表示为:

GRU 的网络结构简单,仅需通过两个门控结构即可完成对控制信息的累积处理,从而有选择性地加入新信息,并遗忘之前累积的冗余信息。

2 MCGNN 网络模型

本文提出的MCGNN 网络由输入层、双流卷积神经网络模块、特征融合层、GRU 网络模块、全连接层和输出层组成,具体网络结构如图4 所示。双流卷积神经网络主要用来提取信号不同尺度下的空间特征,并将其融合形成更强的信号特征。而GRU 网络擅长处理时间相关的数据,用来提取信号的时序特征,包含的互补增益信息可以丰富特征维度,使得网络可以学习到更加全面的信号特征。

图4 MCGNN 网络结构图

本文MCGNN 网络的输入层主要完成对输入数据的收集,输入样本为2×128 大小的IQ 数据矩阵,其中2为信号的同向分量I(t)和正交分量Q(t),128 为分量I、Q的采样点个数。

MCGNN 网络第二部分为双流卷积神经网络模块,该模块由上下两路深度可分离卷积子网络并联构成。其中,上支路由4 层具有不同大小卷积核的深度可分离卷积层串联组成,用来提取不同尺度下的信号特征,4 层网络的卷积核大小依次为1×5、1×3、1×2、1×1,下支路使用4 个卷积核大小为1×1 的深度可分离卷积层进行特征提取,使用相同大小的卷积核能够使模型提取到相似的参数特征,即拥有相同的感受野。另外采用小的卷积核还可以在减少参数数量的同时增加网络的宽度,使MCGNN 网络学习到更深层的特征。两支路并行提取特征,在增加网络宽度的同时还能保证网络运行的效率,避免网络过深造成过拟合现象。

此外,受到残差网络[14]启发,本文还在两个支路上添加“短路连接”从而实现“恒等映射”,这种连接可以保证网络在不降低性能的同时学习到新的有用特征,从而加强了对特征的传递与重用,有助于提高识别准确率。为了加快网络训练和收敛速度,防止出现梯度消失和过拟合等问题,在每层深度可分离卷积后还加入了批量归一化层(Batch Normalization, BN),并使用ReLU 函数作为激活函数。

将双流卷积神经网络模块提取到的特征进行通道维度上的融合,并将融合特征输入至GRU 神经网络,用来充分提取信号的时序特征。GRU 神经网络能够解决长距离依赖问题,当输入的数据特征为时间序列时,能够较好地预测输出特征值。

调制信号经过GRU 网络模块提取特征后,输入至单元数为128、激活函数为ReLU 的全连接层1 中来获得全局特征节点,然后将全局特征节点输入到使用Softmax 函数的全连接层2 中进行分类。Softmax 函数将输出的分类结果转变为每种调制类型的概率值,且输出的概率值和为1。最后输出层将选择概率最大的值作为调制信号最终的识别结果。此外,为了防止算法模型出现过拟合现象,训练时还采用Dropout 技术,每层神经元均以0.5 的概率数量保持原有状态,减少隐藏层之间的相互作用,从而使网络在训练时不会过分依赖局部特征,增强了模型的泛化能力。

3 实验结果

3.1 实验环境与数据集

本文实验环境运行在Linux 系统下,整个网络的搭建基于Python 的Keras 深度学习库,并借助TensorFlow作为后端进行网络训练。采用NVIDIA GeForce RTX 3090 作为GPU,使用CUDA 对GPU 计算进行加速。

本文在RML2016.10a 数据集上进行实验,并将数据集按7∶3 的比例均匀划分为训练集与测试集。该数据集中总共包含了11 种不同调制方式的信号样本,分别为8 类数字调制(BPSK、QPSK、8PSK、CPFSK、GFSK、QAM16、QAM64、PAM4)和3 类模拟调制(WBFM、AM-DSB、AM-SSB),每种调制方式包含20 000 个数据样本。信号数据的信噪比是在-20~18 dB 范围分布,以每2 dB递进,每个信号样本由I、Q 两路信号组成,每路信号的采样点数为128。此外,为了模拟真实环境,数据集中还引入了加性高斯白噪声、中心频移、多径衰落以及脉冲噪声等影响因素。

3.2 不同网络性能分析

为验证所提模型的识别性能,本文使用RML2016.10a 数据集对本文的MCGNN 网络、CLDNN[11]、CNN-LSTM[9]、ResNet[15]、CNN[8]共5 种模型进行了对比实验。其中CLDNN 模型由3 层卷积层、1 层LSTM 层和1 层全连接层串联而成;CNN-LSTM 由3 层卷积层和2 层LSTM 层并联提取特征,并通过全连接层和Softmax 层输出分类结果;ResNet 是在二维卷积神经网络中增加了残差网络结构;CNN 由2 层卷积神经网络构成。5 种模型在RML2016.10a 数据集上的识别曲线和实验结果分别如图5 和表1 所示。由图5 和表1 可见:MCGNN 网络的识别性能最好,在信噪比为-20~18 dB 时,整体识别准确率达到了61.3%,其次是CLDNN、CNN-LSTM、ResNet网络,CNN 网络相对较差。随着信噪比增加,5 种模型的识别正确率均呈现增长趋势,从信噪比为-6 dB 开始,MCGNN 网络的识别正确率始终高于其他模型,在0 dB 以上时,识别准确率可达90.8%,高于同信噪比下其他网络。

表1 5 种模型识别正确率比较 %

图5 RML2016.10a 数据集下不同网络识别正确率比较

如表2 所示为5 种网络的训练参数量。由表2 可知,本文所提出的MCGNN 网络通过使用深度可分离卷积以及参数优化等操作,大幅降低了网络的复杂度,其总参数量为297 741 个,明显少于CNN、ResNet、CLDNN网络。虽然MCGNN 网络的总参数量显著高于CNN-LSTM 网络,但在全信噪比下,其识别正确率比CNN-LSTM 网络高3%。综合来看,MCGNN 总体识别性能仍优于CNN-LSTM 网络。

表2 不同网络的总参数量对比

3.3 MCGNN 网络性能分析

MCGNN 网络对不同调制类型信号的识别正确率曲线如图6 所示。从图6 中可以看出:MCGNN 网络对AM-SSB 调制信号的识别效果最好,在全信噪比下有85%以上的识别正确率;BPSK、QPSK、PAM4、GFSK、CPFSK 调制信号在0 dB 信噪比以上时识别效果良好,识别正确率接近100%;8PSK、AM-DSB、QAM16、QAM64 调制信号在0 dB 信噪比以上时识别正确率在80% 左右;MCGNN 网络对WBFM 调制信号的识别正确率较差,在信噪比0 dB 以上时仅有50%以上的识别正确率。

图6 MCGNN 网络对不同调制信号的识别正确率曲线

11 种调制信号在0 dB 信噪比时的混淆矩阵如图7所示。由图7 可看出,MCGNN 网络对WBFM 和AM-DSB、QAM16 和QAM64、8PSK 和QPSK 这三组调制信号容易造成分类误判情况,最终使得这6 类调制信号的识别正确率下降。

图7 不同调制信号的混淆矩阵(SNR=0 dB)

11 种调制信号在16 dB 信噪比时的混淆矩阵如图8所示。

图8 不同调制信号的混淆矩阵(SNR=16 dB)

从图8 可以看出:随着调制信号信噪比的升高,8PSK 和QPSK 可以被有 效识别;而QAM16 和QAM64 这两类调制信号仍存在分类误判,主要是因为两者信号较为相似;AM-DSB 信号虽然可以被有效识别,但是WBFM 信号仍易被误判为AM-DSB 信号,主要是由于网络在提取时序信息时,提取到两种信号的特征参数较为相近。但从整体上来看,MCGNN 网络对11 种调制信号的识别具有较好的效果。

4 结 语

针对现有调制识别算法中网络模型复杂、识别正确率低等问题,本文设计一种新型的基于通道融合的MCGNN 调制识别算法。通过双流卷积网络提取不同尺度下的空间特征,利用GRU 网络提取信号的时序特征,可以使网络学习到更加全面的信号特征,从而有效地提高网络的识别精度。同时,在模型中添加短路连接,提高了特征传递与重用,使用深度可分离卷积网络代替普通卷积网络,减少了模型参数和计算量。

实验结果表明,所提算法的识别性能优于其他神经网络算法,具有较好的研究价值和应用前景。此外,所提算法在信噪比为-6 dB 以下时识别正确率较低,未来将针对此局限性对信号进行降噪处理,进一步提升算法的识别性能。

猜你喜欢

正确率信噪比卷积
基于3D-Winograd的快速卷积算法设计及FPGA实现
门诊分诊服务态度与正确率对护患关系的影响
基于深度学习的无人机数据链信噪比估计算法
从滤波器理解卷积
低信噪比下LFMCW信号调频参数估计
基于傅里叶域卷积表示的目标跟踪算法
低信噪比下基于Hough变换的前视阵列SAR稀疏三维成像
生意
品管圈活动在提高介入手术安全核查正确率中的应用
生意