基于ResNet的大型智能表面在毫米波系统中的应用*
2021-02-26齐月月钱盼盼居金娟
齐月月,孙 强,2,钱盼盼,居金娟,周 晖,徐 晨
(1.南通大学 信息科学技术学院,江苏 南通 226019;2.南通先进通信技术研究院有限公司,江苏 南通 226019;3.南通职业大学 电子信息工程系,江苏 南通 226007)
0 引 言
随着5G通信网络商业化[1-2],大规模多输入多输出(Multiple-Input Multiple-Output,MIMO)和毫米波结合传输带来了巨大的能源消耗和硬件复杂度[3]。在最近开始探索的下一代(6G)通信技术[4]中,大型智能表面(Large Intelligent Surface,LIS)以其低成本、低硬件复杂度,以及易改变无线传播环境的特性而备受学术界和工业界的关注[5-7]。LIS是一种具有电磁特性的二维表面,由大量的超材料[8]制成的无源可重构反射单元组成。这些单元通过控制相位、幅度、频率甚至极化与入射信号进行交互[9],以提高无线通信系统的覆盖率和速率。现有研究多集中在相移的调节方面[10-11],LIS的每个反射单元都可以通过外部编程控制,在基站端进行实时调节相位。
LIS协助无线通信时,通过调控LIS反射波束改变传输环境。目前工作[12-14]假设LIS与用户和基站之间完美的级联信道状态信息(Channel State Information,CSI)已知时,设计LIS反射波束。但是,获得级联信道状态信息是LIS系统最严峻的挑战之一。关于LIS系统的信道估计,文献[15]将最小二乘法用于估计正交频分复用(Orthogonal Frequency Division Multiplexing,OFDM)系统中直接链路和反射链路的联合信道会产生大量导频训练开销。文献[16]利用MIMO信道的低秩特性,提出一种基于稀疏矩阵因式分解的级联信道估计方法,可以降低导频训练开销。然而,该方法采用LIS开关变换模式会增加硬件复杂度和功耗。文献[17]提出一种基于多层感知器神经网络(Multi-Layer Perceptron Network,MLP)的信道估计和反射波束设计联合优化方案,该方案既降低了训练开销和硬件复杂度,又提高了能量效率。但是,MLP神经网络的隐含层的层与层之间都是全连接的,即第i层的任意一个神经元与第i+1层的任意一个神经元相连接,当LIS部署天线规模增大,神经元和层数变多,随之而来的是梯度消失、梯度爆炸以及更高的计算复杂度问题,进而导致LIS系统性能降低。
本文提出一种基于残差神经网络(Residual Neural Network,ResNet)的LIS协助毫米波系统的反射波束解决方案。首先,LIS框架采用大量无源和少量有源元件混合组成,其中有源元件连接基带的RF链用来估计有源元件的信道。在此基础上,将ResNet的残差单元进行改进,重新设置残差单元数量和残差单元结构。然后,通过离线学习少量有源元件信道与反射波束之间的映射关系,预测出最佳反射波束去传输信号。仿真分析了数据集大小、LIS天线数量、有源元件个数、信道路径数量对ResNet神经网络的影响,结果表明,本文采用ResNet神经网络能更加高效、快速、准确地找出最佳反射波束,逼近最高可实现速率。
1 系统模型及问题表述
1.1 系统模型
图1 混合LIS协助毫米波系统通信模型
本文考虑具有K个子载波OFDM系统,定义hB,k,hU,k∈N×1为第k个子载波上的从基站和用户分别到LIS的上行链路信道向量。根据信道互易性,下行链路信道向量分别定义为和符号H表示共轭转置。从基站到LIS上行链路信道向量hB,k有L条路径,每条路径l都会产生一条时延tl、一个复系数gl、还有到达的方位角θl∈[0,2π)和仰角φl∈[0,2π)。ρB表示基站和LIS之间的路径损耗,D、d表示信道延迟,p(t)表示在t秒时评估T间隔信号的脉冲整形函数。第k个子载波的频域信道向量hB,k可表示为[18]
(1)
式中:a(θl,φl)∈N×1表示到达LIS方位角θl和仰角φl的阵列响应向量,同理表示hU,k。考虑到莱斯块衰落信道模型,所以假设hB,k和hU,k在信道相干时间上保持恒定,信道相干时间取决于用户的移动性和无线环境的动态性。然后,定义和为在第k个子载波上的从基站和用户到M个有源元件的信道向量,称作上行采样信道,由用户和基站发送上行导频信号就可以获取。表示为
(2)
(hU,k⊙hB,k)Hφxk+nk。
(3)
1.2 问题表述
本文通过LIS布设的有源元件获取少量的CSI去设计最佳反射波束向量φ,使得用户端的可实现速率最大。上述LIS系统和信道模型可实现速率表示为
(4)
(5)
(6)
2 基于ResNet的LIS系统反射波束向量设计
2.1 基于ResNet的LIS系统架构
本文提出基于ResNet网络去设计LIS系统反射波束向量。首先,LIS采用级联采样信道向量和可实现速率向量构建的数据集预先对该网络进行离线训练;然后,将重新估计的级联采样信道输入训练好的网络模型在线预测最佳反射波束向量及相应的最高可实现速率。基于ResNet神经网络的LIS系统分为训练阶段和预测阶段两个阶段。
2.1.1 训练阶段
(1)采样信道估计
(2)波束训练
在这一步,LIS使用预先定义的反射码本C进行穷举波束训练,遍历每个反射波束向量φn(n=1,2,…,|C|),并接收来自用户端反馈的可实现速率Rn(s),定义
在每个相干块s的可实现速率表示为
(3)数据集构建
(4)ResNet模型训练
2.1.2 预测阶段
LIS利用训练好的ResNet神经网络模型直接输入采样信道向量来预测最佳反射波束,该段对每个信道相干块执行以下步骤:
(1)采样信道估计。与训练阶段的第一步相同。
(3)数据传输。通过ResNet神经模型预测最佳反射波束向量,然后利用其相应预测的最高可实现速率去反射传输数据(信号)。
2.2 数据预处理
使用数据集D进行训练和预测时,为了让学习过程更加平稳和快速收敛,需要对原数据进行预处理操作。
(1)输入数据
输入的采样信道进行归一化处理,即所有样本除以输入样本中的最大值,可以表示为
(7)
这种归一化的方法可以保留采样信道的编码距离信息。由于深度学习主要使用实值进行计算,为了不丢失采样信道中虚部的值,将输入数据实部和虚部的值分开,然后将构建成一个M×K×2三维实值输入矩阵。
(2)目标数据
ResNet模型采用监督学习方法进行训练,输入数据伴随着其目标响应。其中,目标响应是实值速率向量R(s),为了和输入数据保持同样的训练效率,每个向量R(s)使用最大速率值max[R(s)]n进行归一化,以防止网络模型对某些强响应产生偏差。
2.3 ResNet网络模型
ResNet网络由何凯明等[19]提出,在信道估计和信道反馈方面已得到广泛的应用[20-21],通过忽略输入和目标之间的共同信息,集中去学习从输入到残差(输入与目标之间的差异)的映射,从而降低学习难度,提高学习效率。另外,增加全等映射层来解决随着网络深度增加而产生的梯度消失、网络退化等问题。本文提出的ResNet网络模型由2个残差单元和2层全连接层组成,如图2所示。
图2 ResNet的神经网络模型
ResNet网络结构如下:
(1)输入层
输入层是整个神经网络的信息接入口,本文中每一个输入数据都是经过预处理的三维采样信道矩阵。
(2)残差单元
如图2所示,每一个残差单元包含三层卷积核为3×3、步长为1的卷积层(Convolutional Layer,Conv)。卷积层的的特征维度分别为64、32、2,最后一层的特征维度和输入层相同,使用按0填充,将三个卷积层的输出尺寸设置为与输入采样信道相同。卷积层之后都引入批量归一化(Batch Normalization,BN)层和激活函数层,批量归一化层通过减少内部协变量偏移,加快网络的收敛速度。采用带泄露修正线性单元激活函数(Leaky Rectified Linear Unit,LeakyReLU),其中参数α设置为0.01,LeakyReLU是ReLU激活函数的变体,解决ReLU激活函数进入负区间不学习的问题。
(3)全连接层和输出层
两层全连接层分别有|C|/2和|C|个神经元,每一个全连接层后都有概率为0.5的Dropout函数,最后输出层是回归层。
ResNet网络改进的残差单元有两个优点:首先,大多数ResNet网络都包含池化层,这是一种下采样的形式,不同于传统方式,本文的残差单元输出尺寸与采样信道矩阵大小相同,目的是细化而不是降维;其次,残差单元中的快捷连接(Shortcut Connections,ShortCut)直接将数据传递到后面的层,避免了多重非线性堆积引起的梯度消失问题。图3对比了ResNet神经网络在不同残差单元下的性能,其中,LIS设置为64×64(N=4 096) 根天线的均匀平面阵,信道路径数设置为1,有源元件数目设置为8。实验结果表明,ResNet网络设置2个残差单元时具有良好的性能,进一步增加残差单元并不能显著提高学习效果,而且增加了计算的复杂度。
图3 残差单元对ResNet神经网络的影响
由于预测的最佳反射波束向量φn*具有最高可实现速率Rn*,所以选择回归损失函数对模型进行训练,损失函数f(θ)表示为
(8)
3 仿真分析
3.1 仿真参数设置
本文采用Matlab2018b在具有单个GPU和64位操作系统的环境中完成仿真。通过DeepMIMO数据集来生成基于室外光线跟踪场景“O1”的信道[23],其中,在光线跟踪场景中,基站和用户使用全向或准全向天线,还有3号基站为LIS。表1总结了DeepMIMO数据集参数。产生的数据集有36 200个数据点,将数据集分成两组,即训练集和测试集,分别占85%和15%。为了评估解决方案在毫米波场景下的性能,设置载波频率为28 GHz,表2为ResNet和MLP神经网络参数对比。
表1 DeepMIMO 数据集
表2 ResNet和MLP神经网络参数
3.2 仿真结果
图4对比了ResNet和MLP神经网络在LIS部署不同天线数时的性能,LIS采用均匀平面阵,分别设置为32×32(N=1 024)和64×64(N=4 096)根天线,其中有源元件设置为8个,信道路径数为1。由图4可得,ResNet网络在数据集为10 000时,已经逼近于完美CSI下最高可实现速率,而MLP需要数据集为30 000时才能实现,ResNet和MLP相应的训练时间和预测时间如表3所示,其中,ResNet的训练时间和预测时间都低于MLP。随着LIS天线数量的增大,MLP网络的可实现速率收敛速度明显降低,而ResNet网络只需要获取少量的数据集进行训练就可以准确找出最佳反射波束,快速逼近其最高可实现速率,减少了训练开销,提高了训练效率。
图4 LIS的天线数量对ResNet和MLP神经网络的影响
表3 ResNet和MLP训练和预测时间对比
图5给出了有源元件数量对ResNet神经网络和MLP神经网络的影响,其中,LIS设置为64×64(N=4 096) 根天线的均匀平面阵,信道路径数设置为1,有源元件数目分别设置为2、4、8。由仿真曲线可知,LIS采用相同有源元件时,ResNet神经网络可实现速率优于MLP神经网络,采用不同有源元件时,ResNet神经网络只需要4个有源元件已经可以逼近完美CSI下的最高可实现速率,而MLP神经网络需要8个有源元件才能实现。对比MLP神经网络,ResNet神经网络只需要更少的有源元件便可以逼近最高可实现速率,大幅度提高了LIS系统的能量效率。
图5 有源元件对ResNet和MLP神经网络影响
图6给出了信道路径对ResNet神经网络和MLP神经网络的影响,LIS设置为64×64(N=4 096) 根天线的均匀平面阵,其中,有源元件设置为4个,信道路径数分别设置为1、2、5。从图中可以看出,随着信道路径增加,信道变得更加丰富,ResNet神经网络的可实现速率并没有下降,相比MLP神经网络表现出更强的鲁棒性,适用于不同径数的信道模型。
图6 信道路径对ResNet和MLP神经网络影响
4 结 论
本文研究了LIS协助毫米波系统中联合信道估计和反射波束设计问题,通过混合LIS框架中少量的有源元件估计出采样信道向量;然后,基于ResNet神经网络模型去学习采样信道向量和反射波束向量的映射关系,预测最佳反射波束及其相应的最高可实现速率;最后,采用最佳反射波束传输数据。实验结果表明,本文提出的ResNet神经网络对于信道路径增加表现出更强的鲁棒性,而且只需要少量的数据集和有源元件就能快速准确找出最佳反射波束向量,逼近完美CSI的最高可实现速率,进一步降低了LIS系统的训练开销。