AI/ML在无线通信系统中物理层的应用
2020-07-14李伦郁光辉
李伦 郁光辉
【摘 要】针对现有通信系统物理层中存在的问题,提出了人工智能(AI)中的机器学习(ML)技术来解决其难题。梳理了AI/ML技术在这些方面的优势与挑战,并给出了有关干扰检测、端到端物理层联合优化等方面的若干典型范例。AI/ML技术的崛起会为下一代通信系统的设计提供一种超越传统理念与性能的可能性。
【关键词】人工智能;机器学习;物理层;干扰检测;端到端联合优化
0 引言
随着近些年现代计算与数据存储技术的迅猛发展,人工智能(Artificial Intelligence, AI)技术也随之广泛地应用于人们的生产生活中,其中最关键的机器学习(Machine Learning, ML)技术也为解决很多无法建立数学模型的难题提供技术支持。因此,研究人员很自然地也希望把AI/ML技术引入到无线通信系统中来解决传统接入网中的技术难题。事实上,无线接入网中有很多地方无法用严格的数学模型加以准确地描述,尤其是在无线接入侧的高层,同时无线接入网每时每刻也会产生海量的数据需要分析,这也大大增加了系统设计的复杂度。当下一代通信6G被定义为超通信时代后,无线接入网的高层又承担了更多业务层面的功能,比如对数据包的分类,识别等,这些功能需求均比较适合AI/ML技术进行处理。
此外,AI/ML的架构和无线接入网的架构也有很多不同的地方,前者是数据驱动的,而后者是时间或事件驱动,因此如何有机地将两者设计在一个框架中也是具有比较大的挑战性。通过上面的分析AI/ML在接入网里主要应用场景在高层,而接入网高层在6G时代可能会出现基于微服务的架构调整,这就为AI/ML功能的嵌入提供了非常好的契机。可以通过对AI/ML的各个环节进行功能抽象,如抽象成数据收集、训练、结果分发等功能,再形成标准API接口融入到无线接入高层的微服务体系中,这样就实现了AI/ML和无线接入的有机结合。
但是AI/ML技术并不是适用于所有的应用场景,它在未来的无线接入网中的使用也需要根据不同的场景进行严谨的设计,要发挥其优势并合理地使用AI/ML技术。经典的AI/ML技术是数据驱动的,它需要通过大量的数据来训练网络,使得网络有能力学习到数据内在的规律,这个特点与无线接入网的底层设计又产生了很多矛盾。无线接入网的底层变化是非常快速的,这种变化通常是毫秒级别的,因此不可能提供充分的训练数据来训练网络,同时无线接入网的底层对实时性要求很高,一般是毫秒级甚至是微秒级的,这种实时性要求也不允许网络进行非常复杂的训练和计算。当然无线接入网的底层也并不都是变化非常快或者实时性要求非常高,比如上下行信道互易特征一般是比较稳定的,再比如有时候干扰也可能是比较稳定的。因此在一些特定场合,AI/ML技术在无线接入网的底层也具有适用性。
常见的AI技术涵盖遗传算法[1]和人工神经网络[2]两大类,其本身是一种普适性的机器学习技术。凡是给定场景涉及到了数据的统计、推断、拟合、优化及聚类,AI均能找到其典型应用。机器学习算法主要包括三个分支:监督学习、非监督学习以及增强学习。
(1)监督学习。在监督学习中,训练数据组分为两部分:输入对象与期望的输出值(也称作标签)。其训练目标是学习输入与标签之间的一种映射关系,并根据习得的映射关系来推断其他输入数据可能的输出值。监督学习中的一种典型范例即为深度神经网络(Deep Neural Networks, DNN),通过先验的训练数据组对人工神经网络中节点间的权重系数进行离线训练直至网络训练收敛。此时,人工神经网络将有能力对新来的未知数据进行判别与推断。
(2)非监督学习。与监督学习不同,非监督学习训练没有标签数据。通过非监督学习,试图找到这些数据中隐藏的结构与内在的数据特征。经典的自动编码器(Autoencoder)结构用到的就是非监督学习方法,网络自主学习输入数据的内部特征,并通过非监督学习算法对网络权重参数进行调整直至在输出端尽可能恢复出输入数据的真实值。
(3)增强学习。增强学习最典型的特征是可在线处理数据,它基于智能实体(Agent)与环境(Environment)之间的动态交互,其关注的是智能实体如何在环境中采取一系列行为,从而获得最大的积累回报。具体来说就是当智能实体感知到环境信息后,会依据自己采取动作(Action)所可能带来的奖赏(Reward)或惩罚(Penalty),确定下一步动作,并进一步观察环境的反馈来决定下一步的动作,循环往复,直至收敛至某一稳态目标。
近年来AI/ML技术方法逐渐成熟,很多领域也都取得了巨大的突破并受到了广泛的关注,这些机器学习的方法也适用于更广泛、更复杂的应用场景,这也为AI/ML在无线接入网中的应用带来了新的机遇。
1 AI/ML技术应用在物理层的机遇与挑战
1.1 AI/ML技术应用在物理层的新机遇
在下一代6G通信系统中,AI/ML技术也将成为系统中不可缺少的一部分,但是目前AI/ML技术应用于无线接入网的物理层中仍处于预研阶段,是否真的可以突破传统方法的性能现在还是一个未知数,但是一些传统方法所无法解决的问题AI/ML技术将为之提供一定的可能性。为此,本节将AI/ML技术如何与未来无线通信系统中物理层的应用相结合的情况划分为以下五个层次,具体分析如下:
(1)AI/ML技术实现特定功能。目前无线通信系统中依然存在一些不太容易解决的问题,比如干扰发现与检测、FDD上下行互易、信道預测等等,这些问题往往由于非线性或者无法准确建立模型而导致的,在使用传统方法时,往往性能表现得并不是很好,然而这些方面机器学习却是比较擅长的。机器学习并不需要预先对问题建立明确的数学模型,而是通过对已有的大量数据进行训练得到相应的训练模型,这样的模型也会更加接近于真实的情况。因此系统可以引入机器学习的方法来代替传统方法解决类似的问题。
(2)AI/ML技术对现有分立模块进行更新。传统通信系统物理层的设计一般都是基于线性模型,因此一旦系统中遇到比较强烈的非线性因素影响,则系统的性能会急剧下降,同时接收侧如果有意引入一些非线性的操作,则系统性能会有所提升。这样的模块非常多,比如编码译码模块、调制解调模块、波形设计、导频设计及信道估计、MIMO检测等,都是通过引入一些非线性的处理算法来提升整体性能。类似地,如果系统中引入非模型的机器学习算法,或许会有一些意外的效果出现。因为常用到的深度学习(Deep Learning, DL)网络已经在图像识别领域展现了强大的非线性处理能力,这也为通信系统物理层应对非线性因素干扰的情况提供了新的解决方案。
(3)AI/ML技术与传统方法的融合。传统通信系統中基于模型的方法虽然有时模型过于理想化,但是毕竟能描述一个过程的主要特征,也可以将其当作一种先验信息。如果在机器学习的设计过程中借鉴一些已有模型的特征,作为额外的信息输入到机器学习中,则很有可能会克服机器学习的一些固有缺陷,如需要庞大的训练数据,欠拟合或者过拟合、收敛速度慢的情况等。
(4)物理层各模块间的联合优化。通信系统物理层的传统设计是分模块分别优化的,这样的设计虽然可以保证每个模块是最优的情况,但是整体上做不到最优。比如编码、调制与波形在传统系统中是分别设计的,一旦把三者综合起来考虑,则往往因为接收端复杂度太高而放弃[3]。但是对于机器学习来说,可以不需要精心地设计各类的编码方案,也不需要仔细思考各种星座图,可以通过神经网络来代替这种模块级联的方式,通过网络自主学习的方式来获取最优的端到端映射方式。物理层中哪些模块之间使用机器学习进行联合优化,这是一个未来值得探讨的方向。
(5)物理层的机器学习结构化。物理层的机器学习本身需要一个结构化的、能被标准化的一个功能实体,因此需要对物理层的机器学习中的各个功能进行抽象,比如抽象为数据收集、训练及分法等各种标准接口,从而可以灵活编排出各种机器学习算法来实现各种物理层功能。
1.2 AI/ML技术应用在物理层的新挑战
AI/ML技术虽然可以打破传统的设计理念,为下一代的通信物理层设计带来新的机遇,但是随之而来的也有新的挑战。
(1)实时性。通信系统的物理层对数据处理发送的实时性要求很高,一般是毫秒级甚至是微秒级的,因此这种实时性要求也不可能允许网络进行充分的训练和复杂的计算。因此机器学习的方法应用至这种实时性要求很高的场景需要慎重思考,实时性的问题也是目前AI/ML技术应用至物理层的主要难题之一。
(2)鲁棒性。通信系统的物理层环境变化很快,很多实际场景下噪声以及干扰的影响也随时间变化很大,这就要求我们使用的AI/ML算法具有鲁棒性,能对多种不同环境下的数据进行正确接收判别,这对网络的训练要求比较严格。训练数据集要尽可能完整,包括不同环境下获得的数据;同时数据不能受噪声污染太严重也不能太过于干净,这样机器学习算法很难习得真正有效部分数据的信息并且对噪声鲁棒。因此,训练好的网络结构要对测试场景鲁棒也是现阶段一大难题。
(3)网络结构设计。当前在图像识别中取得突破的各种神经网络结构都是基于实数设计的,但是在通信物理层中数据的形式却为复数,因此将实数网络应用至复数系统中目前也不是最合适的选择。近几年虽然有研究人员针对复数域问题研究复数神经网络,但是复数网络中的激活函数、损失函数及反向传播算法(Back Propagation, BP)等相比于实数网络有更大的局限性,没有一套标准的理论体系,因此合适的复数网络结构设计也是未来一个重要的研究方向。
2 AI/ML应用至物理层典型范例
本节将具体介绍AI应用于通信物理层的两个典型范例:干扰的检测技术、基于AI的物理层端到端优化设计。
2.1 基于AI/ML的干扰检测技术
在实际场景的数据传输过程中难免会遇到各种噪声以及其他用户数据的干扰,在频谱资源有限的情况,不同系统共享同一频带相互干扰的情景也不可避免。而在军用通信中,传输信号可能遭受敌方恶意干扰。这都可能导致频带的一部分被相对更窄带宽的传输信号所影响,后者将对系统造成窄带干扰。而且有时这些干扰给系统引入了很强的非线性相关性,这种强相关性给传统的接收机处理带来很大的困难,导致性能严重下降并且处理起来会带给系统很大的计算复杂度。相比于传统数学方法,AI/ML算法面对具有内部相关性的信号特征提取有很大的优势,并且也会有意想不到的结果。
文献[4]提出了一种基于复数卷积神经网络(Complex-valued Convolutional Neural Net works, CCNN)的信道干扰检测方法来识别信道中具有强相关性的干扰并帮助线性译码器提升译码性能,具体结构示意图如图1所示。
该方法借鉴了CNN网络在提取图像内部特征方面的优势来提取具有相关性的干扰特征并进行学习,图中两级网络的接收端结构可以尽可能地恢复其原始干扰形式并在接收端将其去除为置信传播(Belief Propagation, BP)译码器提供更干净的接收符号。但是,在物理层传输的符号形式均为复数,传统的CNN网络却是实数网络,其对复数的分离处理会损失一部分的复数相位信息,因此引入了复数的CNN网络来进一步提升对复数符号的学习性能。这种设计的接收端结构可以对更为复杂的干扰形式进行学习,因为第二级网络可以在第一级网络学习后估计的干扰数据基础上进行二次学习,进一步提升干扰估计的准确性并且第二个网络也可以基于第一个网络完成快速训练收敛。虽然这种接收端系统增加了复杂度以及训练的开销,但是训练是在离线阶段完成的,在线测试阶段的时间并不会增加太多,随之带来的译码增益也是相对可观的。图2给出了在10M带宽的OFDM系统中加入2M带宽的高频时域干扰场景下的性能仿真,信噪比在13 dB时两级网络结构已经可以完全正确译码,但是一级网络结构却在15 dB时误块率仅降至0.15,这也远远提升了传统译码器的性能。而且训练好的该系统还对不同相关性的干扰形式具有一定的鲁棒性,比如时域滤波后的相关色噪声等具有一定内部相关性的信号。这也体现了机器学习算法可以对无法准确数学建模的信号提取特征的优点。
虽然机器学习方法给我们带来了更多的干扰检测方法,但是也有一定的局限性。当系统中干扰信号的相关性弱至网络无法学习到内部特征的时候,例如:频域干扰信号的带宽较宽时,时域就会呈现杂乱无章的形式,该方法就會失效。而且我们还需要考虑网络的训练复杂度、网络在不同环境下的鲁棒性等因素,因此还需要深入地研究设计出合理的解决方案。
2.2 基于AI/ML的物理层端到端优化
AI/ML算法在物理层若干模块上成功实现了功能优化,例如文献[5]提出的基于神经网络的调制模式识别,文献[6]提出的DNN极化译码器及文献[7]提出的基于DNN的MIMO检测算法等。但是单个模块的优化并不能保证整个物理层端到端通信的整体优化,而在端到端通信的实现中,多个基于迭代算法的AI模块的拼接反而会带来更高的训练和计算复杂度[8],因此,一种对物理层端到端的联合优化方法需要被进一步研究。
目前,文献[9]提出将物理层通信看成是一个端到端的信号重构问题,引入深度学习中自编码器的方法来表示物理层的通信过程,进行端到端通信的联合优化。自编码器是一种典型的无监督学习方法,其结构是由神经网络组成,通过对输入数据的压缩形式提取特征进行“编码”,并对压缩数据进行重构实现“解码”。在基于自编码器的端到端系统中,主要包含三个模块:发送端、信道与接收端。发送端与接收端是由全连接的DNN网络构成,中间加入AWGN信道层。发送的数据是0、1比特经过One-hot编码之后的符号向量,对应地在接收端连接一个Softmax激活函数层来给出符号向量的概率来判定接收到的信息。为了发送端输出值符合物理约束,发射端网络需要连接一个功率归一化层,具体的结构如图3所示。与传统系统相类似,基于自编码器的系统也是将误比特率(BER)或误块率(BLER)为性能评判标准,以此来判断网络性能的优劣。文献[10]至文献[13]也针对其中自编码器的神经网络层进行新的结构设计来提升译码性能,同时在信道层之间加入衰落信道、MIMO信道等条件来实现更复杂的功能。
基于自编码器设计的端到端系统的优势在于它是一个基于神经网络搭建的端到端信息重构体系,不依赖于任何经典的编码、调制、检测等方法,而是通过信息重构的损失函数来联合优化整个端到端网络。自编码器是一种无监督的学习方法,它可以自主地对输入数据进行学习,而不需要预先建立好准确的数学模型。图4也给出了网络根据大量的输入符号而习得的64点星座图,它是由中心点呈多边形逐层扩散的形式,这也与传统的方形64QAM星座图有很大不同。但是新的星座图同样可以使得网络进行比特恢复,这也为传统调制星座图的设计提供了更多的可能性。同时,该系统也有效避免了多种模块拼接而产生的多层网络所带来的高训练、计算复杂度。
虽然这种基于自编码器的物理层设计达到了整体优化的目的,但是目前的性能结果还不是特别令人满意,相比于成熟的模块级联设计所能达到的性能还有一定差距,而且变化快、实时性高的环境下训练网络的效率需要考虑,训练好的网络对不同测试环境下的鲁棒性也同样是一个难题需要攻破,因此未来AI端到端的物理层优化设计还需要深入研究并逐步完善。
3 结束语
综上所述,AI技术的广泛应用是未来不可阻挡的发展潮流,下一代通信系统也会与AI技术进行更紧密有机地结合,不管在无线接入网的高层还是底层,AI技术都能发挥其优势,为现有传统通信系统中无法有效解决的难题提供新的理念。但是不能盲目乐观,将AI技术应用至未来通信系统也会带来更多新的挑战,尤其在复杂的物理层环境中需要攻克的难题更多,需要深入研究新理论,合理分析技术的适用场景及可行性,充分发挥AI技术的潜力,为下一代通信提供更多的可能性。
参考文献:
[1] WHITLEY D. A genetic algorithm tutorial[J]. Statistics & Computing, 1994,4(2): 65-85.
[2] SCHMIDHUBER J. Deep learning in neural networks: An overview[J]. Neural Netw, 2015,61: 85-117.
[3] S ALI, W SAAD, N RAJATHEVA, et al. 6G White Paper on Machine Learning in Wireless Communication Networks[Z]. 2020.
[4] L LI, G YU, J XU, et al. Channel Decoding Based on Complex-valued Convolutional Neural Networks[C]//2020 2nd 6G Wireless Summit (6G SUMMIT). Levi, Finland, 2020: 1-5.
[5] HONG S, ZHANG Y, WANG Y, et al. Deep Learning based Signal Modulation Identification in OFDM Systems[J]. IEEE Access, 2019: 1.
[6] XU W, WU Z, UENG Y L, et al. Improved polar decoder based on deep learning[C]//2017 IEEE International Workshop on Signal Processing Systems (SiPS). IEEE, 2017.
[7] CHEN Q, ZHANG S, XU S, et al. Efficient MIMO Detection with Imperfect Channel Knowledge - A Deep Learning Approach[C]//2019 IEEE Wireless Communications and Networking Conference (WCNC). IEEE, 2019.
[8] 尤肖虎,张川,谈晓思,等. 基于AI的5G技术——研究方向与范例[J]. 中国科学:信息科学, 2018,48(12): 1589-1602.
[9] OSHEA T, HOYDIS J. An Introduction to Deep Learning for the Physical Layer[J]. IEEE Transactions on Cognitive Communications & Networking, 2017,3(4): 563-575.
[10] N WU, X WANG, B LIN, et al. A CNN-Based End-to-End Learning Framework Toward Intelligent Communication Systems[J]. IEEE Access, 2019,7: 110197-110204.
[11] O'SHEA T J, ERPEK T, CLANCY T C. Physical layer deep learning of encodings for the MIMO fading channel[C]//Allerton Conference on Communication. IEEE, 2018.
[12] ERPEK T, O'SHEA T J, CLANCY T C. Learning a Physical Layer Scheme for the MIMO Interference Channel[C]//2018 IEEE International Conference on Communications (ICC 2018). IEEE, 2018.
[13] JI D J, PARK J, CHO D H. ConvAE: A New Channel Autoencoder Based on Convolutional Layers and Residual Connections[J]. IEEE Communications Letters, 2019(10): 1.
作者简介
李伦(orcid.org/0000-0002-2234-9401):通信工程师,硕士毕业于哈尔滨工业大学,现任职于中兴通讯股份有限公司,主要从事人工智能/机器学习应用至无线通信系统物理层的研究工作。
郁光辉:正高级工程师,博士毕业于北京理工大學,现任中兴通讯股份有限公司无线技术预研总工,主要从事无线移动通信标准预研工作,先后深度参与我国TD-S-CDMA、Wimax、802.16m、802.11系列、LTE、LTE-A、NR等多种3G、B3G、4G、B4G、5G、B5G及6G等无线通信系统的标准预研工作。获得中国专利优秀奖两次,中国专利银奖一次,深圳市科技进步奖两次,深圳市专利奖一次,深圳市地方级领军人物等荣誉称号。