APP下载

联邦学习在边缘计算场景中应用研究进展

2021-12-08张依琳陈宇翔

小型微型计算机系统 2021年12期
关键词:参与方边缘联邦

张依琳,陈宇翔,田 晖,王 田

1(华侨大学 计算机科学与技术学院,福建 厦门 361021) 2(华侨大学 厦门市数据安全与区块链技术重点实验室,福建 厦门 361021) 3(北京师范大学 人工智能与未来网络研究院,广东 珠海 519000) 4(北京师范大学-香港浸会大学联合国际学院 人工智能与多模态数据处理广东省重点实验室,广东 珠海 519000) E-mail:cs_tianwang@163.com

1 引 言

随着全球物联网 (Internet of Things,IoT)的高速发展,全球物联网设备激增,专注于IoT、Machine to Machine (M2M)和工业4.0领域的研究机构IoT Analytics在2019年12月发布物联网平台报告:2020年全球活跃的物联网设备数量将达到100亿台,预测2025年将达到220亿台.这些物联网设备收集产生大量数据,为智慧城市、工业物联网、智能家居、车联网等应用场景的发展提供了机会[1].

在传统云计算模式下,物联网设备收集的数据直接传送到云计算中心进行数据处理,再回传到终端物联网设备[2].这样大量的数据上传到云计算中心不仅对网络带宽的要求高,并且高延迟会影响系统工作效率、用户体验,同时会造成资源浪费以及数据传输过程中的隐私安全等诸多问题[3].边缘计算(Edge Computing)作为一种新的计算范式,实际上是云计算的扩展和补充,并不是取代云计算[4,5].为了使移动设备的能力也得到提升,还引入了移动边缘计算作为边缘计算的一个分支[6,7].与传统云计算模式相比,边缘计算在网络边缘提供计算和存储服务,更靠近终端物联网设备,因此能更好地管理设备并且具有低延迟、数据管理成本低、可信度高等特点[8-10].同时,边缘计算也为隐私计算和存储服务提供了平台[11].2018年,工业互联网联盟 (Industrial Internet Consortium,IIC)发布《工业物联网边缘计算介绍》白皮书(1)https://www.iiconsortium.org/pdf/Introduction_to_Edge_Computing_in_IIoT_2018_06_18.pdf,其中总结了将边缘计算应用于物联网,具有改善服务性能、保证数据安全和隐私等重要价值[12].

边缘计算能够为云计算模式中敏感隐私数据提供较好的隐私保护机制,一方面,在边缘端对数据进行预处理,以实现对敏感隐私数据的保护[13];另一个方面,边缘端和云数据中心的接口可以降低隐私泄露的风险[14,15].但是,边缘计算并不是绝对的安全,仍有暴露用户隐私数据的风险,特别是在人工智能和深度学习[16]领域结合应用时仍存在隐私安全难题.除了隐私安全问题之外,在大部门行业中的数据通常都是“小数据”或者质量很差的数据且数据分布较为分散,这样就形成了一个个“数据孤岛”,如何汇集这些“数据孤岛”成为了尖锐难题.

随着公众对隐私问题的日益重视以及日益严格的数据隐私法规,为应对这些挑战,联邦学习(Federated Learning)应运而生.联邦学习具有解决“数据孤岛”和隐私问题的强大能力[17],成为目前人工智能技术领域的研究热点之一.经典联邦学习模型在通信效率和模型性能之间难以权衡,而基于边缘计算的联邦学习模型利用边缘计算的特点可先在边缘服务器上进行边缘聚合和更新.学者研究发现,基于边缘计算的联邦学习三层式(端—边—云)框架模型效率更高,并且在边缘计算场景中利用联邦学习进行模型训练可以解决数据涉及参与方隐私的问题.例如,利用边缘服务器先在边缘层进行边缘聚合可以降低通信成本[18];在构建边缘缓存和计算卸载的系统模型时,训练数据来自不同参与方,利用联邦学习的训练模式可以保护各个参与方的隐私数据.

传统联邦学习在高通信效率和高模型性能之间难以平衡,而边缘计算提供了合适的解决方案.利用边缘计算的优势,可以把更多的计算任务卸载到边缘设备.在服务器全局聚合之前,在边缘节点或者移动设备上增加本地训练迭代次数或更多的计算,使局部模型的精度更高,以减少联邦学习的训练轮数.此外,在训练优化中使用更合理的模型聚合方式或更快速模型收敛的方法,也可以减少通信次数[19].

首先对联邦学习进行概述,根据孤岛数据的分布特点,介绍联邦学习的3种分类.其次,根据现有联邦学习的不足,总结了引入边缘计算的联邦学习模型优势.接着,介绍了目前在边缘聚合、边缘缓存和计算卸载领域应用联邦学习的相关工作并提出联邦学习技术在边缘计算场景中应用的七大未来研究方向,为学者进一步研究指明方向.最后,对本文的工作进行总结.

2 联邦学习概述

大数据时代下,推进了人工智能和深度学习等技术的发展.相关技术利用海量的数据进行训练,从而达到智能化目的.然而,在大多数实际应用中存在数据较少的情况,若使用人工智能技术来解决问题是很困难的[20].例如,在智慧城市中,每个摄像头会收集数据,但从全局监控系统看,每一个摄像头收集的数据十分有限,实际场景需要聚合多个摄像头的数据从而进行数据分析.然而在多个设备来自不同公司的情况下,聚合数据会涉及到隐私数据问题.同样的,在自动驾驶场景下中,每一辆车的行驶数据涉及隐私问题,对于单个车辆的小数据如何汇聚成大数据从而进行模型训练是一项挑战.

在模型训练的时候需要大量数据,而实际应用中数据却是小数据孤岛,当聚合数据孤岛受严格的法律限制和社会道德规范,如何解决问题是一项重大挑战.联邦学习具有保护数据隐私的特点,在符合法律法规和道德要求下成为解决上述问题的新技术.联邦学习是分布式机器学习的一种方法,它不需要共享数据就可以进行协作训练.共同参与训练的设备通过网络通信与边缘服务器共享模型参数,共同训练一个全局模型.联邦学习使边缘计算适用于安全性要求更高的场景,而边缘计算可以优化联邦学习的模型建模,通信传输等.因此,联邦学习可以和边缘计算相结合发挥出更强大的作用.

在联邦学习的实际应用场景中,由于数据的特征以及不同数据孤岛有各自的特点,学者提出将联邦学习分为3类:横向联邦学习、纵向联邦学习、联邦迁移学习.

如图1、图2、图3所示,矩形的宽代表着样本(用户)维度,矩形的长代表着样本(用户)特征维度.

图1 横向联邦学习Fig.1 Horizontalfederatedlearning图2 纵向联邦学习Fig.2 Verticalfederatedlearning图3 联邦迁移学习Fig.3 Federatedtransferlearning

1)横向联邦学习指的是在两个数据集中,用户的特征维度重复较多而用户重叠较少的情况下,把数据集横向切分,并取出两个数据集中特征相同但不全部一样用户的数据进行训练.适用于业务相似但是用户群体不一样的场景,例如两家不同地区的医院可以利用当地某疾病的患病情况及数据进行联合建模,从而对该疾病进行更详细的分析等;

2)纵向联邦学习指的是在两个数据集中,用户重叠较多而其特征维度重复较少的情况下,把数据集纵向切分,并取出两个数据集中用户相同但不全部一样特征的数据进行训练.适用于用户群体基本相似但业务不同的场景,例如银行和电商公司可以根据用户的银行卡流水、评级以及购买记录进行联合建模,从而实现为用户更好地确定等级或推荐商品等功能;

3)联邦迁移学习[21]指的是在两个数据集中,用户维度和用户特征维度重叠都很少.在这种情况使用迁移学习技术[22]克服数据和标签不等问题.例如一些小微企业成立时间短,在信贷业务中存在数据样本少和不全面等问题.因此这些小微企业的信贷风控可以利用大型金融机构训练完成并投入应用的模型,进行迁移学习,提升应用效果.

3 联邦学习模型

在本节对比分析经典联邦学习模型和基于边缘计算的联邦学习模型的异同点和优缺点.在经典联邦学习模型训练过程中,参与者与云服务器需要进行多轮通信才能达到目标的精度,如果在复杂的深度学习模型下,例如:卷积神经网络(Convolutional Neural Networks,CNN)[23],每个更新可能包含数百万个参数,从而导致高昂的通信成本,并且可能导致训练瓶颈[24,25].通过增加参与者设备个数和其计算能力虽然可以提高通信效率,但是引入边缘计算后,基于边缘计算的联邦学习模型利用边缘服务器的临近性可以降低通信成本,减轻云服务器的压力.

3.1 经典模型

在联邦学习经典训练模型中,多个参与方共同参与训练,最终生成服务器模型需要的参数,一般都是假设参与方的数据是真实无恶意的数据[26,27].联邦学习具有以下特点:参与方并没有向其他机构平台直接提供其本地数据,不会泄露用户隐私;每个参与方是小数据,通过模型训练可以有效地解决数据孤岛问题;每个参与方的地位相同,模型随机选取参与方进行每一轮的训练,且参与方最终都能从中受益.

一轮训练过程如图4所示,图4中假设有4个参与方,其中参与方A、B、C参与本轮训练,参与方D此轮没有参与训练.首先,由服务器向参与方分发传送全局模型;其次,参与方先利用加密样本对齐技术确认参与方共有用户,参与方基于其本地数据在其本地进行训练,然后将参数加密后回传给服务器,随后在服务器中通过第3方协作者E进行加密训练,协作者E将公钥发送给A、B、C用于训练过程交换的数据进行加密,A、B、C将参数发给协作者E汇总,由E将参数解密发给A、B、C用于更新各自模型后,服务器将参与方的模型参数进行聚合.

图4 联邦学习经典模型Fig.4 Classical model of federated learning

整个联邦学习的训练过程可以整理为3步:

1)任务初始化:服务器确定训练的目标、参数以及参与训练的终端设备,并将全局模型w0G传给参与方设备;

(1)

3)全局模型聚合和更新:服务器聚合参与方设备上传的模型参数,更新全局模型wt+1G;

(2)

通过不断迭代上述训练过程,直至满足收敛或者终止条件训练结束[28].从联邦学习的经典训练模型中,我们可以发现,训练过程中本地设备通过模型参数与服务器进行通信,从而达到保护隐私保护的目的.

3.2 基于边缘计算的联邦学习模型英文摘要

基于边缘计算的联邦学习模型能够有效地减少通信成本并提高通信效率.在经典联邦学习模型的FedAvg算法[29]中无边缘服务器,直接与云服务器进行通信,全局聚合更新频繁.文献[30]提出在经典训练模型中引入边缘计算,基于边缘计算的联邦学习模型如图5所示.

图5 基于边缘计算的联邦学习模型Fig.5 Model of federated learning based on edge computing

(3)

在终端设备上进行了k2次边缘聚合和更新之后由云服务器进行全局聚合和更新所有边缘服务器模型,则云服务器的全局聚合可以表示为:

(4)

基于边缘计算的联邦学习模型主要特点是:在终端上传参数时,不直接传到云服务器,而是在位于网络边缘、靠近终端设备的边缘服务器上先进行边缘聚合,再上传边缘聚合后的参数至云服务器进行全局模型的聚合与更新.这样可以减少不必要的更新与通信,减少通信成本,提高效率.

为了解决FedAvg算法[29]面临对非独立同分布(non-independent identically,non-IID)客户端数据集进行大量轮次收敛和通信成本的问题,文献[31]在FedAvg算法上结合分布式的Adam优化形式以及压缩技术,利用边缘服务器资源并提出了Communication-efficient FedAvg (CE-FedAvg).作者采用MNIST(2)http://yann.lecun.com/exdb/mnist、CIFAR-10[32]两个数据集并对设备设定不同的IID、non-IID数据进行实验.实验表明,CE-FedAvg在对上传数据进行主动压缩具有更好的鲁棒性,使用Raspberry Pi (Rpi)测试平台进行的实验表明,CE-FedAdam的实时收敛率可达1.7倍.

3.3 小 结

传统的联邦学习模型是基于终端—云的二层式架构,而新颖的基于边缘计算的联邦学习模型是基于终端—边端—云的三层式架构.将二层式架构拓展到三层式架构上,模型收敛性是一个关键问题.与深度学习模型训练相似,模型的收敛性与收敛速率也是判断联邦学习训练效果的重要指标.一般来说,当模型具有较快的收敛速率时,则在训练过程中不仅可以节省参与方参与训练的时间和资源损耗,还可以提高联邦学习的训练效率.当在边缘层先进行边缘聚合,通过减少不必要的更新与通信从而减少终端设备与远程云服务器进行全局聚合更新的通信次数、通信过程中的能量损耗以及降低延迟.目前基于边缘计算的联邦学习模型均通过边缘层进行模型的聚合和更新,未考虑到引入边缘层所带来的边缘设备能耗问题,这也是一个关键问题.

4 联邦学习在边缘计算中应用研究

在上一节介绍了基于边缘计算的联邦学习模型,这种三层式(端—边—云)框架模型可以提高联邦学习的通信效率.另一个值得关注的是,联邦学习由于其自身的特点可以使其在边缘计算场景中得到广泛应用.在本节介绍联邦学习在边缘计算中的边缘聚合、边缘缓存、计算卸载领域的应用.

对于联邦学习模型,通信成本是一个十分关键的因素.为了降低通信成本、减少通信轮次,文献[29]提出两种方法:增加参与方设备数量、增加参与方计算任务(在与云服务器进行全局聚合之前进行更多次数的本地更新)[33].虽然文献[29]提出的FedAvg算法能够减少30倍以上的通信轮次,但其未利用边缘服务器,仍直接与云服务器进行通信,其全局聚合更新还是较为频繁.而通过利用边缘服务器先进行边缘聚合,由于边缘服务器部署位置距离参与方设备较近,可以有效地降低通信成本.

在边缘计算中,边缘层服务器有一定的存储空间并可以提供计算服务.边缘缓存指的是在边缘服务器上缓存某些服务,使得终端设备不需要向远程云端服务器请求服务而向靠近终端设备的边缘服务器请求即可[34].计算卸载是针对终端设备和边缘服务器而言,由于终端设备计算能力有限,将计算任务由边缘服务器执行可以提高整体服务性能和减少延迟[35,36].然而边缘服务器的计算能力和存储空间也是有限的,任务无法全部卸载至边缘端执行,所以将部分任务卸载至远程云端服务器进行计算,其结果将先返回给边缘服务器,最后再回传给终端设备.

然而由于边缘服务器的资源是有限的,故边缘服务器缓存的服务以及终端设备向边缘服务器卸载的任务也是有限的.通过结合时下成熟的人工智能技术,例如深度学习[16]、Q-learning、深度强化学习[37](Deep Reinforcement Learning,DRL)等,能够有效地提高边缘缓存和计算卸载的性能.虽然人工智能技术可以优化边缘计算中边缘缓存和计算卸载方案,但是边缘缓存和计算卸载中的隐私数据问题仍是一项重大挑战.联邦学习的特点是解决数据“孤岛”问题和保护参与方隐私数据,将联邦学习运用在边缘计算上,可以将联邦学习看作是边缘计算的操作系统,并提供协调和安全的学习协议[38].

4.1 边缘聚合

在边缘计算中,引入分布式的机器学习——联邦学习不仅可以解决边缘计算中数据被不同参与方持有造成的数据“孤岛”问题,还可以提高联邦学习模型的通信效率、降低通信成本.

文献[30]提出的分层的联邦学习算法——HierFAVG算法,参与者需要上传的模型参数先在边缘服务器进行边缘聚合,当边缘服务器聚合一定数量模型后,边缘服务器与云服务器进行通信,进行全局模型聚合.HierFAVG算法会减少全局聚合次数,作者的实验表明对于两个全局聚合之间相同数量的本地更新,与FedAvg算法相比,在每个全局聚合之前进行更多中间边缘聚合可以减少通信开销.但是当将HierFAVG算法应用于non-IID数据时,仿真结果表明,在某些情况下,例如,当边缘云服务器散度很大或边缘服务器个数很多时,HierFAVG算法无法收敛到所需的精度水平(90%).HierFAVG算法是在边缘网络上实施联邦学习的有效方法,它通过利用中间边缘服务器的邻近性来降低通信成本,并可以减轻远程云计算中心的负担.

4.2 边缘缓存

现有研究中有许多关于边缘缓存和计算卸载方现有研究中有许多关于边缘缓存和计算卸载方案的算法.例如,文献[39]研究了在边缘计算中密集蜂窝网络中关注较多但研究较少的动态服务缓存问题,提出了一种高效率的在线服务缓存算法(Online seRvice caching for mobile Edge cOmputing,OREO),该算法可以联合优化动态服务缓存和任务卸载两个问题,从而解决服务异构性和耦合问题.而文献[40]介绍了一种隐私感知边缘缓存方案,考虑到边缘云中的资源约束,在边缘服务器上部署用户首选的服务.首先,根据服务请求次数等信息以及其他用户上下文信息(例如年龄和位置)构建用户的偏好模型.但是,由于这可能涉及敏感的个人信息,因此作者提出了一种基于联邦学习的方法来训练偏好模型,同时将用户的数据保留在其个人设备上;然后,提出了一个优化问题,其目标是根据用户的喜好,在不受边缘服务器的存储容量、计算能力以及上行链路、下载带宽约束的情况下,最大限度地提高边缘需求的服务数量.通过使用贪婪算法解决优化问题,添加最改进目标函数的服务,直至满足资源约束的条件为止.

与文献[40]不同,文献[41]使用基于联邦学习的堆叠自动编码器(Stacked Autoencoder,SAE)学习模型——基于联邦学习的主动内容缓存方案(Federated learning based Proactive Content Caching scheme,FPCC)用来预测内容的流行度,从而在保护用户隐私的同时优化边缘缓存服务,如图6所示.

图6 基于联邦学习的堆叠自动编码器模型Fig.6 Edge caching and computational offloading based on Federated learning

在每一轮训练中,用户首先从联邦学习服务器下载全局模型;然后,使用模型的本地数据对模型进行训练和更新;随后将更新的模型上载到联邦学习服务器,并使用联邦平均算法(FedAvg)进行汇总;汇总得到最终的模型;从而进行缓存决策.

通过堆叠自动编码器学习用户的历史请求信息等,利用相似度矩阵表示用户和历史请求文件的相似度.根据相似度矩阵,可以为每个用户确定K个最近的邻居用户,并计算出用户的历史观察列表与邻居用户之间的相似度,将所有用户中相似度最高的文件缓存在边缘服务器中.为了保护用户的隐私,利用联邦学习来学习堆叠自动编码器的参数,而用户不必向联邦学习服务器提供其个人信息或其内容请求历史记录.

4.3 计算卸载

文献[42]提出在优化物联网系统中的计算卸载决策时使用深度强化学习(Deep Reinforcement Learning,DRL),系统模型由物联网终端设备和边缘服务器节点组成,终端设备可以维护带有未处理和未成功处理任务的本地任务队列.这些任务按照先进先出(First In First Out,FIFO)的顺序在终端设备本地处理或卸载到边缘服务器节点进行处理.DRL的智能体(agent)决定将计算任务卸载到边缘服务器或本地执行计算.为了保护用户的隐私,对agent进行训练,用户不需要将本地数据上传到服务器.在每一轮训练中,选择一组随机的物联网终端设备,从边缘服务器下载DRL agent的模型参数;然后使用终端设备本地数据来更新模型参数;最后,将DRL的agent更新参数发送到边缘节点服务器进行模型聚合.仿真结果表明,基于联邦学习的分布式方法可以达到与集中式DRL方法相同的总效用水平.

Wang等人[43]针对边缘场景中的高空气球 (High Altitude Balloons,HABs)网络计算卸载问题展开研究.HABs作为无线基站在空中飞行,其计算能力强于本地终端设备,用户可以选择将部分任务卸载至HABs进行计算.但是由于每个用户的计算任务的数据大小是时变的,所以HABs必须动态调整用户基站关联关系、服务顺序和任务卸载方案从而满足用户的需求.作者提出了基于支持向量机(Support Vector Machine,SVM)的联邦学习算法,确定用户关联,优化每个用户的服务序列和任务分配.仿真实验结果表明,与传统集中式方法相比,该算法的能耗和延迟加权降低16.1%.而文献[44]使用了云—边—端的三层结构,与文献[27]不同的是,将应该由移动设备独立完成的本地模型更新过程进行分割.训练过程中的每次迭代包括了边缘服务器和相对应的边缘设备之间的多次分割训练,以及边缘服务器和全局服务器之间的全局聚合.初始化时,全局服务器会将初始参数发送至边缘服务器,边缘设备从边缘服务器下载模型参数.

以CNN为例,边缘设备只参与需要数据的第一卷积层和池化层,将结果卸载到对应的边缘服务器,作为模型其余层的输入进行训练,最后汇总至全局服务器进行聚合.通过将部分计算任务卸载到边缘服务器,相对于联邦平均算法(FedAvg),可以降低设备的计算成本和全局服务器的通信成本.

4.4 联合边缘缓存和计算卸载

在相关研究中,大部分研究将边缘缓存和计算卸载应用分开考虑,只单独考虑其中一个,通过设计相关算法进行问题求解[45,46].然而事实上边缘缓存和计算卸载结合性能更优,因为边缘服务器不仅可以执行计算任务还有存储功能,可以提供缓存服务的功能.

为了解决边缘计算中的动态和时变环境带来的问题,文献[47]提出了使用通过联邦学习训练的DRL来优化系统中的边缘缓存和计算卸载决策.基于联邦学习的边缘缓存和计算卸载如图7所示,每次训练系统随机选取一批终端设备作为参与者,采用双深度Q-Network (Double Deep Q-Network,DDQN)方法,并基于联邦学习的训练方式,利用终端用户的历史数据进行训练,由DRL的agent决定边缘服务器是否缓存文件,以及缓存时要替换的文件.在服务时,对于已缓存在边缘层的服务,终端设备只需向边缘层发起请求即可,无需向远程云请求服务.针对图7中的计算卸载功能,终端设备可以通过无线信道将计算任务卸载到边缘服务器,也可以选择本地执行;若边缘服务器无法提供相应计算服务,可以将任务卸载至远程云服务器,具体的计算卸载策略由模型训练结果确定.

图7 基于联邦学习的边缘缓存和计算卸载Fig.7 Edge caching and computational offloading based on Federated learning

联邦学习在边缘计算场景中的应用,在表1中做了全面的总结和详细分类.通过调研分析不难发现,联邦学习在边缘缓存和计算卸载中的应用具有重大价值,在保护隐私方面贡献巨大.研究方案在相关研究场景下通过设计算法和模型,再结合联邦学习训练模型,从而发挥联邦学习在整个系统框架中保护隐私数据的作用.目前边缘缓存和计算卸载的相关研究已经成熟,但其中方案大多假设数据可获取且未提及用户隐私问题.然而,在实际应用中,用户隐私数据受保护会导致现有方案不可行或效率低下的难题.将联邦学习应用在边缘缓存和计算卸载的相关研究中成为一个热门可行方案,研究学者们可以在这个方向上创新和突破.目前,这个方向的研究工作比较少但的确是值得深入研究的方向,联合边缘缓存和计算卸载的联邦学习方案也比较少,但联合考虑上述两个问题能够更好地提升边缘计算的服务性能.

表1 联邦学习在边缘计算场景中的应用Table 1 Application of Federated learning in edge computing scene

5 未来研究方向

在上一节介绍了联邦学习在边缘缓存和计算卸载中的应用,但是在边缘计算许多应用方面都存在隐私数据不可获取的难题,本章节提出了联邦学习应用在边缘计算场景中7个重要方向.通过讨论在应用场景下联邦学习的可行性,探讨了联邦学习在边缘计算场景应用中的未来研究方向.

5.1 基于边缘计算的联邦学习模型优化

在3.2节中介绍了基于边缘计算的联邦学习模型的原理以及训练过程,这种基于端—边—云的三层架构模型利用分布式客户端的数据和计算资源不仅可以提高模型性能,还能够降低通信成本、保护用户隐私,同时也减轻了云计算中心的负担.然而,该模型在选择参与方进行每一轮训练时采用的是随机选择方式,这种选择方式可能因为参与方设备的计算资源受限、无线信道条件差等原因导致模型训练遭遇瓶颈.为了解决随机选择参与方设备带来的挑战,Nishio等人[48]提出了一种新的联邦学习协议FedCS,考虑在异构网络中的参与方设备状态,管理异构参与方设备的资源.这样服务器可以在有限的时间框架内聚合更多的参与方设备的更新,提高训练过程的效率.

除了对参加训练的参与方设备进行选择可以优化模型外,模型聚合的方法也能提高模型训练效率.例如,Wang等人[49]提出了减少联邦学习的通信次数的方法,通过识别出参与方的无关更新并组织这些更新上传至服务器,从而减少网络占用、避免不必要的更新操作、提高通信效率.

基于边缘计算的联邦学习模型在通信与训练过程方面仍有较大发展空间,可以通过模型压缩、模型聚合、选择参与方设备等方案提升模型的性能.同时,可以通过设计奖励机制激励设备参与训练激励具有高质量的设备参与训练,从而提高基于边缘计算的联邦学习模型的精度.

5.2 智能卸载方案

尽管引入联邦学习可以提升边缘计算卸载的安全性,但是目前出现的一些研究表明联邦学习仍然存在安全性问题.

文献[51]提出可以通过拦截替换一个或多个边缘设备训练的本地模型,达到破坏全局模型.文献[52]从服务器的角度,提出了多分类任务的生成对抗网络,通过获取指定的设备更新数据,不仅可以推出数据类别,还可以反推出此设备的原始数据.这些研究也说明了尽管数据集没有上传到服务器,但依然存在数据泄露问题.所以智能卸载中的隐私安全依旧是一个研究的方向.目前关于智能卸载的研究都只考虑静态的状态.而实际情况往往复杂许多,这些边缘设备都为移动设备,接入的网络状态大有不同,随时都有可能在卸载的过程中从系统退出,降低系统性能.如何选取合适的设备状态以提高智能卸载过程中的稳定性,这有待进一步研究[53].

人工智能逐渐从云端向边缘端迁移,智能边缘计算由此应运而生.在边缘计算场景中的计算卸载方案研究中应用人工智能技术,将会面临新的问题和挑战:边缘设备的算力日益增强,部分任务在本地花费的时间比卸载到边缘服务器所花费总时长更短,那么在卸载过程中,如何划分任务使得本地设备和边缘服务器所需的运行时长最短?由于设备的异构性,设备所拥有的算力有较大差异,并且每个边缘设备的空闲状态和网络情况也各不相同,能否通过人工智能技术对边缘层进行建模,在上一个问题的基础上,动态挑选计算节点分配任务?这一系列的问题都值得学者进行研究.

5.3 网络攻击检测

当今,物联网发展迅速,网络攻击日益复杂[54],目前基于深度学习的网络攻击检测技术已经成熟,通过结合联邦学习技术可以更好地保护用户隐私数据.文献[55]指出,深度学习技术在KDDcup 1999、NSL-KDD和UNSW-NB15这3个数据集上可以精准的预防攻击,但其精准度主要取决于有大量数据集进行训练.若要获取设备或用户的数据进行训练,则会涉及到隐私数据等情况,从而导致没有足够的数据进行训练,使得基于深度学习技术的网络攻击检测普及受限.通过将联邦学习模型应用在现有模型的训练上,参与者只需下载模型通过上传相关模型参数而不需要提供本地数据就可以参与训练,能够有效地保护用户数据隐私,并且提升预防攻击模型的准确性.

目前还没有将联邦学习应用于基于深度学习的网络攻击检测的研究工作,但是学者们可以利用联邦学习能够保护隐私数据进行分布式训练的特点从而获取多个参与方的数据用于模型训练,可以大大增加用于模型训练的数据量.

另一方面,传统机器学习中会受到对抗性攻击或数据投毒攻击,而这些问题在联邦学习中也同样存在,如何检测攻击并避免被攻击成为一项具有挑战性的任务.如果联邦学习的参与方中存在恶意用户对模型进行攻击,即它有针对性地毒害全局模型,则对联邦学习模型训练而言又是一个新的挑战.Bhagoji等人[56]探索了深度神经网络的多种攻击策略,从有针对性的模型中毒开始,使用恶意代理更新的增强来克服其他代理的影响,并使用隐形指标来检测联邦学习训练回合中带有显示增强的模型投毒目标.

差分隐私是一种灵活的防御数据投毒的方法,无论对手目标是什么其都能够适用,但其缺点是在学习过程中必须注入噪声,而增加的噪声会影响模型的性能.如何有效地解决数据投毒也成为一个关键问题.

5.4 基站用户关联模型

在5G网络中,随着用户的数量和需求的不断增加,用户向基站发射数据流会导致基站收到干扰信息从而影响通信质量,而优化基站用户关联可以解决上述干扰问题.传统优化基站用户关联的方法通常是基于用户数据可用的情况下进行的研究,但是事实上在实际场景中涉及隐私数据会导致数据不可用的问题.

借助联邦学习技术可以有效解决隐私数据,通信带宽和可靠性问题,建立基于联邦学习的基站用户关联模型,获取多方用户数据进行训练,求解最优化模型的解,从而求出用户与基站之间的最优关联关系.随着异构网络的发展,通过基站与用户关联更好地实现网络负载均衡.

5.5 车联网场景中的隐私和安全问题

车联网(The Internet of Vehicles,IoV)作为智慧城市的应用场景之一,它由可以进行数据收集、计算、通信功能的智能车辆构成[57].IoV可以实现导航、自动驾驶、交通控制、智能停车、实时预警道路情况(前方道路拥堵、道路颠簸或结冰)、协调车辆进行变道等功能.由于车辆需要实时与服务器进行频繁的通信,但是远程云服务器距离较远,在这个过程中不仅会带来高延迟的问题还会给云服务器带来巨大的压力.

而边缘计算可以提供实时可靠的车辆连接、通信、安全服务,通过位于网络边缘端的边缘节点提供高效、低延迟的服务质量[58-60].Wang等人[61]针对基于边缘计算的车联网框架,设计了一种基于深度学习的隐私数据采集和预处理方案,通过采用数据增强和标签猜测的半监督学习算法,首先在边缘层进行数据滤波,清除大量相似数据和无关数据.虽然目前基于边缘计算的车联网框架已经逐步成熟,但是车联网中车辆数据仍然会涉及到驾驶员的驾驶路径信息、个人信息等隐私数据.在车联网应用场景中,可以通过采用联邦学习技术,车辆可以在本地设备进行训练再将更新的模型参数上传,从而有效地保护本地隐私数据安全.

5.6 激励设备参与共同训练

边缘计算中存在网络带宽,存储,特别是隐私问题,引入了联邦学习使用边缘设备训练本地数据,上传模型参数,大幅降低网络通信负载和提高了边缘计算的适用场景安全性,但也因为联邦学习中数据不离开本地设备的特点,使得边缘服务器无法收集设备中的数据,以此评估设备做出的贡献给予一定的激励.对于较多数据样本和数据种类的设备,获得与较少数据的设备相同的奖励,必然不会继续参与训练任务.

Zhan等人[62]针对联邦学习奖励问题,设计了一套基于强化学习的联邦激励机制.边缘计算节点通过使用从设备收集的数据来训练本地模型来参与联邦学习.全局服务器致力于最小化总回报,而每个边缘节点最大化全局服务器收到的奖励减去模型训练和数据收集的成本.对于参与者共享其决策情况,参数服务器可以准确地评估其对训练的准确性的共享,根据基于Stackleberg理论的激励机制从而得到纳什均衡.虽然目前已经出现联邦学习的激励机制的研究,但是往往只考虑了数据量和通信损耗作为奖励的参考.当设备进行移动时,边缘设备为了获得更多的奖励,从通信不好的地方转移到好的地方,这一过程也应该考虑,是否在设备主动参与时额外提供一些奖励以此调动边缘设备的积极性,从而提高模型的精确度和加速训练过程.

5.7 感知情境的联邦学习

在边缘设备中,根据使用者地理位置和语言的不同,每天都在产生海量数据,但这些数据又存在差异性.只是将所有数据视为同一类进行聚合训练,生成的模型准确率欠佳.那么如何根据用户的上下文信息进行联邦学习成为了一个新的研究热点.现在设备的进步,手机拥有大量传感器.在设备中,所产生的数据信息可以增加上传感器信息,即用户何时何地的产生了这些数据.以键盘预测下一词为例,考虑了情境这个条件,那么根据不同地区和不同语言进行更加准确的推荐.尽管会产生更多的数据,但是联邦学习恰恰可以保护用户隐私,防止组织获取到原始数据,这对于分地区建立用户更准确的上下文情境信息起到更好的隐私保护.

6 结 论

在高速发展的物联网时代下,边缘计算作为可以提升物联网智能性的计算范式与物联网紧密相连.然而在许多边缘计算场景中,由于物联网设备自身数据涉及隐私,数据隐私问题给物联网智能化发展带来了新的挑战.目前,联邦学习作为一个数据隐私保护且可以解决数据孤岛问题的热门人工智能技术备受关注,通过对联邦学习进行详细概述,并对比分析经典联邦学习模型和基于边缘计算的联邦学习训练模型的优缺点.在边缘计算场景中应用联邦学习技术能够有效解决物联网设备的数据隐私问题.针对联邦学习在边缘计算场景中边缘聚合、边缘缓存和计算卸载的应用研究进行综述,对比分析当前有关研究方案的优缺点.在目前关于联邦学习技术在边缘计算场景应用研究还比较少的情况下,提出了七大重要的未来研究方向供学者们参考.

猜你喜欢

参与方边缘联邦
性能全面升级 音联邦举办CANTON、SVSound新品发布会
信托在供应链金融中的运用研究
基于SNA视角的PPP项目参与方行为风险研究
BT模式研究
一张图看懂边缘计算
绿色农房建设伙伴关系模式初探
在边缘寻找自我
走在边缘
边缘艺术