面向联邦学习的数据交易机制
2022-11-02詹玉峰王家盛夏元清
詹玉峰 王家盛 夏元清
1.北京理工大学自动化学院 北京 100081 2.北京理工大学长三角研究院(嘉兴) 浙江嘉兴 314019
对于人工智能应用,为了获得高质量的推理模型,必须依赖大量的训练数据输入模型供其训练.而当前人工智能的应用除了有限的几个特殊行业,更多领域面临小数据,或者数据质量很差的困境,而且这些数据分散在不同的用户,形成一个个“数据孤岛”,数据之间缺乏有效的互通和协作[1-2].以数字医疗为例,基于深度学习的肿瘤检测已经显示出良好的前景,但需要大量解剖学、病理学等X 光片才能使模型变得广泛有效[3].现实场景下由于这些数据是非常敏感的,并且使用有严格限制,难以获取.数据匿名能一定程度上缓解这种约束,但研究表明,即使删除患者姓名和出生日期等敏感信息,仍然无法有效保护数据隐私[4-5].因而,目前各个用户之间的医疗数据都是独立的,在数据不能互通的情况下,各自的数据来源远远不够,模型性能无法得到显著提升.此外,以多智能车协同控制为代表的集群控制同样面临这样的问题[12-13].智能车需要大量训练样本来提升自主导航能力,单纯依靠自身采集到的数据样本很难完成这一目标.而直接从其他用户采集驾驶数据会面临数据隐私保护的限制.如何破解“数据孤岛”与“数据隐私保护”的两难困境,成为人工智能技术行业应用中亟需解决的问题[6-7].
1 背景与意义
为了摆脱“数据孤岛”困境,加速人工智能在更多行业应用,谷歌提出基于本地协作训练的联邦学习技术[8].这项技术提出后,得到来自斯坦福大学[9-10]、加州大学伯克利分校[11-12]、帝国理工学院[13-14]、清华大学[15]等国内外知名学术机构和谷歌[8,16]、英伟达[17]、脸书[18]、华为[19]、平安科技[20]等国际性大公司的广泛关注,并在智慧医疗[17]、保险[21]以及金融风控[22]等多个领域得到应用[23].2019年,全球最具权威的IT 研究与顾问咨询公司Gartner 预计到2023年联邦学习有望成为边缘设备中最重要的计算任务[24].
联邦学习目的是在满足隐私保护和数据安全的前提下,设计一种新型机器学习框架,使得各用户在不交换数据的情况下进行协作,提升机器学习的性能.其核心是解决由于数据隐私保护导致的数据孤岛问题,通过建立数据“联邦”,从而使得任一用户都能获得所有数据蕴含的知识.
图1展示了联邦学习典型架构以及训练过程.1)用户从云端下载参数服务器维护的最新机器学习模型参数.2)每一用户在本地数据集上训练从参数服务器下载的模型.3)用户执行完本地训练后,将训练好的本地模型上传至参数服务器.4)待收集到所有用户训练好的本地模型,参数服务器执行参数聚合,生成最新的全局模型参数.重复执行1)~4),直到训练出期望的模型.从图1可以看出,联邦学习包含两个主要成员,即参数服务器和数据拥有者(用户).假设参与联邦学习的用户集为,并且每一用户i 的训练数据集为.
图1 联邦学习训练流程Fig.1 The training procedure of federated learning
机器学习通过训练数据来学得模型.以监督学习为例,一个训练样本j 包含两个部分:机器学习模型的输入数据向量xj和机器学习模型的期望输出yj.为了使机器学习方法能够学到好的模型,需要定义一个关于模型参数ω 和训练样本j 的损失函数.损失函数用来表征当前模型输出和期望输出的差距,机器学习的目标就是在现有数据集的基础上最小化损失函数.本文采用来表示机器学习模型在训练样本j 上的损失函数(为了表述方便,下文使用来代替).对于拥有训练集为的用户i 而言,其损失函数可表示为:
联邦学习现有研究成果表明,获得高质量机器学习模型的前提是必须有携带高质量数据的用户持续参与联邦学习训练.毫无疑问,参与联邦学习会带来能耗以及CPU、内存和通信等资源的消耗[8,25-28];同时,数据蕴含着巨大的价值,已成为重要的生产要素和战略资产[29].这些原因使得用户在没有补偿的情况下,参与联邦学习训练的积极性下降.此外,由于数据隐私保护限制,联邦学习无法对用户数据进行有效监管,因此,训练数据质量得不到保证,最终都将破坏联邦学习训练的可持续性.而如何保障联邦学习训练的可持续性是当前联邦学习推广应用所面临的一个关键问题.激励机制驱动的数据交易是解决这一问题的有效途径[30-33],国际上对这方面的研究尚处于起步阶段,对其进行深入研究具有重要意义.面向联邦学习的激励设计不仅包括数据交易,还包括对计算资源[28]和通信资源[33]的激励[34-36].不同于从资源激励的角度考虑问题,本文从数据交易的角度来考虑联邦学习的激励机制设计.在实际联邦学习环境,数据资源更加容易被用户控制.而对于计算资源和通信资源,用户很难进行精确控制.因此,认为研究基于数据交易的联邦学习激励机制更加有实际意义.尽管已经有相关面向联邦学习的研究综述工作[37-40],但是从数据交易角度调研联邦学习激励机制的工作尚未出现.面向数据交易的激励机制设计是保障联邦学习可持续训练的关键方法,是关系到联邦学习能否推广部署的重要环节,因此,对其进行深入研究具有重要的理论和实际应用价值.
2 面向联邦学习的数据交易
为了保障联邦学习的可持续性,IEEE INFOCOM,IEEE ICDCS 等顶级国际会议以及IEEE TMC,IEEE JSAC 等顶级国际期刊已经有相关工作,通过激励机制方法来驱动用户进行数据交易,以此实现这一目标.联邦学习中的激励机制研究最早由国际知名学者杨强在2019年IJCAI 的专题研讨会上提出,后续逐渐有研究者开始涉足这个领域,但是总体而言,这方面的研究还比较少,属于新兴领域.面向联邦学习的数据交易不仅要考虑激励机制设计,同时需要精确地度量每一用户数据对联邦学习模型的贡献.所以,在介绍面向联邦学习的数据交易之前,本节将首先介绍激励机制设计和机器学习中数据贡献度量这两项基础性工作.
2.1 激励机制设计
机制设计被认为是博弈论和社会选择理论的交叉,假定参与者的行为是按照博弈所刻画的方式进行,并且符合社会选择理论对各种情形设定的社会目标,因此,机制设计就是研究构造什么样的博弈形式,使得这个博弈的解最接近那个社会目标.面向联邦学习的数据交易同样是多方互动,任务发布者希望获得最好的机器学习模型同时支付更少的报酬.而对于数据提供者而言,希望获得更多的报酬同时消耗更少的花费.这就需要有一套完善的机制设计方法,通过构造相应的博弈形式,使得每一方都能达到自己的目标.所以,激励机制设计是面向联邦学习的数据交易的基础,现有面向联邦学习的数据交易都是基于激励机制来驱动的.本节将对激励机制在其他领域的研究进行简要介绍,帮助了解激励机制是如何工作的,为下文激励机制在机器学习和联邦学习中的研究做铺垫.
激励机制设计在P2P 网络、无线频谱分配以及群智感知等领域已经被广泛研究.尤其在群智感知领域,是过去几年研究的热点,在ACM MobiCom,IEEE INFOCOM 等顶级国际会议以及IEEE/ACM ToN,IEEE TMC 等顶级国际期刊出现大量前沿研究成果.文献[41]最早将经济领域中的逆向拍卖应用在群智感知激励机制研究中,在最小化支付代价的同时,保证用户的高参与率.Feng 等采用组合拍卖模式来激励参与者,参与者可以根据自己所在位置和感知范围竞价多个感知任务,平台根据参与者竞价情况来选择参与用户[42].Luo 等提出用全支付拍卖的方法来激励用户参与,平台只支付给参与者中贡献最大的竞标者[43].文献[44]提出基于双向拍卖的激励方式,实现基于K匿名的位置隐私保护.文献[45]采用VCG 机制解决在线感知任务的分发.针对以平台为中心的群智感知激励机制设计.文献[46]采用斯坦伯格博弈来最大化任务发布者的效用.Luo 等基于斯坦伯格模型,通过参与者之间的社交关系来实现激励机制设计[47].针对群智感知中多任务发布者之间的竞争接入,以及用户参数动态不可知性,传统的博弈机制无法求出解析解,文献[48]提出基于多智能体策略梯度的强化学习机制设计方法.
2.2 机器学习中数据贡献度量
训练数据的质量将直接影响机器学习训练出来模型的优劣[49].构建机器学习模型的数据往往来自多个实体.如互联网企业分析各种用户数据来改进产品设计,从而获取更高的收入.此外,来自于不同实体的数据质量有很大差异.如图2所示,机器学习系统的利益相关者经常关心的一个关键问题是如何公平地将机器学习模型产生的收益分配给不同数据贡献者.在机器学习中,基于数据贡献的交易机制目前已经有相关研究,但这些工作都是基于数据可监管的集中式机器学习训练模式[50-51].考虑到数据已经成为高附加值商品,因此,必须通过价值估算支付相应报酬,用户才会共享数据.在这里面临最大的挑战是如何对数据的贡献进行公平的度量,目前主流的做法是通过夏普利值来衡量用户数据对模型的贡献[52-60].夏普利值是合作博弈论中分配所有参与者联盟产生的总收益的经典方法,并已成功应用于其他领域,从经济学、反恐、环境科学到机器学习.夏普利值能被广泛采用的一大原因是它定义了一个独特的利润分配方案
图2 数据估值Fig.2 Overview of data valuation
式中,I 代表所有用户,S 代表I 的一个子集,U(·)是效用函数.该方案满足公平性、合理性和分散性等现实世界追求的目标[61].Jia 等首次使用夏普利值来公平度量数据对模型的贡献[52].考虑到夏普利值计算需要不断重复训练次机器学习模型,训练的规模非常大,在现实场景下难以实现,因此,作者提出近似算法,使得夏普利近似值和真实值之间满足:
激励机制设计和数据贡献度量是解决面向联邦学习数据交易的两样基本工具.在介绍完激励机制和机器学习中数据贡献度量,下节将介绍两种面向联邦学习的主流数据交易机制.
2.3 基于数据量的联邦学习数据交易机制
2.3.1 方法综述
机器学习模型的精度和训练数据量存在一定的内在联系[62-63],这也是目前机器学习模型追求大数据集的原因.博弈论是分析联邦学习中多个参与者动机及其行为的有力工具.文献[63]提出了一种基于古诺模型的联邦学习平台激励机制.该平台将分布式深度学习和群智感知相结合,用于移动客户端的大数据分析.联邦学习平台会发布训练任务和相应的奖励.为了最大化自身效用,移动用户会根据收益和自身开销来制定自身最优的参与程度,即参与联邦学习的训练数据量的多少.移动用户之间的关系可以被建模成非合作博弈,因而每一用户的最优参与度即为纳什均衡点.
考虑到文献[63]中激励机制的求解需要每一用户知道其他任意用户的私有信息,而这在实际场景下是很难满足的.因此,Zhan 等将强化学习与博弈论相结合,设计基于强化学习机制的联邦学习数据交易方案[64].为了鼓励用户携带更多的训练数据参与联邦学习任务当中,文献[64]采用斯坦伯格博弈来建模参数服务器与用户之间的交互关系.因为参数服务器与用户之间,用户与用户之间两两都不知道对方的私有信息,所以无法通过解析的方式来求解出参数服务器的最优定价策略以及用户的最优训练数据贡献策略.Zhan 等提出基于深度强化学习的机制设计方法,在联邦学习的每一轮中,参数服务器端的智能体会根据历史信息(参数服务器的定价策略,用户的数据贡献策略,联邦学习的训练性能等)来决策当前这一轮最优定价策略,用户再根据参数服务器的定价策略来确定这一轮最优的数据贡献策略.基于深度强化学习的机制设计方法,参数服务器事先无需知道每一用户的私有信息.强化学习智能体通过不断与用户交互,采集经验数据,并从经验数据中学习内在规律,进而获得最优的策略网络.实验结果表明,通过深度强化学习方法设计的激励机制与传统解析方法设计的激励机制可获得相似的性能.
文献[63-64]中,任务发布者制定价格策略,而用户根据任务发布者的定价来决策使用多少训练数据参与联邦学习.与文献[64]相同,文献[65]中,Feng 等同样使用斯坦伯格博弈来建模激励机制.但不同的是,Feng 等将用户建模成斯坦伯格博弈的领导者并发布定价策略.而任务发布者被建模成斯坦伯格博弈的跟随者,从而根据用户的定价来决策每一用户的训练数据量.其中,任务发布者将模型精度建模成所有用户参与联邦学习数据量的凹函数.
文献[63-65]中激励机制设计基于传统的联邦学习架构,在云端的参数服务器负责聚合用户模型参数并将报酬反馈给用户.而这种架构严重依赖参数服务器的鲁棒性,当参数服务器发生故障将导致整个联邦学习训练失败.区块链由于去中心化的优点,使得其非常适合用于联邦学习的训练保障[66-67].现有研究表明,通过用户本地模型更新量可以反推出用户原始数据[76-77],差分隐私[78]和同态加密[79]技术可以被用来解决这一问题.融合区块链、差分隐私以及同态加密技术能够有效保障联邦学习的安全可信,实现用户数据的隐私保护.Kim 等用区块链代替参数服务器,提出基于区块链的联邦学习架构[68],BlockFL 通过区块链网络实现模型参数共享,并且提供相应报酬给用户.其中,给每一用户的报酬与用户参与联邦学习的数据量成比例.Weng 等设计了基于区块链的多人共同参与深度学习模型训练的协作训练框架[69].Deepchain 用户执行本地训练,并将训练好的本地梯度打包成交易发送到区块链,以此来实现梯度共享.基于此,Deepchain 根据用户处理的数据量和诚实度对其进行奖励,并且确保了激励相容性.Zhang 等根据用户数据量和数据类之间的质心距离来衡量用户对联邦学习的模型贡献,并通过区块链代币来激励用户参与联邦学习[70].
2.3.2 总结
以上为近年来基于数据量的联邦学习数据交易机制的介绍,如表1所示,对相关工作进行了总结比较.文献[63]基于古诺模型建模了数据交易机制;Zhan等用斯坦伯格博弈建模任务发布者和用户之间的数据交易,其中任务发布者为斯坦伯格博弈的领导者,用户为跟随者,并用深度强化学习来设计激励机制[64];Feng 等将用户建模成斯坦伯格博弈的领导者,参数服务器为跟随者,并将训练模型精度建模成用户训练数据总量的凹函数[65].在分析传统联邦学习架构的不足后,Kim 等提出BlockFL 架构,采用区块链网络来共享模型参数,并且每一用户获得的奖励与其参与联邦学习的训练数据量成线性关系[68];Weng 等同样采用区块链网络来共享模型参数,设计基于训练数据量和用户诚实度的报酬分配方案,并且保证了激励相容性[69].Zhang 等采用数据量和数据类之间的质心距离来衡量用户贡献,并基于此分发区块链代币激励用户[70].总体而言,基于数据量的联邦学习数据交易机制是这个领域的早期研究工作,这些工作都建立在用户训练数据对模型的贡献度相同假设条件下.这在实际情况下是很难保证的,如在训练数据质量参差不齐的情况下,每一训练数据对模型的贡献度都将不同,这就导致基于数据量的数据交易机制不能准确评估每一用户对训练模型的贡献,从而导致奖励的分配不公平,影响携带高质量训练数据用户的参与积极性.
表1 基于数据量的联邦学习数据交易机制比较Table 1 Comparation of various data trading mechanism for federated learning based on the data quantity
2.4 基于模型贡献度的联邦学习数据交易机制
2.4.1 方法综述
考虑到实际环境下,用户的数据质量存在差异,单纯地利用数据量来进行交易存在很大的缺陷.如用户A 有M 个训练样本,用户B 有N 个训练样本,其中,M≥N.如果单纯依靠数据量来进行数据交易,用户A 获得的报酬必然高于用户B.但是如果A 的数据质量远远低于用户B,那么用户A 对联邦学习模型训练的贡献并不会高于用户B.这就导致在训练数据质量不均衡的情况下,单纯利用数据量来进行数据交易会带来很大的不公平性,这种不公平性将直接导致携带有高质量训练数据的用户参与联邦学习的积极性下降.
不同于上述工作[63-65,68-70],基于数据量来进行数据交易,为了能够更加公平地在用户之间分配模型训练奖励,Wang 等设计了面向横向联邦学习的缺失法和面向纵向联邦学习的夏普利值法来公平量测用户本地训练模型对联邦学习模型训练贡献的大小[71].Jiao等发现联邦学习训练的模型精度与用户数据量和数据分布有内在联系,从而通过理论分析得出每一用户参与联邦学习对模型精度的贡献.基于理论推导的模型贡献数值表达式,Jiao 等采用拍卖机制建立参数服务器和用户之间的训练交互关系,进而设计基于深度强化学习的激励机制方法[72].
Song 等采用每一轮用户参与对模型精度的提升来度量用户的贡献,并通过夏普利值来实现收益的公平分配[73].Song 等提出一种基于夏普利值的有效指标,称为贡献指数,以此来评价不同用户在联邦学习模型训练中的贡献.为了计算不同用户的贡献指数,需要对不同训练数据集组合的机器学习模型进行训练和评估.因此,这将消耗大量的时间和开销,而这在实际情况下是不可能的.为了克服这个难题,本文通过联邦学习的中间结果在不同训练数据集上的组合近似重构模型,以此来避免额外的训练开销.
Wang 等发现联邦学习中用户对模型的贡献跟用户的参与顺序同样有很大关系,基于此研究了面向用户参与顺序的夏普利值计算方法[74].这种方法不仅保留了标准夏普利值的期望属性,同时可以在不产生额外通信开销的情况下计算夏普利值,并且还能够捕获用户参与顺序对夏普利值的影响.
2.4.2 总结
以上为近年关于模型贡献度的联邦学习数据交易机制的介绍,表2对相关工作进行了总结比较.如何衡量用户本地训练对联邦学习模型训练的贡献是当下关注的一个重要问题,对联邦学习的可持续训练以及安全性都有重要价值[75].Jiao 等首先通过理论分析建模出用户数据对联邦学习模型贡献度的数值表达式,进而采用拍卖理论建模激励机制,并通过深度强化学习的方法来设计激励机制[72].Song 等采用夏普利值来建模用户本地训练对联邦学习模型的贡献,并基于夏普利值设计激励机制[73].Wang 等发现基于夏普利值的激励机制设计与用户参与联邦学习的先后顺序有很大关系,从而设计出基于用户参与顺序的夏普利值求解方法[74].基于模型贡献度的数据交易机制能够公平地在用户间分配收益,从而能够切实激发用户的参与积极性,这将是未来面向联邦学习的数据交易重点研究方向之一.
表2 基于模型贡献度的联邦学习数据交易机制比较Table 2 Comparation of various data trading mechanism for federated learning based on the model contribution
3 未来研究方向
尽管激励机制设计方法已经在其他领域取得重要成果,并在联邦学习领域开始研究,但是在保障联邦学习可持续训练领域的研究并不成熟,仍有一些问题需要进一步探讨,例如:
1)效用模型难构建,激励机制设计问题难分析.联邦学习任务当中,用户之间具有强耦合性,很难区分每个用户的具体贡献;同时联邦学习的性能与用户数据之间的关系更加复杂.因此,相比其他领域,联邦学习中的效用模型更难构建,机制设计问题更难分析.
2)用户数据对联邦学习模型贡献度的建模过于理想,且无法筛选出优质训练数据.现有工作大多假设用户数据对联邦学习模型的贡献只与数据量有关,这与实际的系统不尽相符.尽管已经有基于夏普利值的模型贡献度量方法,但是,如何根据机制设计方法来促使用户在不泄露数据隐私情况下筛选出更加优质的训练数据,具有更加重要的实用价值.
3)现有的激励机制设计方法往往基于某种特定联邦学习算法,这就导致在数据统计异构环境下训练出来的模型精度非常差.如何建立激励机制与联邦学习算法之间的内在联系,通过激励机制驱动用户训练模式,动态调整联邦学习算法是目前相关研究无法解决的问题.基于此,本节探讨了未来面向联邦学习数据交易的3 个可行研究方向.
3.1 数据筛选
为了保障联邦学习训练的可持续性,必须做到模型收益在用户之间的公平分配,否则高质量的用户极有可能离开联邦学习训练.因此,首先要建立用户数据对联邦学习模型训练贡献的评价指标.基于用户对模型贡献的评价指标,再次设计公平的收益分配机制.在联邦学习系统当中,由于隐私保护的限制导致用户数据难以监管使得训练数据质量无法保障.当前已有相关工作通过机器学习理论和区块链技术可以追踪劣质数据用户,进而将其从有效训练用户群中排除[70].但是,对于普通用户由于设备或者专业性问题导致训练数据中存在非人为劣质数据是常见现象,如何分离出普通用户的劣质数据将是一项具有挑战的工作,目前还未有相关工作.以模型贡献收益为反馈,设计有效的劣质数据分离机制,能够有效地筛选出优质训练数据,进而显著提升联邦学习训练模型的质量.
3.2 P2P 模式下的数据交易
面向联邦学习数据交易都是基于参数服务器架构,参数服务器作为任务发布者来激励用户参与模型训练.而在实际情况下,除了参数服务器架构,还存在大量P2P 模式.如多家公司组成一个联合体来完成模型训练,此时,所有参与者既是数据贡献者又是模型获取者.存在的一大问题就是如何解决各参与者的贡献不一致的问题.如大公司拥有大量高质量的训练数据,而小公司不仅数据量少而且质量不高.联邦学习每一轮中,用户动态决策是否加入联邦学习,并将参与用户训练好的模型进行加权聚合形成全局模型.根据文献[74,80]研究表明,可以通过夏普利值来衡量每一参与用户本地模型对加权聚合后的全局模型贡献,结果表明,用户模型贡献不仅与用户的数据相关,而且与用户动态加入的顺序有关.这时候组成的联合体进行模型训练将带来的一大后果是小公司由于获得更优的模型从而占有更大的市场份额,进而对大公司的利益造成损失.这将势必导致大公司不愿意参与其中.如图3所示,为了这种联合体训练能够顺利进行下去,需要设计一种合理的机制.通过对每一参与者的贡献度进行度量,从而使得低贡献用户通过支付相应报酬来获得模型精度上的提升.而携带有高质量训练数据的参与者可以贡献自身模型来获取相应报酬.
图3 P2P 模式下的数据交易Fig.3 An illustration of data trading in P2P
3.3 面向数据统计异构的联邦学习数据交易机制
数据统计异构是联邦学习面临的一大挑战,目前研究表明,在统计异构的情况下,现有联邦学习算法性能将明显下降,所以激励机制设计必须要考虑用户数据统计异构.而现有面向联邦学习的数据交易机制都是基于固定联邦学习算法.为了充分发挥数据的潜在价值,需要对联邦学习算法性能进行建模,研究不同联邦学习训练算法下机器学习模型的性能,进而建立联邦学习算法与激励机制之间的内在联系.最后,通过分析联邦学习算法与激励机制之间的内在联系,设计激励机制驱动用户执行指定的联邦学习算法.如图4所示,通过控制联邦学习每一轮训练用户本地的训练次数可以有效解决数据统计异构问题.此时,可以通过激励机制来驱动联邦学习每一轮训练用户本地训练的次数,从而解决数据统计异构难题,最大化发挥数据的潜在价值.
图4 数据统计异构下的数据交易机制Fig.4 An illustration of data trading in statistical heterogeneity
3.4 面向异步联邦学习的数据交易机制
由于计算和通信异构,联邦学习面临训练难同步的挑战,整个训练过程很容易被落后节点拖累,导致联邦学习训练效率低下,异步联邦学习可以有效缓解这一难题[81-82].不同于同步联邦学习,异步联邦学习中快速节点会多次参与模型聚合,故其训练数据贡献度量测方式与同步联邦学习有很大不同.此外,异步联邦学习考虑到模型收敛性的问题,需要综合考虑快速节点和慢速节点聚合次数之间的差异,这种差异量的控制将直接影响联邦学习训练模型的收敛性.而对用户训练方式的驱动,同样需要设计相应的激励机制,通过激励机制来促使用户按照预计的方式执行训练任务,从而完全异步联邦学习的训练任务.所以在设计面向异步联邦学习的数据交易机制时,不仅要考虑不同用户的数据价值,同样要综合考虑系统的异构性,设计激励机制驱动的异步联邦学习算法,提升联邦学习训练效率.这同样是一个非常有价值的研究方向.
4 结论
联邦学习技术正不断改变人们日常生活,推动社会发展.首先介绍了面向联邦学习数交易的研究背景和意义.进而介绍了激励机制设计方法以及机器学习中如何度量数据对模型的贡献.在此基础之上,分别从数据量和模型贡献度两个角度调研了近3年面向联邦学习的数据交易机制.在分析面向联邦学习的数据交易存在的问题基础之上,最后探讨了未来这个领域3 个可行的研究方向,以期为读者提供进一步的思考与研究.