APP下载

众包环境下的隐私保护研究

2018-12-20吴桂兴

计算机技术与发展 2018年12期
关键词:报酬差分工人

刘 欢,吴桂兴

(中国科学技术大学 软件学院,江苏 苏州 215123)

0 引 言

在经济全球化的发展进程中,企业将会面临越来越大的竞争压力。对于那些企业难以单独完成的任务,众包可以聚集海量的互联网用户,使它们通过合作或者独立的方式来完成,同时给予完成者一定的报酬奖励。然而在众包平台的运行中,平台、任务请求者和参与者之间常常需要进行信息交换,如果处理不当,可能会引起用户敏感信息的泄露,从而给用户的信息安全造成意想不到的伤害。

为了解决这一问题,人们相继提出了多种隐私保护模型,如k-anonymity[1]、(a,k)-anonymity[2]和l-diversity[3]等。但是这些模型在面对一些新型的、有针对性的攻击手段时还需要对自身进行不断改进,才能继续提供安全保障。而且,这些模型也没有对其处理结果的隐私保护水平进行定量分析,即当模型的参数发生变化时,无从得知其隐私保护水平的变化情况。差分隐私(differential privacy,DP)的出现则完美解决了上述担忧。所以差分隐私一经推出便讯速得到了学术界的认可,并被广泛应用到了其他领域,产生了一系列新成果。

一方面,对众包的定义、工作流程以及差分隐私的数学定义和保护水平评价标准进行了介绍;另一方面,还对不同众包应用场景下,如何使用差分隐私保护参与者个人数据的安全,以及该技术路线如何实现等进行了阐述。接着在这两方面的基础上,对不同众包场景下差分隐私的应用情况进行了总结,寻找改进空间,并指出了未来的研究方向。

1 众包的基本定义和工作流程

1.1 基本定义

2006年6月,美国杂志《连线》的记者Jeff Howe提出了众包的概念[4]。

定义1(众包):众包是一种公开面向互联网大众的分布式的问题解决机制,它通过整合计算机和互联网上未知的大众来完成计算机难以单独完成的任务[5]。

1.2 工作流程

一般来说,在众包应用中通常存在两种角色:任务请求人(requester)和工人(worker)。

当任务请求人需要通过众包来完成自己的任务时,他可以执行以下操作:设计任务;将任务发布到众包平台上;接收/拒绝工人的答案;整合工人们提交的答案,获得最终的结果。而工人则需要执行以下步骤:选择自己感兴趣的任务;接受任务;执行任务;提交答案。根据每个步骤执行时间的先后顺序,可以将众包的工作流程大致分成为三个阶段:任务准备、任务执行以及整合答案。

2 差分隐私

2.1 基本定义

2006年,为了解决统计数据库领域内的隐私泄露问题,Dwork提出了一种全新的隐私定义[6]。

定义2(差分隐私):设有一随机算法M,M所有可能产生的结果组成的集合为PM,SM则是PM的子集,D和D'是两个邻近数据集。那么对于任意的D、D'和SM,如果有Pr[M(D)∈SM]≤exp(ε)×Pr[M(D')∈SM],则称算法M提供ε-差分隐私保护,其中参数ε被称为隐私保护预算。一般来说,ε越小,意味着隐私保护水平越高。

在文献[7]中,通过对输出结果进行随机化处理,算法M对隐私提供了保护。与此同时,参数ε保证了当数据集中某一个记录发生变化时,算法输出相同结果的概率差被控制在一个极小的范围内,而这个范围是可以被数据所有者接受的。

2.2 实现机制

差分隐私的实现机制主要有Laplace机制(Laplace mechanism)[8]和指数机制(exponential mechanism)[9]。其中,Laplace机制是对数值型结果进行保护,而指数机制则是对非数值型结果提供保护。

2.2.1 Laplace机制

定义3(Laplace机制):对于给定的数据集D,假设有函数f:D→Rd,它的敏感度为Δf,则随机算法M(D)=f(D)+Y提供ε水平的差分隐私保护。其中,Y~Lap(Δf/ε)是随机噪声,并且服从尺度参数为Δf/ε的Laplace分布。其中ε越小,说明引入的噪声越大。

2.2.2 指数机制

在很多应用情况下,查询结果并不仅仅只是数值型的,也可能会是实体对象型的(比如一种方案或选择),所以,McSherry等提出了指数机制。

设Range是查询函数的输出域,对于任意r∈Range,均为实体对象。在指数机制中,输出值r的可用性函数可表示为q(D,r)→R,可以用来对r的优劣程度进行评估。

定义4(指数机制):记数据集D为随机算法M的输入,实体对象r∈Range为其输出,q(D,r)为可用性函数,Δq作为函数q(D,r)的敏感度。如果算法M以正比于exp(εq(D,r)/(2Δq))的概率从Range中选择并输出r,那么称算法M提供ε水平的差分隐私保护。

3 差分隐私在保护用户提供的数据中的应用

文献[10]提出了一个和以前的研究不同的模式,即假设数据收集者是不可信任的。这样一来,目标群体就可以完全掌控自己的数据隐私,只提交一个经过隐私处理的版本给数据收集者即可。同时,数据收集者也不再负有保护这些隐私数据的责任,消除了隐私泄露带来的风险。

3.1 基本设定

如图1所示,假设数据收集者最后想了解的信息是一个二进制随机变量W的状态,同时每个个体都对W有一个信号Si,即隐私数据。由于知识水平的限制,每个个体的隐私数据Si和W的真实数据之间相等的概率为θ,θ的范围一般为0.5≤θ≤1。为了保护隐私,每个个体只向数据收集者报告一个经过隐私处理的版本Xi。当使用差分隐私方法生成Si时,产生的隐私损失是ε,个体的隐私损失成本是ε的函数,而ε水平隐私数据的价值则被记作V(ε)。

图1 模型的信息结构

文献针对V(ε)提出并证明了其下界和上界,还阐明了这些界限在报酬准确性问题里的应用,即数据收集者在保证W的准确性目标的情况下,如何最小化总报酬。

3.2 V(ε)的下界

首先,定义了V(ε)的一个下界:

(1)

其中,g'是个体隐私花费函数的一个变形。

经过证明,对任意ε>0,都有ε水平的隐私价值V(ε)≥VLB(ε)。

3.3 V(ε)的上界

为了方便,定义了:

(2)

其中,对任意ε>0,都有d>0。

接着,给出了V(ε)的上界:V(ε)≤VLB(ε)+O(e-Nd),其中N→∞。同样,文献给出了证明。

3.4 报酬-准确性问题

在得到上面关于隐私价值函数V(ε)的上下界之后,还可以将其应用到报酬-准确性问题中去。

在给出准确性目标τ之后,可以用F(τ)来表示为了实现τ而要付出的最小总报酬。因为已经有了隐私价值函数V(ε)的上下界,所以也能轻易得出F(τ)的上下界。

4 差分隐私在保护用户位置中的应用

在传统的移动群智应用中,有些任务是需要工人到达指定地点才能完成的,因此,为了实现最优的任务分配,比如使工人的移动距离最小化,平台往往需要事先知晓工人们的准确位置。但是位置信息是工人们的个人隐私,暴露给平台会引起人们的安全担忧,同时,并不是每个工人最终都会被分配任务,这样他们的位置隐私也就白白泄露了。如何在任务分配的过程中既注意保护工人们的位置隐私,又能使目标函数实现最优化就成为一个需要解决的难题。

文献[11]针对这个问题提出了一个解决框架,在此框架下,允许工人们将自己的位置信息模糊化之后再提供给众包平台。这样一来不仅满足了差分隐私,而且不用牵涉到任何第三方。接下来,将依次介绍该框架的工作流程、差分隐私保护、目标函数以及实验结果。

4.1 工作流程

该平台运行过程包含三个步骤:平台端生成地理位置模糊函数;用户端对位置信息进行模糊化;平台端分析模糊结果,并进行任务分配。

4.2 差分隐私保护

差分隐私是由Andres等介绍到位置保护中去的[12]。其中,最为重要的就是模糊位置信息的概率函数P,它的基本思想是:对于模糊后的位置l*,将任意两个位置l1、l2映射到l*的概率都是相同的。这样一来,即使攻击者知道了模糊函数P,并且观察到一个工人u处于位置l*,也无法分辨出他的真实位置到底是l1还是l2,从而实现了保护工人位置隐私的目标。

定义5(差分隐私):假设目标区域包含一个位置集合L,那么当且仅当对∀l1,l2,l*∈L,都有P(l*|l1)≤eεd(l1,l2)P(l*|l2)成立时,称概率函数P满足差分隐私保护。其中,P(l*|l)是将l模糊到l*的概率,d(l1,l2)是l1、l2之间的距离,ε是隐私预算(ε越小,表示隐私保护水平越高)。

4.3 目标函数

这部分将主要介绍的是位置模糊函数的求解和任务分配。

4.3.1 位置模糊函数

简单来说,在生成位置模糊函数P时,需要考虑的问题是:(1)使被选工人的移动距离最小化;(2)P同时满足差分隐私。

在把位于lt的一个任务分配给位于l*(模糊化后的位置)的工人之后,该工人预期需要移动的距离是:

(3)

假设x(l*,lt)是把位于lt的任务分配给位于l*的工人的任务数量,那么就可以得出所有被选工人总的移动距离:

(4)

4.3.2 任务分配

在工人们将自己模糊化后的位置信息上传到平台之后,接着就需要进行任务分配了,也就是求出x。

(5)

其中,Nc(l*)是处于位置l*的实际工人数量。

接下来则可以使用Benders分解[13]和遗传算法(genetic algorithm,GA)[14]对问题进行求解。

4.4 实验结果

文献[11]既在模拟数据集上,又在真实数据集D4D上进行了实验。从实验结果可以看出,在各种参数设定下,该文献算法的效果都要优于对比算法。

5 差分隐私在保护用户出价中的应用

文献[15]提出了一种差分隐私化的激励机制,以保护工人们的出价隐私。接下来,将详细介绍该机制的实现过程。

5.1 工作流程

(1)众包平台首先向工人们公布任务集合T;

(2)在拍卖阶段,工人需要向平台提交他的出价信息bi=(Γi,ρi)。其中,Γi是工人感兴趣的任务集合,ρi是他执行这些任务的出价;

(3)根据工人们的出价信息,众包平台最终决定任务的分配,以及最终给工人们的报酬pi;

(4)当被分配到任务的工人执行完以后,需要将结果反馈给平台,平台对所有的结果进行处理整合,得到最终的任务结果,并付给工人报酬。

5.2 hSRC Auction

5.3 差分隐私保护

文献将提出的hSRC拍卖机制看作将出价信息b映射到报酬P的函数M(·),当且仅当M满足如下条件时,称M是符合ε-差分隐私的:

Pr[M(b)∈A]≤exp(ε)Pr[M(b')∈A]

其中,A是报酬集合;b和b'是只相差一个出价的出价集合;ε称为隐私预算,其值越小,表示隐私保护水平越高。

这样一来,当某个工人的出价集合b发生变化时,其最后对应的报酬集合并不会发生明显的变化,从而确保了某些好奇的工人无法从报酬集合上推断出该工人的出价信息,就实现了保护工人出价隐私的目标。

5.4 机制设计

在付给工人酬劳时,将使平台要支付的总酬劳最小化称为TPM(total payment minimization)问题。同时,文献证明了TPM是NP难问题。所以,无法在多项式时间内计算出使总酬劳最小的那个任务分配集。针对这种情况,文献设计了一种机制DP-hSRC,能在多项式时间内得到一定比率的近似最优总酬劳,而且还考虑了保护工人出价隐私的目标。而且证明,该机制满足ε-差分隐私保护、近似真实性和个体合理性等性质,时间复杂度被控制在了O(N2*K)。

5.5 实验结果

5.5.1 对比算法

Optimal:最优总报酬。

Baseline Auction:实现方法略有不同的对比算法。

5.5.2 实验参数设定

实验设置了四种不同的参数设定,正如表1所示[15]。

5.5.3 实验结果

最终的实验结果表明,提出的机制DP-hSRC在总酬劳上已经很接近最优算法,同时效果也比Baseline Auction好很多。

表1 仿真参数设定

6 结束语

由于众包的工作流程牵涉到任务准备、任务执行和答案整合等一系列步骤,期间众包平台和参与者之间也需要进行多次的信息交换,所以有很多方面需要对参与者的隐私数据进行保护,也就是在应用场景方面还有很大的拓展空间。另一方面,在保护参与者隐私数据的同时,如何使系统的总体收益更加优化,也是一个可以开展的方向,比如在保护用户位置隐私的场景下,系统的总体目标函数还可以是传感数据质量最大化,也可以是总花费最小,也可以是工人的总体移动距离最小。

经过数年的发展,众包机制已经有了长足的进步,对参与者的隐私数据也有了相当的保护,但是仍然没有到达成熟的地步,所以未来还有大量的实际应用开发和优化工作有待完成。

猜你喜欢

报酬差分工人
RLW-KdV方程的紧致有限差分格式
符合差分隐私的流数据统计直方图发布
职场不公平,所有人都变懒
基于差分隐私的数据匿名化隐私保护方法
医生的最佳报酬
基层关工人的梦
《使用文字作品支付报酬办法》发布
一名关工人的中国梦
相对差分单项测距△DOR
新闻浮世绘