APP下载

互联网经济平台隐私风险的适度规制
——以共享经济环境为基本背景

2018-06-07于雪锋任光辉

财经论丛 2018年6期
关键词:规制程度用户

于雪锋,任光辉

(1.浙江财经大学法学院,浙江 杭州 310018;2.浙江财经大学经济学院,浙江 杭州 310018)

一、问题的提出

隐私风险是当前互联网经济尤其是共享经济发展中的一个热点问题。该风险主要包括用户隐私敏感信息泄露和网络服务商对个人隐私敏感信息的不正当利用,即网络服务提供商、内容商将互联网上有关涉及个人隐私的部分资讯在未经许可的情况下进行收集、储存、分析和再利用及提供给第三方。既包括因为互联网经济平台保护措施或程序不完善导致的被动、无意的用户隐私泄露,也包括企业出于逐利目的而对用户隐私信息实施的不正当收集、加工和分析使用等行为。随着我国“互联网+”战略和共享经济的快速推进,上述各类型的隐私风险正处于高发阶段。例如,支付宝诱导用户授权芝麻信用向第三方提供用户信息[1];南都个人信息保护研究中心发布的《移动金融用户个人信息安全测评报告》显示,在被调查的200家移动金融交互类APP产品中,近九成的APP隐私政策合规度低,六成APP未经用户明示同意就收集用户的财产身份信息[2]。网络个人隐私的非法泄露倒卖和网络服务商对用户信息的不正当收集或分析使用,给社会正常运行带来多方面的困扰,不仅给个体带来负效用甚至危害(如垃圾短信、骚扰电话、冒名办卡、透支欠款、网络诈骗和名誉诽谤等),严重侵犯自然人、法人和其他组织的权益,对经济活动和政治活动也造成一定程度的干扰[3]。即便隐私风险未造成事实上的财产或人格损害,人们对隐私泄露和不当使用仍存在心理方面的不适,因此降低隐私风险是一个亟待解决的问题。但由于互联网经济平台的参与个体非理性和信息不完全等因素,完全依靠市场并不能达到理想的隐私保护状态,有必要借助规制加以解决。具体来讲,互联网经济平台隐私风险规制的理论依据源于以下几个方面。

(一)用户判断互联网经济平台风险时的非理性

用户对互联网经济平台的风险认识与客观存在的风险不同,主观感受到的隐私风险与服务提供过程中实际存在的隐私风险也是不对等的。一般地,用户往往过高估计一些出现概率较低的风险(如注册于平台的静态个人信息的泄露风险),而对一些出现概率较高的风险(如在接受服务过程中的个人消费偏好、消费踪迹等动态信息的泄露和不当使用风险)却估计较低[4],显示人们在判断隐私风险时的非理性。此外,人们对风险和风险信息的态度存在很大差异。用户会根据他们自身的职业、身份、地位、收入和知识来进行隐私风险程度预期,受教育程度较高、从事职业相对“体面”和收入较高的人群一般比从事一般职业和低收入的人群更加反对隐私风险*其实更深层次的原因在于:“隐私与否”在很大程度上是一个认知问题,与历史、文化和习俗有很大的关系,且该认知随条件的变化而变化。也就是说,不同人群对同类信息是否隐私的认知不同,同一人群在不同时期对同类信息是否隐私的认知也不同。例如,人际交往中打听彼此的年龄大小、收入多少和婚姻状况等是西方文化中的隐私话题,而在过去很长时期中国人总体上对此并不忌讳,只是随着近些年的社会经济发展,不同地区和人群对此类信息是否隐私的认知产生了分化,这是对隐私风险产生非理性判断的重要根源之一。,即人们对风险的偏好存在差异性。

用户对网络隐私风险的识别具有两个特征。(1)用户关于隐私风险知识的掌握程度不同,其进行理性判断的能力也不同。对互联网共享经济商业模式及运作机制不太熟悉的未成年人和老人更有可能面临隐私风险。此外,个人静态注册信息的泄露风险较易识别,而服务过程中产生的隐私泄露和不当使用风险则较难识别。因此,掌握较多网络风险知识的用户更有可能识别隐私风险。(2)用户对所有互联网经济平台风险的反应根据该平台规模、实力、信誉和用户数的差异而发生变化。当某用户面临是否接受新的互联网经济平台服务模式时,通过观察公司背景、注册人数、周围人在使用后的评价等情况逐渐积累对该服务隐私风险程度的判断,如果用户判定隐私风险程度很高,就会拒绝或减少使用,每次使用后主动删去使用中涉及的个人信息记录。对平台服务商来讲,当用户对个人信息安全存在非理性判断时,服务商可能不会太重视改善信息安全保护,甚至有意对用户信息进行不正当收集使用,用户就会面临隐私风险。

(二)互联网经济平台服务过程中的信息不对称

企业和用户对互联网经济平台在服务中涉及和衍生的个人信息使用范围和方式的了解程度是不同的。一方面,用户在接受网络平台服务前对其面临的隐私风险有一定的认知,且能以此认知为基础作出相应的决策。但由于信息不充分,许多隐私风险无法被全面了解,有时用户甚至对他们面临的某些风险一无所知(如社交聊天软件偷窥用户电脑中的隐私文件、360水滴摄像头直播等)[5]。此外,由于隐私泄露风险(无意风险,比如对服务软件或程序的信息加密保护不够完善,以至于被他人窃取)或非法倒卖给第三方风险,要比不正当使用风险(有意风险,比如出于其他逐利目的的加工使用)容易理解,所以用户在对接受服务进行隐私风险评估以确定是否及在何种程度和范围内接受该服务时,不易观察到不利于自身的信息不正当使用风险。另一方面,作为互联网经济平台的企业,他们很少产生主动提供关于用户静态信息和服务消费中产生的动态信息的保存范围、保存时间、利用方式和利用程度等信息的动机。实际上,其动机很可能是隐瞒自身对用户信息的收集,因为用户一旦了解到某项平台服务的全部隐私风险,在接受服务时就会犹豫或减少消费频次,该企业就很难快速地拓展市场,以至于在与同行的竞争中失去优势。此外,需要着重指出的是,在当前平台企业快速涌现的情况下,用户大致相同的隐私信息同时被多个平台企业掌握,而不能对注册使用的多个平台进行监督,隐私保护具有一定程度的“公地”属性。

综上,在用户对个人隐私认知程度和风险容忍限度存在差异,同时对隐私获取和使用的信息掌握不完全的背景下,网络平台企业往往缺乏最大限度地对用户信息进行保护和规范使用的激励。为防范用户隐私泄露和不当使用给企业带来的巨大声誉或责任风险,企业应采取必要的信息保护措施。假设采用不同隐私信息安全措施的企业,在考虑是否进一步加强用户隐私保护和规范使用这一问题时,缺乏关于单个用户成员的隐私认知和容忍偏好的准确信息。那么,一个通常的解决方法是采用掌握的相关用户的平均状况信息。但如果企业依据用户平均状况来确定保护措施,那些尽最大努力去改善信息安全保护的企业则因为投入太高而在竞争中处于劣势,迫使其退回到行业的平均信息保护水平。同时,当隐私风险发生后,一部分对隐私安全要求比较高的用户选择退出对该类服务的消费。然后,网络平台企业对变动后的消费群体隐私偏好的平均状况重新评估,继续降低信息保护投入,从而出现“逆向选择”。此外,当用户的隐私信息是分散被多个平台企业掌握时,为控制自身的生产成本,有些相对弱小的企业不愿进行隐私安全投资甚至有不正当使用用户隐私的冲动。因为当社会察觉隐私风险发生时,考虑到信息不对称,用户不一定怀疑追查到自己头上,这些企业总是力图把可能增加的补偿成本转嫁到市场中的其他企业,从而逃避责任风险。

(三)互联网经济平台用户隐私保护中的外部性

平台企业对用户隐私信息实施的安全保护具有正的外部性。这不仅使用户在主观上感受到安全舒适,树立良好的企业形象和信誉,而且客观上有利于社会稳定。但平台企业不可能将隐私信息安全保护的收益完全内部化,其私人收益小于社会收益,即边际私人收益曲线位于边际社会收益曲线的下方,且边际私人收益曲线的斜率大于边际社会收益曲线的斜率。企业从自身利益最大化出发提供的安全保护程度必然低于社会需求的最优程度(如美国的“优步案”)[8],因而对隐私安全社会需求的供给不足需进行政府管制。

二、平台隐私风险的适度规制需求

与其他规制对象不同的是,互联网平台经济像大多数现代数字经济一样是建立在数据及其自由流动的基础上的,海量的用户信息数据是企业不断优化产品和服务、进一步赢得竞争优势的重要资源,其成功与如下的事实密不可分:如果希望人们对这些平台有更多的信任,那显然是要分享许多信息。例如,5000万辆共享的无人驾驶汽车在理论和技术上能取代10亿辆私家车,而且所需的道路、桥梁、隧道和停车空间都会大大减少,但想要达到这样的目的,用户就得放弃隐私并允许算法永远知道我身在何处、去往何方[6]。因此,在方式和程度上不细加考量的隐私规制将不可避免地产生对信息数据使用的不利制约,这对互联网平台经济的增长显然有着巨大的阻碍作用。

可见,互联网平台经济面临的一个重大问题是如何在确保隐私或数据安全的同时,尽可能不影响平台自身对用户信息最大限度的发掘、加工、分析和使用。其实,现代国家和国际规则都极为注重网络隐私保护与资讯流动之间的平衡。例如,《亚太经合组织隐私保护框架》第3、4、29、30条及欧盟《通用数据保护条例》第1条均强调,既要保护个人隐私或数据,又不能给个人数据的自由流通设置不必要的障碍。因此,对网络隐私保护的难点是必须保持一定程度的克制,目的是兼顾隐私保护与资讯流动的平衡,从而实现资源的合法最优利用。

(一)基于不同行为主体的最优规制程度

在实际生活中,人们一般都愿意牺牲一部分隐私以换取在便利或服务方面的相对较小的改进[7]。也就是说,对隐私权人而言,隐私的减损是其获取生活利益的必要成本。这同样适用于互联网经济平台的用户。当用户在平台注册、登记和使用时,或多或少都清楚自己将在一定程度上暴露部分隐私。这些隐私暴露不至影响自己生活时,他们是不置可否的,或者说在用户心中存在一个可容忍的隐私暴露门槛值。在该门槛值,用户通过该平台获取服务而得到的正效用与平台泄露或不当使用隐私信息产生的负效用刚好相等。假定隐私规制程度与隐私信息安全水平呈正相关、与隐私风险水平呈负相关,即隐私规制程度越高,个人信息安全水平就越高,隐私风险就越小。据此,我们可以建立关于隐私规制影响用户效用的模型(如图1所示)。由于平台提供服务内容的质量主要受制于当前的信息技术水平,因此可进一步假定用户的共享经济平台效用或收益与隐私规制程度无关,图中表现为一条水平线MRp。而隐私安全对用户是有效用价值的,当隐私信息完全暴露时,用户的该价值完全丧失。在不同的隐私规制水平下,用户的隐私信息暴露程度不一样,因此用户付出的成本代价也不一样,该变量随着规制程度的提高而下降,图中表现为右下倾斜的MCP。从图1可以看出,用户对隐私规制有一个基本的门槛需求Qp,即只有平台的隐私保护或规制程度大于该值时(MRP>MCP),用户才接受该服务。当规制程度低于该水平时,用户接受共享经济平台服务的隐私让渡成本大于接受服务所得的效用收益,理性消费者“用脚投票”,共享平台市场将逐渐萎缩。

类似地,对共享经济平台网络服务提供商而言,无论自我主动实施的用户隐私保护还是政府对隐私风险的强行规制*互联网共享经济平台企业存在主动保护用户隐私的内在激励,这是因为大量的用户隐私泄露和不当使用很可能引发用户的反感厌恶甚至使平台失去市场。,二者都具有正反两方面的“双刃剑”效应。一方面,保护隐私的努力增加平台企业的运营成本。隐私保护是相当专业复杂的事情,涉及数据标识、存储、分配、披露、保留和销毁等多个环节,且数据在企业运营中的使用方式、存放形式(如硬拷贝、电子文档和数据库内存储)和操作环境不同,相应的保护要求也不同,需要企业投入大量的时间和人力物力。随着规制程度的提高,共享平台企业的隐私保护投入增加,边际运营成本将呈上涨趋势(即MCe向右上倾斜)(如图2所示)。另一方面,规制程度提高增强消费者的信任,树立良好的企业形象,吸引用户并增加流量。平台广泛依靠交易和信任机制收集海量的相关用户信息,利用计算机技术对这些信息进行分析、加工和使用,从而拓展市场、增加收入[9]。这是互联网共享经济快速发展的主要推动力。但在特定时限内,受到总的市场规模和技术水平等因素的制约,随着隐私规制程度的提高,企业的边际收益总体上呈先递增后递减的趋势(图2的MRe曲线)。由于成本收益的变动方向不一致,平台企业存在一个均衡的隐私风险规制程度,即企业自动将隐私保护维持在Qe的水平,过度的隐私保护会降低企业的经营利润。

需要特别指出的是,互联网经济平台企业与用户是两个完全不同的行为主体,这突出表现在平台服务交易过程中二者的成本和效用(收益)函数不同,相应的成本和收益变动也不同,由此不难推断二者要求的最优隐私风险规制程度也是大概率地不一致。

图1 平台用户的成本收益变动

图2 互联网经济平台的成本收益变动

(二)政府介入隐私风险规制的适度区间

假定最初政府部门尚未介入隐私风险规制,我们分两种情况分析。第一种情况,平台企业的自我风险规制程度(Qe)小于用户要求的风险规制程度(Qp),且Qe位于Qp的左边(如图3所示)。此时,用户面临的隐私风险成本大于接受该平台服务的效用,消费者“用脚投票”,逐渐减少甚至退出使用该平台服务,这不利于企业自身的发展。为拓展市场份额,企业被迫把隐私风险规制程度提高到消费者要求的QP,我们称之为隐私风险规制的“自加强机制”。短期会出现新的问题,即QP对应的MCe>MRe,经营利润下降,但长期对企业造成的影响不大。因为在任一规制水平上有两个因素一直是动态变化的:一个是基于对用户信息合法使用的企业服务内容、水平、方式和效率在不断提升,总体上有利于提高收益(即MRe曲线右移);另一个是信息保护技术的进步(如区块链技术的出现),有利于降低企业的运行成本(即MCe曲线下移)。可见,当Qe

第二种情况,平台企业的自我规制程度大于用户要求的规制程度(即Qe>Qp)。此时,Qe既对企业是最优的,也是用户能容忍的,显然企业没有市场流失的压力,也没有隐私风险保护的自加强过程。但仍有一个问题需要考虑,即企业自我规制Qe和社会要求的最优规制Qs未必一致。前文已指出,平台企业对用户隐私信息的保护具有正的外部性,使企业对隐私的保护总是低于社会需要的最优程度,即平台企业的边际收益曲线(MRe)位于社会的边际收益曲线(MRs)下方(如图4所示)。同时,平台企业的边际收益曲线斜率大于社会的边际收益曲线斜率,这是因为隐私规制对企业的影响往往更为直接和强烈,随着规制程度的增加,企业收益的下降速度大于社会收益的下降速度。在两条曲线位置和斜率差异的共同作用下,Qs之前必将出现隐私规制程度的一个分界点Qm,在该分界点,企业的边际收益(MRe)已为零,但社会的边际收益(MRs)仍大于零。

图3 隐私风险规制的自加强机制

图4 隐私风险规制的适度区间

基于以上的曲线变化特点,从图4可以看出,平台企业从自身利益最大化出发实施的隐私自我规制程度Qe低于社会需求的最优程度Qs,此时需政府介入进行规制。如果政府在Qe基础上加强隐私风险规制,假定调整后的规制强度为Q*,根据其与Qm的相对位置又可细分为两种情形。一种情形是QeMRe),显然企业经营利润是缩减的,但由于该区间对应的MRe>0,企业表面上的营业收入仍在增加,通俗地讲,即“增收不增利”。无论传统企业还是互联网企业,“增收”往往被企业视为正在成长的重要信号,企业在这一时期通常增加投资、改善服务,以求占领更大市场。因此,政府部门把规制程度提高到Qm后可提高社会总福利水平。另一种情形是QmMCs;长期而言,社会总福利将下降,这是因为在该规制区间,被规制企业的利润和营业收入都出现下降,“既不增收也不增利”,企业投入越多、亏损越大,进而难以持续经营下去,结果便是企业被迫缩减甚至退出该类平台服务,最终导致互联网共享经济的发展速度延缓或迟滞,使社会总福利下降。

综上,隐私风险规制的适度区间位于Qe与Qm之间,在实际执行中偏向于哪一端,则取决于互联网平台企业和规制机构的力量对比、被规制行业所处的发展阶段等因素,视具体情况而定。进一步地,如果企业在经营模式和技术上有所突破,将有助于降低运营成本和提高运营收益(即MRe和MCe右移),则Qe和Qm的位置右移,适度规制区间更加接近理想的规制程度Qs。

三、平台隐私风险的适度规制方法

由上述的理论分析可知,具体实践中的隐私风险规制强度应尽可能保持在区间(Qe,Qm),具体究竟是哪个点并不由规制机构单独决定,这主要是因为规制机构同样面临有限理性和信息不完全的困境,但我们通过一些制度性的设计,让用户、企业和社会的成本收益变动反映到隐私规制的立法和执行过程中。

(一)联合设定隐私风险的规制标准

由于隐私风险规制的直接利益相关方是用户和企业,所以规制标准首先要满足这两类主体收益大于成本的要求,但两类主体这方面的信息是规制部门很难直接观察到的。用户的“隐私与否”及隐私风险对自身是否产生影响与消费者个体的认知有关并存在一定程度的主观性,因此规制标准制定必须尊重消费用户的意见,听取他们对自身注册信息或交易信息安全程度的要求。互联网经济平台的企业成员有着对自己的流程和业务的具体独特知识,且企业的不同类型服务对用户信息的利用方式和程度不一样,与此对应的信息保护方式和程度也不相同,这再次决定隐私信息保护成本不同,所能达到的安全度要求也不一样,因此规制标准制定需征求平台企业的意见。

以上特点实际上是要求规制标准的制定需多方参与并达成共识。之所以要达成共识,根本原因在于不同规制标准下各方的成本收益不同。标准水平的设定有两种方式:技术标准原则和成本-收益原则。技术标准原则是将标准水平设置在现有技术条件下所能达到的最安全水平,而成本-收益原则将标准水平设置在规制的边际成本和边际收益相抵之处。技术标准原则较为严苛,而成本-收益原则更注重规制的经济效率,现实中具体的标准水平的折中可采取多种方式,如政府设定总体目标,然后允许行业制定和执行标准,或政府和行业协会就适当的监管目标进行谈判,在起草标准方面进行协作,但后者更为普遍。例如,欧盟委员会1995年发布的《数据保护指令》第27条要求成员国将联合设定规制标准纳入国内法。美国在议定的规则制定中,机构代表和利益相关者进行谈判,确立共识性规则;在环境保护机构的宗地和栖息地保护计划中,作出符合特定公司或财产状况的、针对具体地点的合规安排。加利福尼亚州职业健康与安全管理局实施一项创新计划,与管理层和劳工代表合作,制定并执行针对特定建筑地点的安全标准。这些举措中的每一项都涉及政府和企业间的一些协作工作,无论设定目标、制定标准和规则还是执行这些规则[10]。

动态地看,联合设定规制标准给企业更多的是为自己制定规则的感受,反映不断变化的商业现实规则和程序,更有利于企业获致现实的运营目标,也可减少单纯政府管制给企业带来的延迟和行政成本不利,因此企业在联合设定标准下的运营更有效率,即联合设定的标准有可能使MRe和MCe右移,反过来提高平台企业自我规制的强度和自觉性。此外,联合设定规制标准还有助于政府官员推动企业优先考虑公共目标而非自身利益,改善政府与行业的关系,变对立的政企为合作解决问题者,为将来的信息共享与合作打下基础[10]。如此,更能建设性地解决社会问题,增强合作双方对彼此的责任感。

(二)利用隐私保护的自加强机制

图5 隐私风险教育的规制程度变化

前文曾指出,当Qe

(三)放松规制数据的创新性收集使用

图6 信息数据创新使用导致的规制变化

互联网平台经济是一种新兴经济模式,对数据收集分析使用的活跃创新是其快速发展的驱动力量,有可能带来巨大的社会收益,许多有价值且具创新性的数据用途在收集时还是未知的。基于某一个目的收集的数据,往往因其对社会产生巨大的效益而被重新设定目的,现实中大量实例均能佐证(如体检记录和医学研究的实验结果、分析数十亿的互联网搜索记录以绘制流感爆发的地图或识别危险的药物交易、搜索财务记录以侦查并阻止洗钱犯罪、追踪机动车和行人的行动轨迹以辅助基础设施建设的计划)。个人、商业组织和社会团体都从创新现有数据获得的新型数据的用途中获益[11]。由图6可知,当用户从与自身相关的数据信息创新分析使用中获益时,收益曲线从MRp1上升到MRp2,用户对隐私风险的容忍度提高,要求的基本隐私规制程度从QP1大幅降低至QP2,企业的隐私保护水平自然也从QP1移至QP2,进而政府也不必制定过高的规制标准。

因此,当用户的容忍度较高且在理性可预见的范围内未出现严重隐私风险问题时,不宜过度介入隐私风险规制,该理念已引起发达国家的重视。例如,针对互联网共享经济平台依赖的物联网技术*共享经济借助的工具或平台很多就是新兴的物联网,也不排除传统的互联网。但物联网是推动时下共享经济大发展的重要平台,所以关于物联网的诸多原理,对共享经济具有较普遍的适用性。,欧盟委员会的一份公众咨询报告指出,“平台在互联网技术设计阶段,通常不考虑数据保护和隐私及信息安全等基本权利”。新技术的发展尤其如此,重点在于核心技术挑战[12]。为创新的需要,平台对权利保护的这种暂时忽视是可以理解的。对平台应用此种创新技术造成的新发隐私侵害,法律上应予以一定程度的容忍。但随即就应对平台的损害风险加以管制,促其将隐私安全列入议程,补救平台的该项技术漏洞。

与此不同的另一种规制方式是,在创新的开始阶段就加以引导规制,以节省试错成本,更具效率。是否这样做取决于对具体类型共享经济隐私风险的评估结果,风险越大,越需加强权利保护,越适于采取事先规制的方式。例如,点对点借贷平台本身涉及大规模的金钱交易,具有极大的个人资金风险,一旦关键账户信息泄漏,易造成巨大的损失,因而对平台的技术设计就应事先规制;而一次性的打车共享平台,支付金额较小,一般不会导致类似财务风险,在平台采取基本安全措施时可考虑对可能的漏洞进行事后监管。正如欧盟委员会的报告指出,由于物联网技术处于发展的非常早期阶段,且专业机构对该技术运用可能产生的风险做出较为明确的评估,在开发阶段就已提供明确的约束要求,这在经济上似乎更好,允许根据这些要求设计技术,而不必稍后改变已有的技术。

(四)选择合适的规制标准执行力度

图7 合适的规制标准执行程度

隐私规制标准起作用还需辅之以适度的执行,再严格的标准水平如果遇到松懈的执行,平台企业面临的也是毫无约束力的标准。规制标准的制定和执行共同决定着隐私风险规制的标准水平。图7显示,假定经联合设定的最优规制标准为Qm,但该标准并非总是得到贯彻执行。因为在具体经营中企业总受到机会主义和利润最大化的驱使,往往私自降低隐私保护的标准(如在Qe时企业可得到更高的利润PE1)[12]。为解决这一问题,规制部门可供选择的一个办法是对违规企业加以惩罚,但惩罚的力度必须适度。当企业私自将隐私保护水平维持在Qe时,可获得的利润PE1比Qm对应的利润Pm要高,自然没有提高隐私保护的激励。如果规制机构通过惩罚将其利润曲线从L1下移至L2,则企业的利润从PE1下降至PE2,但由于PE2仍大于Pm,被规制企业将无视规制机构的惩罚;如果规制机构的惩罚力度把其利润曲线从L1下移至L3,此时PE3

不过,隐私规制政策的制定和执行也应充分考虑互联网经济平台的现状。如果当前的大多数企业受技术和资本等因素制约,投资运营产生的盈利水平较低,此时超越现实基础而作出决策,那么最终选择的标准水平和执行力度导致的后果可能企业退出相关领域。即便对一些实力雄厚的企业,也要选择切实可行的执行力度。例如,按照美国的隐私保护标准,用户隐私遭泄露的Facebook有可能违反2011年的和解令,情况一旦属实,美国联邦贸易委员会对其罚金将高达2万亿美元,而Facebook的总市值也不过4885亿美元[3]。如果严格执行惩罚,显然具有极大的震慑作用,但也极有可能迫使Facebook退出该行业。因此,为有效保证用户的隐私安全并维持平台企业的可持续性,管制机构制定和执行的标准都应有一定的“度”。

四、结 语

互联网经济特别是共享经济平台的隐私风险规制是一个棘手的难题。其根本原因在于平台企业的服务是建立在对用户信息数据收集、加工和分析基础上的,用户在获取服务和保护个人隐私之间存在一种内部冲突,即若要获得更好的服务,用户必须向平台企业让渡并允许其分析处理部分个人信息。这种情况下的隐私保护往往容易伤及信息数据的自由流动,以至于阻碍可能的创新和福利增加。在承认并正视该两难困境的前提下,隐私适度规制与其说指出了两难的具体解决办法,倒不如说是提出一个两难的缓和折中理念或某种妥协,最终目标是指向社会整体收益的最大化。此外,应注意长期的隐私风险适度规制需动态调整。由于历史文化、风俗习惯、群体认知、经济阶段和意识形态等不同,人们对个人信息是否及在多大程度上是隐私的认知不断发生改变,必将反映到大众对规制程度的要求变化。同时,信息数据利用和保护技术也在逐渐提升,这必然影响微观行为主体的成本收益变动,相应的隐私风险适度规制区间和手段也应随之发生改变。

参考文献:

[1] 王林.进入“无人区”大数据法治要创“中国规则”[N]. 中国青年报,2018-01-09.

[2] 娜迪娅,蒋琳,李玲.南都测评曝光20款APP无隐私政策后中国银行、趣店等4款已主动添加[N]. 南方都市报,2018-03-21.

[3] 陶凤,杨月涵.Facebook“非死不可”?[N]. 北京商报,2018-03-28.

[4] 王融.欧盟《通用数据保护条例》详解[J]. 中国征信,2016,(7):93-101.

[5] 赵新培.360宣布关闭水滴直播平台——承认用户的顾客被直播是个错误360摄像头未来只提供安防监控功能[N]. 北京青年报,2017-12-21.

[6] [以]尤瓦尔·赫拉利著,林俊宏译.未来简史:从智人到神人[M]. 北京:中信出版社,2017.349-350.

[7] [英]吉隆·奥哈拉,奈杰尔·沙德博尔特著,毕小青译.咖啡机中的间谍:个人隐私的终结[M]. 北京:生活·读书·新知三联书店,2011.194.

[8] Federal Trade Commission. Privacy & Data Security Update: 2017(January-December 2017),Uber Settles FTC Allegations that it Made Deceptive Privacy and Data Security Claims [EB/OL]. https://www.ftc.gov/news-events/press-releases 2017/08/ uber-settles-ftc-allegations-it-made-deceptive-privacy-data.

[9] Bénédicte Dambrine,Joseph Jerome & Ben Ambrose. User Reputation: Building Trust and Addressing Privacy Issues in the Sharing Economy[R]. Future of Privacy Forum,2015.

[10] Dennis D.Hirsch. The Law and Policy of Online Privacy: Regulation, Self-Regulation or Co-regulation[J]. Seattle University Law Review,2011,34(22):439-480.

[11] 高富平.个人数据保护和利用国际规则:源流与趋势[M]. 北京:法律出版社,2016.38.

[12] European Commission. Conclusions of the Internet of Things Public Consultation——IoT Privacy, Data Protection, Information Security [EB/OL]. https://ec.europa.eu/digital-single-market/news/conclusions-internet-things-public-consultation.

猜你喜欢

规制程度用户
精致和严谨程度让人惊叹 Sonus Faber(意大利势霸)PALLADIO(帕拉迪奥)PW-562/PC-562
主动退市规制的德国经验与启示
男女身高受欢迎程度表
论我国民间借贷法律规制的发展和完善——从抑制性规制到激励性规制
保护与规制:关于文学的刑法
关注用户
关注用户
关注用户
如何获取一亿海外用户
内容规制