APP下载

互联网企业数据识别反垄断法律监管规制

2019-04-08国瀚文

国瀚文

摘 要:人们在互联网上留下的消费记录、浏览历史、健康数据等,有可能成为互联网企业进行数据识别的原材料,以分析人们未来的消费趋向。通过梳理我国部分互联网企业在线的隐私政策发现,互联网企业从注册环节开始就在收集、识别人们的数据信息,这将使其个人经济能力等隐私变得更加透明。该行为实质是侵犯消费者个人数据的经济属性以获取经济利益的侵权行为。以反垄断法对数据识别行为进行监管规制的正当性,可在数据识别算法管控、确定数据权属规则、明确数据授权边界等层面得到有效证成。其内在构成应是在维护互联网市场有序竞争、兼顾科技发展与个人数据利益保护的目的下进行构建。

关键词:数据识别;隐私政策;反垄断法监管

中图分类号:DF414

文献标识码:A

文章编号:1673-8268(2019)02-0037-10

互联网已嵌入现代社会生活,只要使用互联网,就会产生关于个人行为的数据,并被记录在互联网中。而互联网企业对于消费者数据收集的颗粒化程度非常细,由于它们充分利用了消费者的信任(因缺乏具体算法知识和数据风险意识而产生的个人权利被保障的信任),对相关个人数据有选择性地实施了滥用行为。通过收集数据、进行数据识别,用来预测消费者未来的网上行为。例如,通过步数计算、睡眠质量测算和体重管理等涉及健康的数据,可以预测该消费者的人寿保险费率,甚至可以揭示其个人偏好、家庭情况或者特定的经济状况。这种行为实质上是互联网企业利用大数据和复杂的算法榨取“消费者剩余”的经济利益,侵犯消费者个人数据权益的侵权行为,需要受到反垄断法律规制。

一、互联网企业数据识别行为违法性认定

(一)数据识别行为界定

数据的生成是传感器在人类活动(照片、声音、文本、手机触摸屏活动等)、自然事件(温度、风)或工业生产(物理、生物、化学变化过程等)中,通过感知输入将二进制代码翻译成人类可观察的输出的一种信息方式。此文所讨论的数据仅为人们在互联网上的活动轨迹,包括文字输入、消费记录、浏览历史等信息。对这些信息进行有目的的分析过程就是数据识别行为。这是通过算法实现的,即通过一种明确的简单操作列表,机械地、系统地应用于一套令牌(tokens)或对象中(例如棋子、数字、蛋糕成分的配置等)令牌是計算机术语,是一种能够控制站点占有媒体的特殊帧,以区别数据帧及其他控制帧,代表执行某些操作权利的对象。令牌可以理解为暗号,在一些数据传输之前,要先进行暗号的核对,不同的暗号被授权不同的数据操作。。也就是说,令牌最初的状态是输入,最终的状态是输出[1]。随着认知无线电技术的发展,数据识别已经发展到了一个新的水平,使计算机能够比人类更有效地解决复杂问题,从而做出有效预测[2]。各互联网企业依据数据识别技术在互联网市场上进行激烈竞争,数字识别技术被广泛应用于商务、教育、就业、医疗、保险等领域。但是,它的发展并未为人类社会各种事务和决策工作带来人类所期望的客观性。现实是效率虽然被提高了,但我们在网络中的所行所为已无时无刻地不被算法所分析,即便是基于数学原理进行识别算法的计算也不例外。但是算法毕竟是由研发人员进行开发的,如何将“人类”所具有的判断和选择不偏不倚地进行程序算法的编写,是值得深究的。数据识别所带来的不透明、不公平、不追责等问题,以及缺乏法律保护、伦理监督等规范的现状,使得个人的任何数据行为都成为了算法进行自动化决策的原料。

在互联网市场中,数据识别对消费者所表现出来的主要影响就是价格歧视、数据画像由交互设计之父Alan Cooper最早提出的概念,通过一系列真实数据分析,得出目标用户模型。例如,根据在线用户的喜好购买的品牌、价格带、购买方式、购买时间等推断该用户的消费偏好。根据欧盟《通用数据保护条例》(GDPR)的规定,数据画像是指对个人数据进行的任何自动化处理,包括利用个人数据评估与自然人有关的特定方面,特别是针对与自然人的工作表现、经济状况、健康状况、个人偏好、兴趣、信誉、行为习惯、位置或行踪有关的分析和预测(参见GDPR第4条第4款)。、广告定向投放等行为。互联网企业以前所未有的方式了解他们的客户,通过数据识别,掌握每一位消费者可以为产品支付的最高价格,并利用算法去改善市场定价模型、完善客户服务以及预测潜在客户来源。2017年6月,经济合作与发展组织(OECD)归纳了四种可以作为合谋工具的算法,主要包括监督算法、平行算法、信号算法以及自我学习算法监督算法意在发现其他合谋者的背叛行为,从而启动对其的惩罚,即通过监督算法检测对手的定价行为,一旦发现其违约,就自动启动价格战,主要是为了保障合谋战线的统一;平行算法意在自动为所有合谋企业设定最优价格,合谋企业采用一种动态定价算法,帮助提供同类产品或服务的企业在动态市场上进行平行定价;信号算法指为合谋者设置信号,借助先进的信息网络技术手段,向其他合谋者不断发出瞬时的、极其复杂的定价信号,只有使用了同类算法的合谋者才能接受和解读;自我学习算法意在为企业选择一个市场最优的价格,企业可能利用人工智能创造利润最大化的定价算法,通过深度学习后,达成其他企业的默契共谋。[3]。以美国Topkins一案为例,2015年,美国司法部指控Topkins违反《谢尔曼法》,其通过算法协调价格变动的行为构成犯罪,包括撰写定价算法代码,采用特定定价算法与其他同行进行协商定价,以维持和稳定特定海报商品的销售价格,并且协调各自的价格调整;随时与合谋者搜集、交换、监督和讨论相关定价与销售信息,落实价格协议和监督定价算法的效力,收取价款[4]。该案是第一起因利用识别算法行为违反反垄断法并遭到处罚的案件。该案成为全球对数据识别算法行为进行反垄断管制的风向标。

1.数据识别政策比较

数据识别的精确度意味着科技的发展程度。一方面,精确的个性化服务或许会提高工作效率,但也在另一方面损害了消费者的利益。消费者的利益一旦受损程度过大,又会反过来降低工作效率。所以,数据识别算法技术并不是一种完全价值中立的科学活动或数学活动[5],相反,其总是蕴含着价值判断。我国目前大多数在线平台的数据识别算法设计都隐含了歧视和不公,有的更是隐藏了利益集团的操控[6]。在此,以BATBAT,即百度公司、阿里巴巴集团、腾讯公司三大互联网公司首字母的缩写。BAT已经成为中国最大的三家互联网公司。中国互联网发展了20年,现在形成了三足鼎立的格局,三家巨头各自形成自己的体系和战略规划,分别掌握着中国的信息型数据、交易型数据、关系型数据,然后利用与大众的通道不断兼并后起的创新企业。基于现有业务的竞争优势在移动互联网领域构建完整的生态体系已经成为BAT的布局核心,但在这个过程中,三巨头的侧重点各不相同。百度以搜索引擎为支撑,在探索新业务方面主要以战略投资为主,形式多为收购和控股;阿里侧重于构筑完善的电子商务生态链,覆盖物流、数据服务、电商的交易支付、供应链金融等领域;腾讯更多地是采用开放平台战略,游戏领域一直是腾讯投资的重点。公司的隐私政策为例(见表1)。

(二)数据识别算法透明度模糊化

当法律监管进入大数据领域时,互联网企业对其商业行为的保密性越来越强,以至于这些企业对个人的量化程度也越来越高。从数据收集到数据处理的完成方式是不透明的。互联网企业与第三方共享代码和模型有以下三个缺点:首先,数据挖掘的复杂性算法通常是该行业最宝贵的资源,因此,透明度要求不仅会威胁互联网企业的商业模式,还可能会阻碍该行业的技术创新;其次,高级算法的复杂性非常高,以至于他们的架构设计通常难以完全理解;最后,让更广泛的公众理解算法将是一件非常难的事情。另外一个关键问题是,为了发挥隐私政策的作用,需要有足够多的个人用户阅读、理解隐私政策。然而,并不是所有的消费者都会仔细阅读在线平台的隐私政策,这也导致了对披露系统的忽视。

(三)数据权属确立规制缺失

我国现行立法中对于个人数据的权属没有明确规定,加之互联网市场存在众多灰色地带,使得数据的权属问题成为数据保护的核心之重。目前较为流行的一种观点认为,数据没有所有权,因为数据是存在于网络之中的,是具有流动性和非排他性的,而获取数据的过程应当符合法律规定。另外一种观点认为,应对数据赋予财产权性质。来自于个人用户的数据,个人对其拥有绝对的所有权,如表2中所列的数据种类。个人在日常生活中形成的数据曲线,可以反映出其个人生活方式等方面的信息,无论数据如何流转,其所有权均应归个人所有。还有一种观点认为,数据只有通过在线平台的提炼才能产生价值,所以数据的所有权应该归在线平台。基于数据的特殊性质与互联网市场的特殊存在,我们可以考虑使用经济学的价值理论对数据进行价值定性,以法律规范对其所属价值进行等级上的区分,或许更符合现在的趋势。

(四)数据权属授权形同虚设

通过对表1、表2中在线平台运营的隐私政策比较分析可以看出,数据从个人手中流转到互联网企业,在合法条件下主要是用户行使授权行为的结果,即同意文中的“同意”为广义的同意,其具体意义包括:同意;选择性同意;推定同意;明确同意或特别许可同意。在线平台收集个人相关数据。而目前精准广告的投放多是互联网企业追踪用户网上行为轨迹,通过Cookie等类似技术所得,以便于其进行精准营销。业界通行的用户授权模式是通过用户“默认同意”,再选择“退出”方式实现,但这却是GDPR明令禁止的行为。

因为任何人的个人数据都可以保存并用于未知领域,况且此种数据积累越多价值越大。而个人用户除选择“同意”以外,只能放弃在线平台提供的服务,即个人用户丧失了选择的权利。

还有,不只是个人用户的授权选择权受到损害,与在线用户相关的在线平台的权利也会受到损害威胁。例如,在新浪微博诉脉脉案中,脉脉未经许可就抓取了新浪微博用户的职业信息、学历信息经营自身业务;2017年,今日头条也通过用户的设备授权将新浪微博的内容自动转移到自身业务中;华为与微信之争,华为也是通过用户的授权,取得了微信中的数据。这就是数据识别行为带来的恶性竞争结果之一,如不加以规制,市场必将扭曲。

三、数据保护回应与监管规制构建

简单禁止数据收集是行不通的,为了追逐利益,在线平台会违反市场竞争秩序,这显然不符合我国现阶段经济快速发展的现状。数据收集和处理所带来的巨大利润会形成监管较少的黑市。所以,旨在最大限度地减少数据识别使用的危害,并通过合法的数据收集和处理,提高个人用户平等性的监管规制是我们必须考虑的制度规划。

(一)监管规制构建,法律保障公平

监管规制的构建“应以‘习近平网络强国战略思想为指引,加强顶层设计”[13],一方面,将竞争规制引入个人数据保护;另一方面,推动其他法律的立法进程,完善个人数据安全法律保障体系。

首先,在认知上优化隐私政策。改变目前无须阅读隐私政策即可在在线平台注册等方式,并对隐私政策中涉及到的关键词汇进行颜色标识和解释说明,以增强个人用户的理解度,确保披露的有效性。

其次,为了对抗在线平台对数据挖掘固有的密封技术发展趋势,可以通过数据挖掘技术在算法决策和交互式建模方面提高透明度,即采取“智能”披露的方式。以表1中各在线平台的隐私政策为例:隐私政策应易于访问且清晰易懂,对各在线平台使用包括文本在内的多层格式进行说明,如图形说明等[14],以简化对算法的复杂理解,在线平台采集数据时应对用户进行提醒说明。

最后,以法律作为监管工具,将数据识别算法管控引入《反垄断法》。算法可以强化在位者的力量,进而提高市场集中度,如谷歌在欧洲经济区范围内以专用算法即X算法(保密信息)与Panda降级算法。的竞争性比较购物,给其他比较购物服务之间的竞争带来了不利影响,增加了谷歌的流量,减少了欧洲经济区的流量,最终损害了欧盟境内消费者的利益。所以我国新的《反垄断法》应尽快修订出台,制定适应互联网行业发展的配套规则,将典型的互联网垄断行为纳入其中。在传统构成要件的基础上,将后果要件也作为关键性指标来判定数据识别算法的违法性。即从损害后果影响的深度进行考察,如果行为造成的损害后果无法依赖市场进行自我调节和恢复即市场优先原则,指为了维护市场的竞争秩序,法律需要加以干预、进行外部矫正。在这种情况下,市场本身无法发挥作用进行自我恢复。[15],就说明该行为是违法的[16]。

为确保监管的有效实现,应建立跨部门的联合审查、评估与处理机制。同时,对数据识别进行刑事追责也是国际上的立法趋势,如美国《谢尔曼法》就对违反了该法的公司和个人设定了刑事处罚。法国、瑞士、加拿大等国也对实施垄断行为的刑事责任做了规定[17]。我国在进行《反垄断法》修订时,可以首先引入网络“透明问责制”,明确在线平台所应承担的法律责任,才能起到有效的预防和震慑作用。如美国计算机力学协会(USACM)发布声明,就算法透明度与问责制确立了相应原则;欧盟竞争委员Vestager提出,企业有义务遵守数据保护与反垄斷方面的法律规则来设计算法 参见GDPR第13条第2款。。而该项制度的实施只能由消费团体、学术界、监管机构来引领,政府机关作为幕后保障。

(二)识别算法管控,披露认知优化

基于技术的发展趋势,应对数据识别算法即对数据使用自动化决策进行严格管控。根据GDPR对人权的保护理念,一方面,应对在线用户的个人数据权利赋予更多的自主决策权;另一方面,对企业的识别算法进行严格管控,主要有以下几点:(1)在线平台如需要使用算法自动化决策,应向在线用户告知决策机制,包括数字画像,并说明需要使用该算法进行决策的原因,以及将会在法律上对用户造成哪些不利影响,且上述信息用户有权访问 参见GDPR第35条第1款。,除例外规定外,用户有权不受企业算法自动化决策的约束 参见GDPR第2条第1款。;(2)用户数据的算法识别自动化处理程序作为高风险的数据处理业务,要求对数据主体个人开展系统和广泛的评估,且评估对用户个人能产生法律效力或类似重大的影响参见GDPR第35条第3款。;(3)除非在线平台能表明其有可供披露的正当事由,该正当事由大于用户的个人利益,或者大于法律规定,基于其特定的情况,用户有权在任何时候反对基于公共利益和在线平台或第三方正当利益处理其个人数据参见GDPR第21条第1款。;(4)严控将对自然人产生法律后果或者造成严重影响的算法和对用户的评估,作为高风险的数据处理行为参见GDPR第35条第3款。;(5)对企业进行强制要求,并对其算法进行系统化监控,根据企业规模设立用户数据保护岗位参见GDPR第31条第1款。;(6)对企业不承担自动决策不利后果的例外保持审慎的立法态度,发布行为规范 参见GDPR第70条。。互联网企业基于严格的识别算法程序管控,增加了企业处理消费者个人数据的成本,对于各项程序中的审查和排除,需要大量的人力和新程序的开发才可实现。否则,企业将会面临大量的投诉和违规责罚,这就说明对企业的管控还是要依靠法律的威慑力才可实现。随着我国大数据业务的发展和应用,对人权保护周严的规则将逐渐随着世界局势的变换而得到发展。通过借鉴欧盟的人权保护规则,制定适合我国社会主义市场经济特色的识别算法监管机制具有十分重要的意义。

互联网企业识别算法管控的对应面则为对算法程序的透明度要求。早在1995年,加拿大隐私专员Ann Cavoukian就率先引入PbD理念,旨在产品或服务设计之初,融入隐私保护的理念,主张将隐私理念植入技术架构设计,以用户为中心,提升透明度并给予用户更多的对其个人信息的控制权[18]。

(三)数据类别细化,确定权属规则

依据现有数据类别进行性质分类,即进行基础数据与增值数据的区分。基础数据是指能够识别消费者本人的数据,如表2中所列出的个人直接数据等,这些数据信息为实施数据驱动技术的本源数据。消费者作为此类数据的提供者,应该具有绝对的所有权,这是数据确权规则的基本原则。在线平台通过消费者在线的行为活动,利用数据驱动技术搜集整理出的数据为增值数据,如表2中的行为数据、位置数据等。因为附加了数据处理者的劳动,因此在消费者明确授权的情况下,在线平台可以对增值数据拥有所有权。如在大众点评网诉爱帮网案中,法院认为爱帮公司对其经营业务并未付出劳动,而是直接利用技术手段在爱帮网上展示大众点评网的商户简介和用户点评,并以此获取商业利益的行为是不正当竞争行为。大众点评网搜集、整理的商户简介和用户点评,应受法律保护,因为其中包含有大众点评网的附加劳动。

另外,充分考虑到数据类型的多样性,应采用需求的多样性和计算框架的多样性方式,以开放架构实现在线平台系统的按需扩展和动态演进[19]。一方面,对数据识别算法的设计者而言,应更严格地筛选算法,避免算法对数据歧视行为进行深度学习,而跳进无意识的侵权循环之中[20];另一方面,对数据类别的细化管理,可以最大限度地提高科技发展的速度与能力。因此,在法律授权下的数据采集、存储、分析、发布与关联融合、归档等全域管理,有利于数据按需快速流动和各种类型数据流水线的动态集成与调度。

(四)明确授权边界,确立授权规则

赋予个人用户选择权,而不是在“隐私政策”上笼统地进行陈述 。隐私政策是否实施了有效的通知,取决于该通知的长度和功效之间的内在张力。传统意义上的通知一直面向个人,个人用户在阅读并充分理解“通知”的条款和条件后,通过选择同意或拒绝平台的同意使其采取相应的行动。并且,对于与个人有关的其他平台,也是通过消费者的授权而实施了不正当竞争行为。

应该强化用户对个人数据的自决权,增加同意规则的授权难度。GDPR对同意作了要求。一是默认同意被视为无效。GDPR已明令禁止“默认同意”的用户信息处理规则参见GDPR第4条第11项。,要求用户依照自己的意愿做出明确的指示。同意须以声明或清晰肯定的行为表示,表明其同意处理与其相关的个人数据,默示、预选方框或者不作为不构成同意。GDPR将欧盟境内的互联网企业的监控确定为其管辖范围 参见GDPR第3条第2款。。当算法是基于直接的市场营销目的而针对个人进行精准广告投放行为时,用户有权拒绝。所以,GDPR要求基于同意陌生的数据处理须使用明示授权的方式进行。W8数据公司的一份报告显示,按照GDPR的要求,英国市场营销所使用的现有用户数据有75%都是不合规的[21]。企业除非选择遵守,否则只能采用新的技术来进行规避。Google已于2018年3月22日向客户和合作者公告宣布其广告政策的调整,广告发布者需要添加额外的环节以满足GDPR的同意政策。Google还将与包括IAB(Interactive Advertising Bureau)(欧洲)在内的广告行业协会协作,沟通实现最佳的同意解决方案[22]。二是需经用户同意才能与第三方共享数据。GDPR的同意规则意味着企业与第三方或者关联公司如要共享用户数据,需征得用户的明确同意 参见GDPR第6条。。Google和YouTube之间是通过共用隐私政策进行数据共享的。2012年,因两个产品合并隐私政策未告知用户并征得用户同意,Google于2013年被荷兰的个人数据保护机构Dutch Data Protection Authority(DPA)认定为违法,并被欧洲各国个人信息保护机构调查[23]。Facebook也在隐私政策中规定,为了用于推广、支持和整合活動及改进服务,会与其旗下公司分享拥有的用户信息[24]。但根据GDPR的要求,Facebook同Google一样,正在调整其隐私政策。

另外,在线平台、用户和第三方之间的关系,影响到数据市场的正常运营。对用户的授权原则进行严格管控,也是为了市场秩序的有序进行。所以,在线平台可以引入“数据授权+平台授权+用户授权”的三重授权原则。如在脉脉非法抓取新浪微博用户信息案中,法院明确,第三方应用应通过开放平台获取相应信息。以OPEN-API模式获取用户信息时应坚持三重授权原则,以保护消费者的隐私权、知情权和选择权为底线,以公平诚信为行为准则,维护互联网市场的公平竞争秩序,实现数据经济的合作共赢。

四、结 语

全球已进入“数据识别”时代,算法社会只是数字化生活的一个简单缩影。在使用数据识别算法创造价值的同时,也会伴随很多风险,过度的数据收集、高度复杂的算法自动化决策行为给个人、社会乃至国家安全都带来了巨大的挑战。在数字经济时代,谁首先实现了数据的有效治理,谁就掌握了信息全球化的主动权和话语权。因为我国立法规制的现状赶不上科学技术进步的步伐,所以,如何通过科学的立法与制度设计,改善现行法律与产业发展的关系,是我国对算法识别进行法律规制面临的巨大挑战。根据其他先进国家的立法现实与国内外的新型案例,我们需要用前瞻性的眼光对现在和未来做出有预期的规划,既不能一味地照搬国外的法律规范,也不能任由数据识别算法为所欲为。对待异域制度,要看到条文背后所隐藏的作用机理,结合我国社会主义市场经济的现实情况构建监管规制。对待数据识别行为,既要以监管来进行规制,又要发挥其积极作用。将数据识别对个人的损害引入《反垄断法》的规制中,以明确数据保护规则的适用范围,并且让监管规制涉入消费者个人数据利益保护机制。只有建立合理的互联网企业监管机制,才能使互联网市场的竞争实现良性循环,既促进科技的发展,又使个人的既得利益得到有效保障,形成国家、社会、企业和个人对数据共同治理的美好愿景。

参考文献:

[1] WILSON R A, KEIL F C. The MIT Encyclopedia of the Cognitive Sciences[M].Cambridge,MA:MIT Press,1999:629-632.

[2] 韩伟.算法合谋反垄断初探——OECD《算法与合谋》报告介评:上[J].竞争与政策研究,2017(5):112-121.

[3] EZRACHI A,STUCKE M E.人工智能与合谋:当计算机抑制了竞争[M]//焦海涛,译.韩伟.数字市场竞争政策研究.北京:法律出版社,2017:340-364.

[4] 钱大力,黄凯.算法与定价——数字时代的反垄断合规问题初探[EB/OL].[2018-07-23].http://news.tuxi.com.cn/newshtml/newsj/206466975fnews740476.html.

[5] KRAEMER F, OVERVELD K, PETERSON M. Supra Note2[M]//PASQUALE F. The Black Box Society: The Secret Algorithms That Control Money. Cambridge,MA:Harvard University Press,2016:251-260.

[6] 丁晓东.算法与歧视——从美国教育平权案看算法伦理与法律解释[J].中外法学,2017(6):1609-1623.

[7] 腾讯集团数据及隐私保护中心.2017个人信息隐私保护十大事件(国际版)[EB/OL].(2018-01-18)[2018-07-23].http://www.tisi.org/4992.

[8] Gartner权威发布:全球网络安全产业规模发展情况及趋势预测[EB/OL].(2018-04-02)[2018-07-23].http://www.freebuf,com/articles/paper/167137.html.

[9] 许光耀.价格歧视行为的反垄断法分析[J].法学杂志,2011(11):21-24.

[10]JONES A, SUFRIN B. EC Competition Law,Text,Cases,and Materials[M].3rd.Oxford:Oxford University Press,2017:441.

[11]张新宝.从隐私到个人信息:利益再衡量的理论与制度安排[J].中国法学,2015(3):38-59.

[12]凯文.技术元素[M].凯利,张行舟,译.北京:电子工业出版社,2012:56.

[13]张欢,文铭,汪友海.从 Facebook 数据滥用事件谈个人信息法律保护[J].重庆邮电大学学报(社会科学版),2018(6):62.

[14]BEN-SHAHAR O, CHILTON A S. Simplification of  Privacy Disclosures:An Experimental Test[J]. Journal of Legal Studies, 2016(45):S41.

[15]吳伟达.反垄断法视野中的价格竞争[M].杭州:浙江大学出版社,2005:45.

[16]叶高芬.认定违法价格歧视行为的既定框架及其思考[J].法商研究,2013(6):113-121.

[17]钟晓玲.完善反垄断法中价格歧视行为法律规制建议[J].中北大学学报(社会科学版),2016(3):52-60.

[18]CAVOUKIAN A. The 7 Foundational Principles Implementation and Mapping of Fair Information Practices[EB/OL].(2016-06-07)[2018-08-10].https://gpsbydesign.org/the-7-foundational-princides-implementation-and-ma-pping-of-fair-information-practices/.

[19]黎建辉,沈志宏,孟小峰.科学大数据管理:概念、技术与系统[J].计算机研究与发展,2017(2):235-247.

[20]张玉宏,秦志光,肖乐.大数据算法的歧视本质[J].自然辩证法研究,2017(5):81-86.

[21]75% of data will be “unusable” following [EB/OL].(2017-08-14)[2018-07-23].http://www.research-live.com/article/news/75-of-data-will-be-unusable-following-gdpr/id/5026352.

[22]Changes to our ad policies to comply with the GDPR[EB/OL].[2018-07-23].http://adwords.googleblog.com/2018/03/changes-to-our-ad-policies-to-comply-wi-th-the-GDPR.html.

[23]Dutch DPA privacy policy Google in breach of data protection law[EB/OL].(2013-11-28)[2018-07-23].http://autoriteitpersoonsgegevens.nl/en/new/dutch-dpa-privacy-policy-google-breach-data-protection-law.

[24]Facebook最新版隐私政策[EB/OL].[2018-07-23].http://www.facebook.com/privacy/explanation.