非可识别个人数据流通法律规则的理论构建
2020-09-02陈子朝
摘 要:我国目前缺乏个人数据流通规则,立法和理论研究更集中在数据权利、数据归属等方面,对数据流通关注不足。为了促进数据更好的流通以发挥其价值,有必要通过匿名化技术来解决数据流通中的隐私保护问题。但是,匿名化技术的不完美性,使得基于结果的匿名化标准无法发挥其作用,因此需要建立一种基于过程的匿名化规则。这种规则更接近于数据安全规则,注重于匿名化处理过程中不同环境下的风险评估,通过一系列考量因素确定一种动态的匿名化标准。满足这一标准的个人数据被视为不具有可识别性,可以不经用户同意而流通,但数据控制者必须在流通过程中持续监督匿名化效果,一旦发生隐私泄露危险将依据过错承担责任。
关键词:数据流通;匿名化技术;数据安全
中图分类号: TP309.2 文献标识码:A
Abstract: There is a lack of rules for the circulation of personal data in China. The legislation and theoretical research are more focused on the aspects of data rights and data ownership, and insufficient attention is paid to the circulation of data. In order to promote the better circulation of data and give full play to its value, it is necessary to solve the privacy protection problem in data circulation through anonymization technology. However, due to the imperfection of anonymization technology, the result-based standard of anonymity cannot play its role, so it is necessary to establish a process-based rule of anonymity. This kind of rule is more similar to the data security rule, which focuses on the risk assessment in different environments during the anonymization process, and determines a kind of dynamic anonymization standard through a series of factors. Personal data that meets this standard is deemed not identifiable and can be circulated without the consent of the user. However, the data controller must continue to monitor the effect of anonymization during the circulation process, and will be liable for any risk of privacy disclosure based on fault.
Key words: data circulation; anonymization; data security
1 引言
在大數据时代,信息技术与经济社会的交汇融合引发了数据迅猛增长,数据已成为国家基础性战略资源,大数据正日益对全球生产、流通、分配、消费活动以及经济运行机制、社会生活方式和国家治理能力产生重要影响。个人数据已经成为企业甚至国家经济命脉的重要部分,其在不断的流通中逐渐被发掘出其中的价值。
随着个人数据经济价值的不断发掘和利用,个人数据权益的保护问题也随之而来。2012年全国人大常委会通过的《关于加强网络信息保护的决定》宣布,国家保护能够识别公民个人身份和涉及公民个人隐私的电子信息,由此开启了我国个人数据保护的立法之路。放眼国际,欧洲的个人数据保护法是在公法,或者更确切地说,是在宪法的背景下发挥效力的,其主要目标是在涉及个人数据的处理业务范围内保护个人隐私和自由。而美国将个人数据进行保护置于隐私权的框架下。
隐私控制是自由自治原则的产物,该原则置个人于个人数据使用的核心位置,通过个人管理个人数据和个人决定信息使用来实现信息自治。无论立法基础为何,对个人数据保护均与隐私保护有着密不可分的关系。由于个人数据的“可识别性”导致了个人数据的泄漏会引发个人隐私危险,保护隐私信息在发布或者使用的时候,不被识别出来的安全数据发布机制的研究已成为研究热点。匿名化技术便是一种隐私保护的有效方法,自Samarati和Sweeney首次提出匿名化概念之后,该技术得到了广泛的关注。匿名化技术能够破坏个人数据与数据主体之间的联系,从而有效地保护数据主体的隐私。
在数据流通方面,各国也针对技术手段的各个处理过程制定了相关的规则,从而形成了体系化的个人数据流通规则。其中,欧盟于2017年发布了《非个人数据自由流动框架条例》(以下简称《框架条例》),与《一般数据保护条例(GDPR)》共同构建了较为完善的个人数据流通规则框架。反观我国,具体完善的规则体系还未建立,《中华人民共和国网络安全法》(以下简称《网络安全法》)第四章网络信息安全部分是为数不多针对数据流通中个人数据安全的法律规则。此外,法院通过“新浪微博案”提出的“三重授权”原则,系针对第三方应用通过开放平台获取用户信息时应遵循的原则。该原则要求数据接收者在接收数据时既要获得数据提供方企业的同意,同时也要获得用户的同意。这种宽泛的“三种授权”原则,为数据控制者和接收者施加过多的负担,不利于数据的自由流通及数据价值的发掘,因此在理论界颇有争议。
在此现状之下,完善我国个人数据流通规则体系已刻不容缓。本文旨在分析解读欧盟的个人数据流通规则,明确个人数据与非个人数据的边界和转化标准,并结合理论观点构建更有效和可操作性的个人数据流通规则,在此基础上为我国的个人数据立法提出立法建议。
2 “非可识别个人数据流通规则”
《一般数据保护条例(GDPR)》与《非个人数据自由流动框架条例》是目前欧盟数据保护规则体系的两大基石。前者针对“个人数据”(Personal Data),后者适用于“非个人数据”(Non-personal Data)。两条例根据个人数据的可识别性与否将个人数据保护规则划分为两个部分,这种划分方式也是目前世界各国数据保护法的主流做法。显然,两部分的边界由“个人数据”所决定,但这个边界并非封闭的。匿名化技术能够实现个人数据向非个人数据的转化,成为连通两部分的桥梁。
2.1 个人数据与匿名化
欧盟对个人数据保护的立法工作始于20世纪,而个人数据的概念却并未发生过大的变动。1981年《有关个人数据自动化处理的个人保护协定(欧洲理事会)》在第2条中将“个人数据”定义为“与已识别或可识别的个人(数据主体)相关的任何信息”。1995年欧盟《数据保护指令(DPD)》将“个人数据”定义为“任何与已识别的或可识别的自然人有关的信息”。
由于数据处理技术的不断发展,尤其是进入大数据时代以后,能否识别个人身份的信息的边界也越来越模糊,许多传统概念上无法识别个人身份的信息,经过技术手段的处理后,也能够准确识别到个人用户。因此,“可识别性”已经不仅包括能够单独或直接识别个人身份的信息,对这一现状的应对也体现在各国的定义之中。2016年欧盟在DPD等基础上制定的GDPR也基本沿袭了这一定义,但在其后加入了“姓名、身份证号码、定位数据、在线身份识等”的列举,对该定义进一步完善。
与此同时,匿名化规则也随着个人数据保护立法的发展而不断完善。自1995年的DPD开始,欧盟就对个人数据和匿名化数据的保护进行了区分。DPD在序言中指出,“数据保护原则不应适用于匿名信息,即与已识别或可识别的自然人无关的信息,或与以数据主体无法识别或不再可识别的方式匿名的个人数据無关的信息。”同样在该段中,DPD通过一种基于风险的方式确定了“可能且合理(Likely Reasonably)”标准对匿名化进行评估:在确定某个人是否能够通过该信息被识别时,应当考虑所有可能且合理的手段。其中,“可能”针对实际中采用该识别手段的可能性,“合理”针对该采用手段的难度。
2014年,29条工作组发布的《匿名化技术意见》(以下简称《意见》)在欧盟层面对匿名化技术从法律和技术两方面做了详尽的规定。29条工作组是根据欧盟95 /46 / EC法令的29条的规定所设立的,是一家旨在解决数据和隐私保护问题的独立咨询机构。
《意见》提出了匿名化检验的“三步法”:(1)是否仍能够(从该数据中)选出某个人;(2)是否能够(通过该数据)链接到某个人相关的记录;(3)是否能(从该数据中)推断出与某个人有关的信息。同时《意见》强调需要在匿名化过程中考虑环境因素,例如数据的性质以及任何限制对数据访问的信息披露控制机制,还建议应根据个案情况选择使用提到的不同匿名化手段。然而,《意见》要求合格的匿名化为一种不可逆的过程引起了一些争议,这也表明《意见》没有完全从基于风险的视角看待匿名化的过程,而是更加注重于匿名化的结果。
在随后的GDPR中沿用了DPD的观点,同样将匿名化数据排除在规制范围外,同时还明确引入了假名化的概念,据此进一步强化了对匿名化过程不可逆的要求。假名化被定义为:以该方式处理个人数据,使得在不使用附加信息的情况下,个人数据无法指向特定数据主体,但前提是此类附加信息应单独保存,并受技术和组织措施的约束,以确保个人数据不会指向已识别或可识别的自然人。同时,GDPR序言中明确指出,假名化后的数据无法单独识别到具体数据主体,但仍属于个人数据的范畴。因为虽经过假名化处理,数据控制者仍持有能够重识别该数据的“密码”。
可见,GDPR同样为匿名化赋予了非常高的标准,只有无法被重识别的数据才能满足这一要求。当然,也有反对观点认为,如果重识别的密码被安全保管,且假名化的算法不会被轻易破解的,则不应当一律认为达不到匿名化数据的标准,这一标准过于苛求完美。
2.2 欧盟非可识别个人数据流通规则
个人数据一旦经过符合GDPR标准的匿名化处理后,便不存在个人隐私方面的风险,成为非个人数据中的一种,因此其流通相较来说自由得多。与个人数据相比,非个人数据的流通无需经用户同意,且无需保证用户在个人数据流通过程中享有的各项权利。《框架条例》主要为非个人数据的流通提出了三方面的要求。
一是保障非个人数据的跨境自由流动。新规则为整个欧盟的数据存储和处理设置了框架,禁止数据本地化限制。如果成员国认为含有数据本地化的要求因公共安全为由而需继续有效,则应当将该措施报告欧盟委员会,并说明理由。该要求对GDPR的适用没有影响,因为它不包括个人数据。在混合数据集中,在能区分个人数据于非个人数据的情况下,分别使用两条例;无法区分的,优先适用GDPR的有关规定。
二是加强政府监管。《框架条例》中强调了消除数据本地化的要求,并规定不得因数据处理行为发生在另一成员国而拒绝监管机构调取数据的合法要求。此时,监管机构可以采取强制措施调取有关数据,例如要求获取留存在相关成员国的系统描述信息。有义务向监管机构提供数据的自然人或法人,应当依法及时有效地向监管机构提供上述数据,而不论数据的处理行为是否发生在其他欧盟成员国;没有依法履行数据提供的义务,有关主管机构可以要求其他成员国协助调取。这些措施是为了加强欧盟机构对数据流通过程的监管,消除执法过程中的障碍。
此外,《框架条例》还要求成员国应确保数据服务提供商能够识别并采取适当、相应的技术和组织措施,以管理他们所使用的信息系统及网络的安全风险。前述措施应确保安全级别符合已有的风险,并应当考虑系统和设施的安全性,紧急事件处理,业务连续性管理等因素。在数据安全的具体规则上,欧盟及各成员国的相关数据安全法律法规仍可适用。因此,《框架条例》并未将数据流通完全自由开放给用户和行业自我监管,相反在数据安全方面加强了政府层面的管控。
三是鼓励数据流通行业标准的设立。《框架条例》引入了“专业用户”的概念,并明确指出数据传输的详细信息和操作要求,应当由市场参与者通过委员会的自律、鼓励、促进和监管来进行规定。《框架条例》还要求,在正式通过后的12个月内,云服务行业应拿出“行为准则”,该“行为准则”应当是全面的并且至少应当涵盖数据传输过程中的重要方面。“行为准则”还应当明确供应商锁定不是可接受的商业惯例,应当提供增加信任的技术,并且应当定期更新以保持与科技同步发展的步伐。同时,《框架条例》要求欧盟委员会应当保证在整个“行为准则”的形成过程中,包括中小企业协会、初创企业、用户和云服务提供商等在内的所有利益相关者均有参与机会。而且欧盟委员会应当对“行为准则”的发展和实施的有效性进行评估,以决定是否继续给予行业这样的自由度,或者何时自己就该出手。
总的来说,欧盟通过可识别原则为个人数据划定了一个广大的范圍,同时通过严苛的标准,将个人数据通过匿名化脱离规制范围的可能性明显降低,将个人数据与非个人数据之间的桥梁设置为“单行道”。然而,正如Ohm所言,个人数据可以发挥其巨大价值也可以被非常好地匿名化,但二者不可兼得,个人隐私保护和信息安全在一定程度上是与个人数据流通矛盾的。这种体系虽然强化了对个人隐私的保护,但也为数据控制者施加了沉重的负担,同时限制了数据的流动。
然而,随着完美的匿名化已被公认不可能存在,匿名化技术逐渐“走下神坛”。欧盟的匿名化标准在实践中难以真正实现,同时导致一些数据控制者借助劣质的匿名化逃避法律责任,实际加大了数据流通中个人隐私损害的风险。理论界在匿名化技术上有较大的争议,对欧盟这种偏重匿名化结果的立法方式也有反对声音。
3 基于风险控制的匿名化数据流通理论规则的构建
匿名化在很长一段时间被看作是保护隐私的最佳手段,然而近20年来越来越多研究发现,即使从已经“匿名化”的数据中也有可能识别出单独个人,因此各界围绕着匿名化技术展开了激烈的争论。Rubinstein和Hartzog将争论者们分为实用派与形式派。实用派通过对实践结果进行分析,主张重识别攻击发生概率很低。他们认为用于重识别的辅助信息很难获得,且虽然重新识别到数据主体是唯一的,但是无法指向任何实际存在的个人。而形式派在定义隐私、建模攻击者和量化重新识别的可能性方面坚持严格的数学方法论证,主张匿名化已经失去价值。他们认为对匿名化技术有效性进行量化的做法是,“通过假设攻击者可能采取的模型而错误的提升了匿名化的安全系数”。
无论重识别攻击在实践中发生概率有多少,匿名化的不完美性已经成为共识。但在目前的技术下,匿名化依然是个人隐私保护和数据流通中不可或缺的技术。因此应当结合匿名化技术的特点,建立能发挥其优势、弥补其不足的数据流通规则模式。
3.1 借鉴数据安全规则,制定基于风险控制的匿名化标准
欧洲的数据保护法是在公法,或者更确切地说,是在宪法的背景下发挥效力的,其主要目标是在涉及个人数据的处理业务范围内保护个人隐私和自由。个人数据保护涉及保障人的尊严问题,因为需要防止个人在个人数据处理中被仅仅视为客体对待。这种传统的个人隐私保护是以他人行为对个人造成损害为前提。而隐私法中的“损害”本身就是一个有争议的概念,在个人数据领域就显得更为模糊。Rubinstein和Hartzog在其文章中问道:如果黑客盗取了某个人的个人数据并销售到黑市上,是否对这个人造成了损害?如果这个人没有损失财产,是否仍造成了损害?如果该信息仅被用来制作了错误的用户画像,以致推送的用户定向内容不符合个人喜好,是否造成了损害?因此,在“损害”无法明确范围的情况下,重识别是否发生以及损害结果都难以准确界定,隐私保护难以与数据流通过程中的个人数据安全保护完全契合。
在这种损害发生风险不确定的情况下,数据安全规则能够很好地发挥其效力。数据安全规则的特点在于,它注重于过程、考虑不同环境下的情况、且容忍风险的发生。在策略层面,数据安全被认为是不断识别风险的过程。尽量减少数据收集和保留;制定和实施政策、技术和物理保护措施,以防止数据泄露;如果确实发生违规的情况,则制定应对计划。数据安全规则在匿名化技术方面的体现两个方面。
一是匿名化标准应当容忍风险存在。“没有完美的安全措施”这一观点为数据安全领域所公认。匿名化技术既然无法保证其结果的稳定性和有效性,那么唯有针对处理过程中的各种风险设定合理标准,才能尽量提高匿名化技术的可靠性。
二是匿名化标准应当因环境而异。数据安全水平取决于数据的敏感性、公司业务运营的规模和性质以及公司面临的风险类型等诸多因素。同样,匿名化处理的过程需要考虑数据的类型和敏感水平、重识别攻击者动机和技术手段、攻击可能造成的损害类型、数据控制者对匿名化维护的能力等因素。这些因素是无法穷尽的,任何能够识别和减少重识别风险的因素都应被考虑在内,这将导致一个细致全面的稳定规则体系会很快过时。因此,数据流通规则应当是与环境变化相关,同时与行业标准相结合。行业标准定期更新的特点,能很好地契合数据安全规则的特性,且结合行业规则的安全规则已经在实践中证明了其有效性。
3.2 改变“分发-遗忘”的旧模式,加强匿名化数据控制
前述欧盟匿名化技术的规则是采取了类似隐私保护的方式,在个人数据与非个人数据之间设定了固定的边界,没有考虑到不完美匿名化带来的后果。也正是如此,《框架条例》中没有为非个人数据中的两种类型的数据—本身与个人无关的数据与经匿名化处理的个人数据分别制定不同的规则。而事实上,由于重识别风险的必定存在,单纯依靠一次性“分发-遗忘”的匿名化无法保证数据在后续流通过程中的隐私安全。Ohm在他极具影响力的文章中批判了这种传统的匿名化模式,因为去识别化技术存在着与生俱来的缺陷。这种不完美的匿名化会使得隐私损害在数据重识别过程中变得更加严重。“分发-遗忘”模式有其优点,但是对于非个人数据,放弃数据控制的好处不会超过其代价,最著名的重新识别攻击都涉及“分发-遗忘”数据集。
采用传统的匿名化模式的结果是,为了在数据流通过程中着重风险控制,必须尽量减少数据公布。而当数据控制者失去控制权时,评估数据重识别风险要困难得多。因此,一种合理的解决方式是最小化或消除传统的“分发-遗忘”模式,加强数据控制者在数据流通过程中的监督义务。对此义务,欧盟条例中虽没有明文规定,但Sophie和Alison Knight给出了证成并提出修法建议。假设前提为匿名化是一基于环境与风险因素的可逆过程,重识别后的数据重新回到GDPR的规制范围内。这时,匿名化与重识别的具体标准只能由匿名化处理时的数据控制者根据实际情况决定。GDPR中定义了“共同控制者”的概念,并在损害赔偿部分规定,共同控制者承担连带责任,且一方可向有过错的一方追偿。为了能够判断数据的重识别是否发生、数据接收者是否存在过错以及责任分担的比例,给数据控制者施加数据分发后的持续监督义务是合理的。
除通过法律向数据控者施加强制监督义务的方式外,Robert Gellman还提出了通过数据使用协议为数据接收者设置义务的方式。Gellman在其文章中起草了一份“个人数据去识别化法案”,旨在平衡数据控制者、数据接收者及数据主体三方的利益。该法案对数据使用协议中双方的义务进行了构想。数据接收者应承诺不实施或尝试实施重識别,并采取合理措施防止关联方实施新识别;应不进行超过合同范围的数据使用及进一步披露;应设置合理的安保措施以对数据进行保密,包括物理措施、技术措施、管理措施等;当重识别发生时,应立即通知有关部门、数据控制者和相关用户。数据控制者要保持对数据的控制和监督,应在重识别发生时立即通知有关部门和用户,并暂停进一步的数据披露。一旦违反了上述义务,一方可以通过合同追究违约方责任;如果发生严重的隐私泄漏事件,还会涉及行政或刑事责任。虽然一方通过合同授权另一方使用其数据可能涉及数据权属这一颇具争议的问题,但在不考虑这一点的情况下,该方式至少能够使数据控制者在数据流通后进行后续监督,这在一定程度上能够降低数据流通过程中的风险。且如能起草和执行得当,该协议不会给数据接收者带来过多负担。
4 结束语
我国《网络安全法》第42条规定,网络运营者未经被收集者同意,不得向他人提供个人数据,但是经过处理无法识别特定个人且不能复原的除外。可见,我国已经为个人数据流通设置了去识别化的合法基础。匿名化等概念在2018年5月正式实施的《信息安全技术个人数据安全规范》中有明确定义。其中匿名化定义为,通过对个人数据的技术处理,使得个人数据主体无法被识别,且处理后的信息不能被复原的过程;去标识化定义为,通过对个人数据的技术处理,使其在不借助额外信息的情况下,无法识别个人数据主体的过程。“去标识化”并未要求该过程不可逆,但强调无法识别是在不借助额外信息的情况下。可见,“匿名化”的定义与欧盟相同,而“去标识化”则与欧盟“假名化”定义相同。
2019年8月国家质检总局与国家标准化管理委员会发布了《信息安全技术个人信息去标识化指南》(以下简称《去标识化指南》),其中明确了去标识化的重要目标之一是控制重识别风险。与欧盟规则相比,我国已经着重了去识别化过程中的风险控制。2020年1月发布的《信息安全技术个人数据告知同意指南》(以下简称《告知同意指南》),在《网络安全法》的基础上,进一步完善了对外提供个人数据免于告知同意的情形。而与欧盟规则存在区别的是,《告知同意指南》第6条规定,收集已进行匿名化处理的个人数据免于告知同意,对外提供已经进行去标识化处理的个人数据免于告知同意;欧盟则要求经假名化引入处理的信息,也需要满足告知同意或其它合法基础。这种规则设置同样说明,我国并未同欧盟一样要求匿名化处理的不可逆性,也便于进一步建立偏重风险控制的个人数据流通规则。
(1)进一步完善《去标识化指南》
《去标识化指南》详细构建了去标识化技术各项标准,内容形式与欧盟数据保护29条工作组的《意见》比较相似,既包括了法律方面的规制,又详细解释了去标识化的各种技术标准。总的来说,《去标识化指南》中已经明确提到需要通过环境因素等控制重识别的风险,但更多是在去标识化模型和技术的判断选择上,去标识化处理的后续工作并未过多提及。其中,5.6部分规定了监控审查的相关内容,要求在去标识化完成后进行持续监控和定期风险评估,但内容较为原则化,也未有更详细的风险评估标准,内容有待继续丰富。此外,《去标识化指南》主要设定了去标识化过程各环节的标准,没有涉及重识别发生后的危险处理内容,如及时通知监管部门和相关用户、行业内部处理、政府部门执法等方面。同样,这些内容也应当在后续的个人数据流通规则中着重体现。
(2)结合信息安全规则制定去标识化个人数据流通规则
去标识化是最有利于流通的个人数据形式,但也存在着更大的隐私风险,因此在立法中应着重平衡自由流动与隐私保护之间的关系。应明确区分个人数据、去标识化个人数据与非个人数据三个概念的范围与关系。针对去标识化个人数据,除去标识化过程的规则之外,还应当明确个人数据流通过程中数据控制者的监督义务、行业内部的标准制定与监管、政府部门的执法以及隐私损害的救济措施。同时,这些规则应当控制适当限度,避免为数据控制者施加过重的负担,保障信息流通自由。
参考文献
[1] 王波.数据发布中的个性化隐私匿名技术研究[D].哈尔滨:工程大学,2012.
[2] 许娟.互联网疑难案件中数据权利保护的风险决策树模型[J].南京社会科学,2019(03):81-86+107.
[3] 薛其宇.互联网企业间数据不正当竞争的规制路径[J].汕头大学学报(人文社会科学版),2018,34(12):62-68+95-96.
[4] 徐伟.企业数据获取“三重授权原则”反思及类型化构建[J].交大法学,2019(04):20-39.
[5] 高富平.个人数据保护:从个人控制到社会控制[J].法学研究,2018,40(03):84-101.
[6] GB/T 37964-2019,信息安全技术个人数据去标识化指南[S].2019-08-30
[7] Peter Rott.Data protection law as consumer law – How consumer organisations can contribute to the enforcement of data protection law[J]. Journal of European Consumer and Market Law,2017,6(03):113-119.
[8] Latanya Sweeney.Simple demographics often identify people uniquely[J].Carnegie Mellon University Data Privacy Working Paper.2000(03):1–34.
[9] Khaled E E , Cecilia L . A critical appraisal of the Article 29 Working Party Opinion 05/2014 on data anonymization techniques[J].International Data Privacy Law,2015,5(1):73-87.
[10] Stalla-Bourdillon, Sophie and Knight, Alison, Anonymous Data v. Personal Data — A False Debate: An EU Perspective on Anonymization, Pseudonymization and Personal Data[J].Wisconsin International Law Journal,2017:235-247.
[11] Samson Yoseph Esayas. The role of anonymisation and pseudonymisation under the EU data privacy rules: beyond the 'all or nothing' approach[J]. Social Science Electronic Publishing,2016:78-92.
[12] Ohm, Paul.Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization[J].UCLA Law Review,2009,57:1701-2010.
[13] Rubinstein, Ira and Hartzog, Woodrow. Anonymization and Risk[J].Washington Law Review 2016,703:15-36.
[14] Calo, Ryan. The Boundaries of Privacy Harm[J].Indiana Law Journal, 2011,86(3):1131-1135.
[15] Bolognini L , Bistolfi C . Pseudonymization and impacts of Big (personal/anonymous) Data processing in the transition from the Directive 95/46/EC to the new EU General Data Protection Regulation[J]. Computer Law & Security Review,2017,33(2):171-181.
[16] Lee A, Bygrave. Data Protection Law, Approaching Its Rationale, Logic and Limits[M].Kluwer Law Intl,2002.
作者簡介:
陈子朝(1995-),男,汉族,山东青岛人,华东政法大学,在读硕士;主要研究方向和关注领域:知识产权法、个人数据保护。