算法环境下用户隐私权的控制与规制
2021-01-31郑海霞
□ 郑海霞
媒介“算法”(Algorithm)的出现重塑了整个新闻业的生态环境,并深入到新闻生产的多个环节之中,对新闻从业人员及用户都产生了巨大的影响。从用户角度来说,这些基于算法进行信息推送的新闻聚合类平台可以“懂”自己的兴趣并进行精准推送,减少了自己搜索相关信息的时间。但对于这些“越来越懂”自己的APP,用户也感受到了恐慌。大数据时代,用户的数据被暴露在互联网中,“隐私”一词离我们似乎越来越远,但“隐私权”一词却越来越多地被提及。
一、媒介算法的隐私侵犯及后果
算法对用户隐私权的侵犯包括信息收集以及信息推送两个方面,它所造成的危害不仅仅是个人层面,也包括群体层面。
(一)信息收集:用户数据的泄露
目前算法的信息推送机制主要包括三类:一是用户画像算法,二是协同过滤推荐,三是类似于传统排行榜式的推荐。不管是基于哪种机制进行的信息推送,首先都要收集用户信息,这就必然涉及对用户数据的利用,但是这些信息的收集是否都征得了用户的同意?现在很多的APP都存在着“不开权限进入困难”的现状,有时用户明明知道点击“允许”选项会造成什么后果,但依旧会选择“允许”。这一方面是为了减少后续使用该APP的麻烦,另一方面用户可能存在“我现在已经没有任何隐私,已经不怕再多这一个”的心理,可见现在用户的信息数据在算法环境下已几乎被全然收集。
(二)千人千面:个性化信息的推送
实现新闻的个性化推送,首先是收集信息,对用户的喜好进行分析总结,绘制出用户画像,然后计算出每条新闻与用户画像的相似度,将相似度最高的新闻推荐给用户,从而达到个性化推送的效果①。基于算法的信息推送改变了传统的“统一推送”,它对用户画像的动态描述做到了千人千面,使推送到用户面前的信息能够精准匹配用户的需求。单从这一方面来看,“算法推荐”式的新闻传播重视每一个用户不同的“长尾需求”,进一步增加了用户黏性。但是另一方面,“懂”用户的算法只推送用户喜欢的信息,“窄化”了用户的信息面,将对用户产生怎样的影响。对用户自己所处的群体产生怎样的影响,也是我们需要考虑的。
(三)信息茧房:群体极化的加深
算法推荐使得用户只接收自己感兴趣的内容,将其余信息排斥在外。久而久之,具有相同兴趣的用户聚集在了一起,使社会被分割成一个一个小的群体。群体成员之间存在着相近的兴趣与看法,久而久之,群体向着极端化方向发展。
算法对用户信息的极致利用使用户的数据被发挥了最大程度的“价值”。算法压榨用户信息价值的背后,是对公民隐私权的侵犯。在部分用户沉溺于算法给他们带来便利的同时,也存在着多数用户对算法侵犯他们的“隐私权”方面产生深切的担忧。针对算法对隐私权的控制,该采取怎样的措施进行规制?现在已有的“删除权”是否能够对此产生有效的作用?
二、删除权——保护隐私权的初步规制
“删除权”的说法一直存在,但它删除的到底是什么?从何而来?对用户隐私权的保护是否切实有效?这些都需要进一步探讨。
(一)“删除权”的渊源
2016年11月,全国人大常委会三审通过并经国家主席颁布的《网络安全法》正式确认了个人对其网上个人信息的“删除权”:“个人发现网络运营者违反法律、行政法规的规定或者双方的约定收集、使用其个人信息的,有权要求网络运营者删除其个人信息。”这一权利的形成有着深远的国际背景,或称“被遗忘权”(Right to be forgotten)②。
“被遗忘权”的概念最初形成于个人信息保护传统悠久的欧洲。1995年,欧洲通过的《数据保护指令》(又称“95指令”)中有关于“公民可以在其个人数据不再需要时提出删除要求,以保护个人数据信息”的规定。2009年,英国学者维克托(Victor)首次提出“被遗忘权”概念。2012年,欧盟《一般数据保护条例》(General Date Protection Regulation,简称GDPR)草案正式规定“被遗忘和删除的权利”(Right to be forgotten and to erasure),“被遗忘权”概念的内涵与外延逐渐清晰,并在2014年欧洲法院关于“冈萨雷斯诉谷歌公司案”的终审判决中得到司法层面的适用与确立。直到2016年4月,几经沉浮的《一般数据保护条例》最终在欧盟执委会通过,但欧盟执委会将第17条“被遗忘和删除的权利”精简为“删除权”③。
由此可以看出,针对目前对个人的信息保护,用“删除权”一词而非“被遗忘权”可能更为恰当。从“被遗忘权”到现在的“删除权”,我们可以看到,不论是西方各国还是中国对用户的数据保护,都一直在进行着法律法规方面的探索,但是“删除权”是否真的能够有效保护数据隐私也令人生疑。
(二)“删除权”的现实可行性
“删除权”是为了保护个人及其网络信息而制定的,它确实会对网络运营者基于算法对用户数据的使用起到一定的制约作用。但深入分析其条例的阐释,可能就会得出并不确切的结论。
《网络安全法》中有这样的表述:“个人发现网络运营者违反法律、行政法规的规定或者双方的约定收集、使用其个人信息的,有权要求网络运营者删除其个人信息。”从并列关系的第一部分——“个人发现网络运营者违反法律、行政法规的规定”这点来看,算法对个人信息收集与使用的边界在哪?目前并没有相关的法律条文做出明确的规定,因此算法信息收集的“红线”不明,无法可依便无法追责。针对第二部分——“个人发现网络运营者违反双方的约定收集、使用其个人信息的”这点来看,各大APP基本上都有“用户隐私保护协议”的签订,但其中存在的“不开权限进入困难”的矛盾,使得用户陷入两难,多数情况下基于对APP的必须使用的现实情况,用户会同意将自己的信息让渡给各大平台。从表面来看,这是网络运营者和用户之间签署的平等协议,但不难发现各大平台各种限制进入的条件,使用户不得不“出卖”自己的“隐私”以换取平台的使用权。
综上所述,算法带来的隐私权侵犯确实迫切需要“删除权”的维护,但应该对“删除权”做进一步的阐述,其中牵涉的算法信息收集“红线”也应做出明确的说明及规定。此外,算法中的隐性规定也要进行进一步的管制以确保“删除权”更加有效实施。“删除权”目前所存在的局限性,迫切需要更多其他措施的加入来对算法造成隐私权的侵犯进行规制。
三、保护隐私权的多重规制
对用户隐私权的保护,无论是对算法技术本身、作为信息接受者的用户,还是对拥有算法的网络运行商来说,都有着非常重要的作用。
(一)源头:优化算法
表面上看,算法是中立的技术,但算法是由人设计的,不可避免地要服务于设计者的价值追求。只有从源头抓起,优化算法,才能够使算法更好地服务用户,而不是单纯地服务于算法拥有者的价值追求,进而侵犯用户的隐私权。
1.人性化推送。现在的算法虽然以其强大的数据存储及计算能力对用户进行精准化推送,但是从它仅从用户网络的点击、浏览便加以固化用户的需求爱好这点来看,算法不免显得呆板。对于这个问题,学者彭兰的一段表述可以给我们一点启发性思考:“一些媒体在探索社交机器人在新闻传播中的应用,它们将某些新闻的获取和阅读过程变成一个互动对话过程,通过机器人与用户的对话,来了解用户的阅读偏好,进而推荐相关内容。”④对于未来可能实现的人机对话技术,笔者觉得可以做到进一步询问用户是否保留对他们数据的抓取,将对用户隐私的利用变成一种可对话协商的过程。当用户在网上检索信息后,可由用户自己选择是否允许保留刚才所进行的数据检索信息,用户若不允许保留,系统则自动进行“格式化删除”,切实做到不留信息。当然,这不是仅仅做到技术上的优化便可成功,它背后所牵涉的“利益”问题很难解决,但在“人权”越来越受重视的现代社会,它的实现并不是没有可能。
2.定时清零。现在打开浏览器,我们可以看到有一个“无痕浏览”的选项。但是在这个算法肆行的大数据时代,“无痕浏览”也只是浏览器所呈现出来的表象,用户的浏览数据依旧会被算法记录,所谓“无痕浏览”仅仅只是浏览器页面对用户浏览记录的隐藏。要想真正保护用户数据,未来的算法可以设置一个“定时清零”的功能。给用户选择权,设置选择定时删除个人网络信息的保留时间,当然,这不仅仅是让算法做到对用户信息的表面删除,而是让它在整个互联网信息网中被删除。这个功能的实现并不遥远,“无痕浏览”的存在便说明了这个可能性,不过如何在用户和网络运行商之间寻找到较佳的“平衡点”来达到较好的优化算法,是目前需要解决的问题。如果这个功能可以实现,用户隐私权将得到进一步保护,也可以规避上文所说的信息茧房及群体极化的加深。
(二)中端:规范APP之间的算法数据共享
现在网络上的数据共享行为不规范,缺乏各项约束措施。“大数据技术推动了APP的深度发展,数据的交易和共享应在明示并获得用户同意的基础上进行。有的用户数据共享行为未向用户明示;有的未经用户同意转移用户个人信息。有的APP在用户拒绝同意的情况下,依然转移用户数据至第三方;有的APP未对第三方数据共享行为进行安全评估,无法保障所共享用户数据在第三方使用时的安全。”⑤用户经常深受同类信息的“跨界”侵扰,比如用户在淘宝里搜索了一个品牌口红的信息,不出意外,当这个用户打开抖音平台的时候,他一定也会刷到抖音平台对该口红的推送,其他平台也同样如此。
因此,应不断完善企业内部的个人信息保护和数据管理制度,有效限制各类APP之间的数据共享,进一步保护用户隐私。除了企业内部需要完善制度,相关法律法规的制定也必须提上日程。企业基于“有利可图”,彼此之间才一直进行亲密的数据共享。因此,要想企业自觉制定用户信息保护制度并不实际,国家应该针对企业之间的数据共享行为制定明确的条例,约束APP之间的数据共享,以切实保护用户隐私。
(三)末端:提升用户的媒介素养
媒介素养延伸到算法上,就是用户需要具备的算法素养。传播学者吴飞提出了“新闻专业主义2.0”的想法:“未来的新闻专业主义,将不再是一种行业性的专业精神,而是所有参与新闻传播活动的个体普遍需要遵守的交往信条和基本精神。”⑥这就将新闻专业主义精神从以往仅限于专业的新闻工作者扩展到了每一位用户。在现在用户受教育程度迅速提升的大数据环境下,想要实现“新闻专业主义2.0”也并不是遥不可及。用户不但需要具备分辨媒介推送信息优劣的能力,还需要对算法通过抓取我们的数据所进行的个性化信息推送有着理智的认识,使头脑保持清醒,避免自己进入信息茧房,从而造成自身观点的极端化。
在算法侵犯自身隐私权时,受众似乎显得被动和无能为力。但是,用户可以根据现行法律法规赋予其对网络运行商的监督权、投诉权维护自身的合法权益。当自己的隐私信息被暴露在网络上时,用户可以主动寻求相关的法律帮助。对于隐私信息暴露造成的名誉损害以及相关方面的伤害,必要时用户可以要求合理、适当的赔偿。只有用户齐心协力,重视自身的隐私权,并主动寻找相关帮助,而不是一味地听之任之,网络运行商才会有所畏惧,重视对用户隐私权的保护。当然,用户的努力也只能对网络上显性的“数据泄露”进行维权,对于算法所暗藏的隐私侵犯依然会有些力不从心。因此,上文提及的源头以及中端上对算法侵害隐私权的规制应该引起相关人员的重视并尽早贯彻实施,只有这样,用户的维权才能切实可行。
四、结语
本文基于算法对用户隐私权的控制过程以及对它采取的规制措施提出了看法。现有的“删除权”对用户隐私的保护有着很大的局限性。未来,用户地位逐渐提升,隐私权将越来越受重视。进一步保护用户的隐私权,需要用户、网络运行商、社会、国家的多重努力。
注释:
①张潇潇.算法新闻个性化推荐的理念、意义及伦理风险[J].传媒,2017(11):82-84.
②李兵,展江.美国和欧盟对网络空间“被遗忘权”的不同态度[J].新闻记者,2016(12):63-70.
③周冲.个人信息保护:中国与欧盟删除权异同论[J].新闻记者,2017(08):71-79.
④彭兰.智媒化:未来媒体浪潮——新媒体发展趋势报告(2016)[J].国际新闻界,2016(11):6-24.
⑤宁华,王艳红,王宇晓.APP个人信息安全现状问题及应对策略[J].质量与认证,2020(04):33-35.
⑥张香萍,李军.新闻算法推送的困境、出路与展望[J].编辑之友,2019(04):86-90.