用户隐私担忧视角下短视频平台的算法治理检视
——以抖音为例
2023-10-27付砾乐张钊丹
路 鹃,付砾乐,张钊丹
(北京体育大学 新闻与传播学院,北京 100084;北京大学 新闻与传播学院,北京 100087;北京工商大学 传媒与设计学院,北京 100037)
一 问题提出:短视频中的隐私担忧
根据北京贵士信息科技有限公司(QuestMobile)统计数据显示,截至2021 年年底,中国移动互联网活跃用户中,短视频用户达9.34 亿。其中,抖音短视频以8.09亿的用户数位居短视频行业第一,短视频作为社交媒体仍处于使用红利期。“去中心化”的短视频平台赋予了普通用户生产和传播视频内容的权利,但随着私人生活在公共平台上被持续放大,短视频中的隐私界限进一步被模糊,滋生出更多隐私泄露的问题。究其原因,包括自然人信息主体对自身隐私泄露可能性的风险评估较低,存在隐私泄露担忧的心理与个人披露隐私行为之间形成的“隐私悖论”,同时,短视频传播内容丰富、传播渠道多元、信息接收碎片化程度高,加大了平台审核的难度。
对规制主体而言,短视频平台的隐私保护政策尤其是针对短视频等视频传播中隐私泄露风险的保护与治理存在界定难、落地难、推进难等现实问题。当前,我国颁布的《网络视听节目内容审核通则》《网络短视频内容审核标准细则》等条例,其治理的焦点仍聚集于审核内容的政治导向、价值导向和审美导向等层面,对于短视频中泄露的隐私信息是否应该删除,以及平台方的删除时限等问题的规定乏善可陈。仅靠用户自觉和政府规制难以实现对短视频平台的全面监管,算法治理在短视频内容审核分发等方面作用巨大。
技术理性本应是工具理性与价值理性的内在统一[1],随着人类技术实践活动的扩展和深化,技术理性内在的矛盾以一种单向度的、异化的形式呈现出来,即工具理性压倒价值理性、技术的价值理性萎缩成极度膨胀的工具理性的单纯附属物[2]。在短视频平台中,强大的数据处理能力能够有效提高隐私侵权等问题的治理效率和精准度,系统通过自动的数据采集、整合分析,可以有效降低短视频平台治理的成本。抖音作为现象级的短视频平台,用户基数大、活动频率高,其隐私泄露问题也更加典型。基于此,本研究从短视频的隐私泄露问题入手,通过对内容生产者与平台监管者进行访谈,研判隐私泄露问题与短视频的技术特征和用户心理的关系,探讨通过算法治理如何有效解决短视频使用中潜在的隐私担忧问题。
二 概念界定与理论回顾
(一)“隐私担忧”的两种理解
因为隐私本身难以被测量,管理学领域的学者引入“Privacy Concerns”的概念来考察公众的隐私态度,通过相关变量来测量隐私[3]。这一词汇对应两种意涵,其一为“隐私关注”。在1968 年,Westin 将隐私关注定义为主观上个人在隐私情境中感受道德公平的程度。后续邻近定义又将它与“公平”“隐私情境”“主观感受”等内容相融合[4]。1996年,史密斯(Smith H.J.)针对网络环境提出了“信息隐私关注”的概念——“由于可能损失信息隐私而引起的用户内在关注”[5]。有学者认为,隐私关注是一种公平程度,是个人针对相应隐私情境的主观感受[6]。迪涅夫与哈特(Dinev&Hart)则根据相关学者的观点将隐私关注定义为消费者自愿或无意向B2C 电子商务网站泄露个人信息后,引发其对信息隐私的关注[7]。网络环境的发展更新了隐私关注的概念,即“在相应的隐私情境中,个人主观感受到的公平程度”[8]。
在网络环境中,隐私被侵犯给用户带来的危机感越发明显。Rifon 等学者将隐私关注定义为一种与隐私泄露和隐私侵害相关联的一系列特殊的信息意识和感知[9],更加凸显出“担忧”的色彩。此为“Privacy Concerns”的第二种理解——“隐私担忧”。例如在广告信息推荐过程中,当网站对消费者的个人信息进行监视、存储和未经授权的使用时,消费者会对无法控制易受供给的个人信息而感到忧虑[10]。当个体遭遇隐私侵害或信息泄露时,自身的隐私担忧会被唤醒或得到提升[11]。用户的隐私担忧受年龄、受教育程度等多重因素影响,用户接触不同媒体时对个人信息保护意识也呈现出差异性——社交媒体的媒介接触频度与其隐私担忧之间存在显著的正相关关系[12]。研究表明,用户信息的隐私担忧会对其使用社交媒体的态度、行为产生负面影响[13],也有研究持相反结论[14],但隐私担忧确实是影响青年网民个人信息披露和隐私保护行为的重要变量[15],网络信息接触对青年网民的隐私担忧和个人信息提供行为具有直接的正向促进作用,但权利保障感知也会间接加剧用户的隐私担忧[16]。这些研究打破了隐私权长期以来沿袭的具体衡量指标,将隐私的语境性和灵活性作为重要参考,更适合我国隐私权研究的路径选择。
(二)短视频:技术对隐私的新挑战
以短小、碎片化的视频内容为传播基础的短视频,不仅降低了个体以媒介化手段建构社会图景、参与社会实践的门槛,也为个体自我书写和形成社会互动提供了更为便利的媒介工具。一方面,无论是单纯的观看,还是“一键三连”——点赞、评论、转发等使用行为,以及制作发布短视频内容等主动分享行为,用户暴露出的媒介使用偏好、行为数据和视频中的可识别身份信息,无形中扩大了自身网络视频环境中可分享的隐私范围;另一方面,社交媒体过度搜集个人隐私信息的现象也同样存在于短视频平台。“大数据便于挖掘和定位,易于对个体进行数据画像,建构关于个体的完整形象,从而使全方位全程监控个体成为可能”[17],而权力技术化和技术权力化的交互影响与叠加,催生了公共权力与经济权力“联姻”而导致的信息宰制[18]。2019年,引起诸多讨论的“深度伪造”短视频存在传播不良、虚假内容的风险[19],这在一定程度上模糊了短视频内容的权责认定边界,增加了侵权追责难度,用户隐私保护成为亟待解决的现实问题。
用户对短视频的隐私关注及应对隐私侵权时的媒介素养,乃是解决这一问题的关键。当用户在短视频平台获得强价值感知时,其对该社交媒体的使用依恋程度越高,自身归属感也越强。除个体的隐私认知水平对隐私担忧程度及类型有直接影响之外,“社交媒介使用者所在的用户群体也对其隐私认知产生影响”[20]。用户对以短视频平台为代表的社交媒体的隐私担忧与其他渠道不同,因为社交媒体鼓励用户披露个人信息,但当隐私担忧成为信息发布的考量因素后,用户会有意识地减少信息披露数量、频率或展示周期[21]。这也表明,在存在人际交往的社交语境里,对隐私泄露的顾虑呈显性化趋势,移动短视频中的人际交往,无形中提高了用户对隐私的关注度[22]。
(三)作为治理手段的“算法”
在以算法为基础的短视频社交平台信息分享过程中,隐私问题的显性化更显示出以算法为治理手段的必要性——为完善平台自治缺陷、弥补用户及监管部门的疏漏提供了更多的路径选择。1984年,美国的《电子监控与人民自由》报告指出,过去20 年间已有约四分之一的部门将“计算机化的系统”用于“执法、调查或情报用途”[23],可见算法作为治理手段自20 世纪60 年代便已有之。其后,聚焦于关键场景算法透明公平的“法律”、趋于共识的算法伦理“规范”和迈向算法可解释的“代码”,贯穿了长达半个世纪的算法治理进程[24]。算法治理的优势在于自动、高效,通过透明度规则、算法伦理法律化和算法验证评估制度确保算法自身的可信度,并采取短期、中期和长期方案稳步推进[25]。人工智能为社会治理提供了数据基础,“治理体系的算法化”开始萌生[26]。通过算法技术将复杂的社会运行体系映射在多维、动态的数据体系之中,持续积累社会运行的数据特征,可实现应对各类社会风险、提升社会治理有效性[27],促使社会治理主体更加主动地防范化解社会风险[28]的目标任务。算法治理虽然涉及诸多领域,但有学者指出,其治理的逻辑起点应回到“技术、人与社会的良性互动关系”上[29];在内容推送的应用上,应建立“以人为本、以影响力为追求、以结构建设为入口、以公共性为底线”的基本价值观[30]。以治理假新闻为例,算法治理可以从“借助算法治理、利用算法治理和依赖算法治理”三个层面展开[31],且前两个层次目前可实现,意味着算法治理的实际应用潜力巨大。
将算法作为社会治理的手段之一近年来渐成趋势。不可否认,算法形式的“有限性、确定性和有效性”与法律的运作形式自有共性[32]。但两者兼容过程中的冲突也不可忽视,如2013 年美国“卢米斯案”,该案为2013 年美国威斯康辛州以五项罪名指控埃里克·卢米斯(Eric Loomis)与拉克罗斯(La Crosse)驾车射击案有关,但因量刑依据了依靠自动化决策的COMPAS 风险评估工具而引发争议,法院依据自动化评估工具COMPAS 对被告卢米斯的量刑判决显示出算法介入法律的四点争议:依据算法量刑的准确性风险——是否符合被告的犯罪事实;透明性风险——算法计算过程中的保密性与法律量刑的公开性之间存在冲突;识别性风险——法官能否识别算法带来的风险;歧视性风险——是否存在对性别或种族等社会身份的不公正量刑[33]。实际上,算法在不知不觉中替代人在信息传播中的把关角色,代替人行使了塑造拟态环境的社会权力,构造了新型的“算法政治”与权力关系[34],并衍生出“算法歧视”问题——面对算法自动化决策中因决策过程不透明和信息不对称对某些群体造成的歧视。如何避免算法黑箱带来的不透明、不公正等潜在风险是算法治理实践中需直面的问题之一。
三 研究设计:对短视频中隐私担忧的测量与分析
短视频的互动性增强了用户的吸引力。尤其是竖屏短视频所营造的沉浸式观看方式和由此产生的近距离“接触”体验,较图文为主的社交媒体更能刺激和调动用户的使用欲望,从而强化用户的自我呈现和用户间的交往行为。然而,这也使用户隐私泄露的成本更低、风险更高、隐私保护难度更大。同时,个人作为权利主体,既是隐私意识的实际感受者,也是隐私权的掌握者。“自决”赋予个人发现自我、管理自我的能力,并将信息所有者的地位提升到与信息控制者和管理者平等的地位[35]。一个“自由的自我意识”需要其他人确定这种“自我”的社会边界,“自决”是社会的产物,是不同社会实践的结果,激励着个人“自决”的实现,对隐私的保护是保持和发展“自决”所必须的[36]。尤其在社交媒体环境中,个人信息“自决”的趋势更为明显,故从用户视角考察其能否直接察觉隐私泄露的程度并有意识地采取保护措施,是短视频隐私保护中绕不开的重要一环,为分析短视频生产与传播中的隐私担忧现状,本文采用深度访谈法来探知用户应对短视频隐私问题的态度与心理。基于隐私计算理论、计划行为理论、信任理论,从风险感知、隐私担忧、隐私保护意识等维度设计访谈内容,探讨抖音短视频用户隐私担忧的影响因素,提升短视频平台用户隐私保护水平。
(一)深度访谈的实施
本次访谈采取线上与线下相结合的方式,依据访谈提纲以及受访者回复内容灵活调整,每次访谈时长大约55 分钟,主要采取面对面访谈、电话访谈等方式进行。重点围绕受访者在短视频平台中的使用行为、隐私意识以及对于抖音短视频平台监管的认知等方面展开。研究者与抖音短视频平台的监管者、算法工程师等群体的访谈主要就算法如何筛选隐私信息、对算法伦理的认知等方面进行具体沟通。本文采用目的性抽样和持续比较的方法确定受访者,并根据账号影响力进一步比较、筛选普通用户和“大V”。访谈结束后,研究者还对访谈对象的抖音短视频账号进行参与式观察,进一步挖掘受访者在访谈中未陈述的细节。
(二)访谈对象基本信息
本次访谈对象共计23 人,其中普通用户13 人(基本信息如表1 所示),抖音短视频“大V”6 人(包括“网红”3 人,“MCN”主管及运营者3 人,基本信息如表2 所示),以及抖音短视频内容审核实习生、平台监管者及算法工程师7 人(基本信息如表3 所示)。受访者年龄在18~45岁之间。
表1 普通用户基本信息表
表2 “大V”(生产者)基本信息表
表3 平台监管者与技术人员基本信息表
在本次访谈获取的13份普通用户样本中,男性6人,女性7人,性别分布较为均衡;年龄集中在20~30 岁之间,经常使用抖音短视频软件。2021 年2月,“巨量算数”数据分析平台公布的抖音短视频用户画像报告显示,抖音短视频平台整体人群中男女较均衡,其中19~24 岁、41~45 岁的男性用户对短视频偏好度高,19~30 岁的女性用户对短视频偏好度高。综上,本次搜集的样本信息具有一定的代表性,可用做基础的探索性研究。
当前,入驻抖音短视频平台的“大V”从主体上看,分为自媒体、MCN机构以及政务媒体三大类;从内容上看,涵盖了时政教育、知识资讯等多种类型。基于此,本文对于抖音短视频平台“大V”的选择涵盖政务、教育、直播、生活、娱乐等领域,粉丝量2 万~1136万不等。
(三)短视频中隐私泄露的具体表现
1.隐私认知边界差异大,个人隐私信息被动泄露
传统意义上,私人领域的私密性,指的是在私人生活中不愿为他人知晓的个人隐私等,公共领域则强调公开性,指的是公共生活的去个人化,是可以或应该为公众所知晓的。但在以视频传播为主要形式的短视频平台中,公私边界较为模糊,私人生活公共化和公共生活私人化渐成常态。
为了吸引更多用户关注,满足个人虚荣心、塑造理想的视觉形象,不少短视频都存在“表演”成分,甚至以极端、违背公序良俗的内容来吸引他人围观。而用户对于“隐私”的理解及隐私边界认定参差不齐,加剧了私人生活公共化趋势。本次访谈对用户(包括生产者)的隐私认知作出初步界定,其中95%的受访者认为,手机号码、通讯录、身份信息、家庭住址等属于个人隐私,少数受访者认为姓名不属于个人隐私。
与此同时,为了获取更多的注意力、满足个人虚荣心,用户发布的短视频内容往往呈现出“表演浓厚、‘晒’成主流”之势。用户A13表示:“我身边很多朋友在抖音短视频平台上‘晒’娃,因为抖音短视频拍起来很方便嘛。这种形式比文字、图片直观的多。”还有短视频用户以汽车、房屋为背景来分享生活,“晒”行踪、“晒”工资和“晒”消费记录,等等。这些所“晒”的内容皆涉及个人信息中的敏感信息。用户A1表示:“有时候感觉说一句话,抖音就会推荐相关内容,好像抖音短视频平台在监视用户,我挺担心自己的信息被平台滥用的。但是我又觉得这种行为是合理的,因为平台收集你的信息也是为了向用户提供更好的产品服务,这是个性化推荐的代价。”
2.“隐私悖论”效应明显,个人生活空间被无意识放大
针对隐私泄露风险,用户并不会因为隐私担忧而选择不披露个人信息,从而形成隐私担忧“悖论”,社交网站不断降低使用者对个人信息的主导权与隐私敏感,为了获得更好的使用体验,使用者也对个人隐私的保护不够重视。在访谈中,大部分用户可以感知到个人隐私被泄露的风险,也会对平台收集、使用其个人信息表现出担忧,但仍表示会继续使用抖音观看和发布视频,这也反映出用户对隐私风险的乐观偏见——认为自己比普通人遭受的隐私风险侵害要低,也从侧面印证了用户风险感知与收益感知的不对等。用户A9 在访谈中认为,“其实我认为把通讯录、地址这些信息授权给平台是不安全的,但没办法……既然使用了这个软件,就相当于默认了平台这些操作。而且目前我的信息也没被泄露过,我觉得我能控制我的信息不被泄露,我有这个能力。”对于短视频平台的信任也强化了用户的乐观偏见。访谈发现,87%的受访者均表现出对抖音短视频平台的信任,认为抖音短视频平台向其提供的服务符合心理预期,尽管自己为了使用某项服务需要提供信息,但仍相信平台不会滥用其信息。
3.机构类短视频生产者对隐私保护意识不足
生产者在隐私保护意识方面呈现出由于短视频运营机构、内容不同,对于隐私泄露的限制也不相同的特点。英语机构运营者B4 表示:“抖音并不会因为内容好就火,你也会看一些同行业同类做得比较火的,他们是什么内容的,你就往那去靠。”某MCN机构负责人B6在访谈中透露:“我是做直播带货的,可能会涉及主播更换服装,但我们会专门配备更衣室。直播的场景一般都是在公司内部,不会涉及公共场所。”相较于某些机构,政务短视频在隐私保护方面做得最好,运营“中国警察网”的B5 表示:“我们单位会定期进行培训,规定哪些内容不能发。比如视频涉及到缉毒警察,我们会对整体轮廓进行打码处理,还会进行声音处理。在视频发布之前我们也会征得被摄者的同意。”
此外,大量MCN机构在明知被摄者不同意的情况下,未进行面部轮廓模糊处理上传视频的情况。如访谈中,网红B2 谈到一次自己拍摄经历时表示:“有一次我被安排拍摄在商场里寻孩子的剧情,有一幕是需要我假扮商场的工作人员,我当时是觉得要征得工作人员的同意,但我的制作人跟我说就直接拍不用征得同意,最后我妥协了,视频中也没有对该商场其他工作人员进行面部轮廓模糊处理。”除物理空间外,对诸如微信聊天记录、微信群等虚拟空间的曝光也属于私密泄露。中国裁判文书网记录了数十起相关案例,涉及出于报复未经他人同意上传微信聊天记录,被判处侵犯隐私权成立。在访谈中,也有部分用户认为微信群、微信聊天记录不属于隐私,因而在抖音短视频平台上上传与他人的微信聊天记录未做模糊处理。
4.平台隐私设置条款繁琐
隐私政策是一种保护用户信息安全的自律措施,同时也有利于用户了解个人权利并保护个人隐私[37]。抖音短视频平台对用户隐私保护的设计体现在昵称设置、使用虚拟头像及相关隐私权限的设置等。通过访谈发现,大部分用户在个人信息如身份证号码、手机号码等方面的隐私认知较强,但涉及私密空间、个人私密活动等视频时,多数用户认为不涉及隐私,这极易造成隐私泄露、而被不法分子利用。此外,尽管绝大部分用户没有使用个人真实姓名及照片,仍有83%的受访者表示首次登录抖音短视频平台时会在不加思索的情况下直接同意平台获取通讯录、地理位置等敏感信息,在发布视频时也不会考虑是否涉及隐私,呈现出较低的隐私保护意识。
此外,抖音短视频平台的隐私政策繁冗复杂,绝大多数用户直接勾选“同意”而非细致阅读,导致用户并不了解可以调整隐私设置,如果全部勾选“不同意”则只能退出交易或取消注册。这种简单的全无全有操作模式导致实际运用中的高成本和低效率——阅读冗长复杂的隐私条款会花费用户巨大的精力和时间,同时受制于教育背景可能带来的理解偏差,抖音短视频平台虽然履行了告知义务,但用户的“同意”在此情况下很难被认为是意思自治的表示。也有用户认为,隐私政策的出台实际上是平台侵犯用户隐私的保护伞,“你明示同意了,那平台收集利用你的信息也就不涉及侵权,而且平台权力那么大,我个人的力量太渺小,即使看出隐私政策有问题了,那也没有办法。”用户A9表示。
虽然随着隐私保护意识的提升,越来越多的用户选择事后修改或设置软件权限,如不授权平台获取通讯录、不允许他人看到自己点赞或喜欢的视频等,但当前短视频平台上的隐私政策仍难以真正应用于用户隐私保护。一方面,平台方公布的隐私政策有失公正;另一方面,部分用户对于短视频平台隐私政策关注度、认可度比较低。受访者A5表示,“即使卸载了抖音软件,但很多信息如手机号等仍留存在平台上,如果抖音软件能有一键删除相关记录的功能就好了。”
四 短视频中隐私侵权问题的算法治理检视
随着短视频进入算法时代,算法技术赋予了平台更多权力,平台在信息把关与审核方面扮演着重要角色。因此,本文通过与访谈人员的沟通并结合抖音短视频平台发布的关于用户隐私保护的相关措施,分析抖音短视频平台内部审核机制以及算法治理逻辑,从平台角度探讨算法治理在当前短视频平台抑制隐私侵权方面的优势与隐私侵权的伦理隐忧。
(一)算法治理:新技术思维的嵌入
1.覆盖短视频审核全流程
当前,算法技术已经广泛应用于抖音短视频审核的各个阶段,覆盖视频内容生产、传播的全过程。在此过程中,算法通过收集、分析信息,并根据用户的反馈及时优化系统。抖音平台中的内容审核过程可以概括为:首先是对视频内容来源进行审核;其次是机器依托算法技术抓取关键词,对视频分帧审核,以及人工复核;最后,短视频平台会持续关注受众的反馈,被举报的内容会直接由人工复审。在这一系列过程中,通过用户的反馈与平台互通的良性循环,能够对用户相关敏感信息做到及时认知并修改算法在治理中可能存在的漏洞。
2.严格算法内嵌规则
在访谈中,多位用户称自己制作的短视频在传播过程中遭遇过禁止或限制的情况,并表示抖音短视频平台的审核机制较其他短视频平台更为严苛。从2018年年初开始,抖音短视频平台就将站内的违规视频、违规用户等对外公示,加强了对违规账号的管理和规范,公开的规范内容涉及禁用词汇、违规行为以及敏感词汇等多个方面,覆盖面极为广泛,算法治理正是基于这些严苛的规范运行的。在访谈中,抖音短视频平台审核员C5表示:“视频一定要建立在抖音平台的规则基础之上,算法第一轮就是根据抖音发布的内容审核规范进行筛选,一但触碰红线,轻则限流,重则封号数日,甚至直接封号。”短视频相较于其他呈现方式更复杂,增加了审核的难度,算法通过对画面、音频以及音调的识别提高了平台审核的效率。
3.自审与他审协同治理
除抖音短视频平台审核外,抖音短视频平台还配备了内容审核“小助手”,利用算法程序帮助生产者在内容发布时实现自审。“网红”B1 在访谈中表示:“我以前有一条视频因为内容涉及手机号、二维码等隐私信息没有审核通过。2017 年的时候视频没通过我就得一帧一帧地看,但是现在抖音配备了‘排雷小助手’程序,哪些内容不符合规定它就会直接标记出来,我的隐私保护意识也是在一次次试错中培养出来的。”在直播方面,抖音通过人机协同的方式加大了审核的力度,政务短视频运营者B5 表示:“我们的账号在哔哩哔哩网站、快手App 等平台都有入驻,但相比而言,抖音短视频平台的审核更为严格。抖音短视频平台先由机器审核,机器审核通过后你的内容会进入‘流量池’,如果你的内容凡响比较热烈它就会进入二期的人工审核。抖音短视频几乎所有直播的弹幕评论都是经过人工审核的。”除线上审核外,抖音短视频平台还进行线下的培训。MCN机构主管B6在访谈中表示:“抖音短视频平台有自己的内容审核标准和规范,这些都是公开可以查到的。”政务短视频运营者B5 则透露:“抖音短视频平台会定期对发布者进行培训,讲解需要注意的事项,对接的部门分的很细,包括政务、新闻媒体、自媒体等。”
(二)算法隐忧:治理算法的起点
1.利益驱动收集、使用敏感信息
平台媒体的核心特点是吸引和掌握海量数据[38],依靠算法推荐技术,抖音短视频实现了精准推送,但前提是建立在大规模收集、使用用户个人信息上。2020 年6 月,抖音短视频被曝光出会不断自动访问手机剪贴板内容,引发了人们关于密码、工作文档、敏感电子邮件、财务信息、验证码以及聊天记录等隐私信息安全性的担忧。访谈中,有用户表示即使卸载了抖音短视频软件,但其依旧会收集用户的电话号码并向用户发送短信,如用户A2 谈道:“之前我卸载过一次抖音App,但不久之后抖音App 通过短信告知我:‘我认识的朋友xxx 发布了视频,快来围观’这样的内容,我觉得很困扰。我希望抖音App 能够向用户提供永久删除权,就比如说我不使用抖音App 了,平台上关于我所有的信息包括浏览痕迹都能全部消除,这样就不会出现我卸载抖音App 还留有我手机号的情况。”此外,抖音平台还将用户信息与第三方共享,“直播带货”机构主管B6提到:“只要你在平台上注册并投放了Feed流(直播间付费推广工具),你的信息就处于公开的状态,包括江浙沪地区的直营中心、第三方代理都会有我的电话,这实际就是一种隐私泄露,平台起码有监管或保护个人隐私的责任。”
2.算法歧视下用户标签化
在短视频市场中,平台很难不受流量导向的影响,在算法中对弱势群体进行标签化区分,对其发布内容的阅读量和推送量在一定时间内进行限制,使其更加边缘化。例如,2019 年一份抖音海外版(TikTok)泄漏的内部管理培训文件显示,平台上残疾人、面部损伤(包括胎记与斜视)、孤独症、唐氏综合症用户上传的视频,在达到6000~10000次播放量之后,会自动归类为“不推荐”类别,此举暴露了平台方非法侵犯用户个人数据隐私的问题,即抖音短视频平台通过窃取用户生物识别特征等隐私对弱势群体进行标签化区分的做法是对用户个人信息的一种滥用,侵犯了弱势群体平等参与公共生活的权利。政治内嵌与资本介入,社会结构性偏见的循环,量化计算对有机世界的遮蔽,必将导致算法的内生性偏见[39]。算法工程师C7 谈道:“张一鸣曾公开表示‘算法无价值观’,但人是有主观偏见的。在我看来,机器本身没有价值观,有偏见的是研发它的工程师团队。”
3.算法漏洞暴露私密活动
有学者指出,算法的语言和思维不断靠近智能发展的“奇点”,具备了语言能力的人工智能在地位上会逼近人类,动摇人类的主体性地位[40]。通过建立复杂的多变量系统以及庞大的数据库,算法在某些方面超越了人类。但是由于现实问题的复杂性,算法漏洞不可避免,算法越复杂,风险就越高。人工智能只是在特定的代码规则下运行,并不能向人脑一样判定带有感情色彩、或者相近意思的内容。如果这些漏洞被黑客利用,将带来致命威胁。华为大数据工程师C4在访谈中提出:“通过向AI算法提供海量的视频资源库,算法可以自己通过深度学习的方式来总结暴力、色情或侵犯隐私的情形,以此完成进化。随着人们生活信息化程度的日渐加深,视频愈加丰富,需要研发团队去完善和补充算法资源库。仅凭算法技术修补漏洞显然是不可靠的。”这从侧面验证了可能存在的算法资源库滞后等问题。
五 构建算法治理与法律治理的兼容模式
面对短视频中的隐私侵权问题,算法能够第一时间依托预先设计好的代码规则进行规制,实现了从监管客体向监管主体的转变。然而算法本身是去中心化的,这在一定程度上与法律规制相悖。因此,如果把算法治理作为元规制,则需持续优化算法设计,寻找现行法律与算法的平衡点,构建算法与法律的兼容模式。需要明确的是,这种兼容,即所谓“算法法律化”或者“法律代码化”[41],算法与法律并不只是相互消解的关系,而是相互协调的关系。算法不仅可以提供强化法律指令集的技术工具,更是方法论意义上的思维工具。此外,应对隐私担忧问题也离不开协同治理模式的构建,当以协同和共识为基础的治理主体和客体打破了彼此在地位、逻辑和方式上的对立和隔阂[42],可以有效促进平台与监管部门、社会组织等利益相关者形成跨部门、跨地域的合作,这为推动算法治理落地见效提供长效思路,并能为治理短视频中的隐私泄露问题提供立体保障。
(一)回归算法与优化设计
1.实施元规制治理
技术和法制是推动社会发展、维护社会稳定的“两架马车”,技术保护、法律保护和自律保护是隐私保护的三种主要手段。其中,法律保护滞后,无法对新技术发展作出及时回应;自律保护取决于企业的自我约束以及公民自我的数据安全意识,但目前呈现总体薄弱的特征,而技术保护以高效便捷的特点已被广泛应用于短视频审核中。查尔斯·克拉克认为,“解决机器问题的,只能是机器”。监管代码系统的最佳方式就是构建代码规范的自动化监管。短视频平台中,算法监管贯穿视频的生产与分发全过程,内容审核的主力由人工向机器转变。治理隐私泄露问题必然要回归算法本身,实施元规制治理。元规制治理是规制对象在政府外在规制作用下,由规制客体转变为规制主体,采取具有内控性质的一种自我规制形式。这种规制形式具有政府规制和自我规制双重面向。它既能防止自我规制出现自利性倾向,又能解决政府规制能力不足的问题[43]。
面对短视频隐私侵权问题,不同于法律的事后规制,算法技术能够第一时间作出反应,减轻隐私泄露对当事人造成的侵扰,也可以通过优化算法审核逻辑从源头限制隐私侵权视频的传播。算法技术的广泛运用,用户可以在不侵犯他人隐私的框架下浏览、发布短视频,算法技术提供了较为理想和符合各方利益的解决方案。
2.优化人机公审机制
信息社会,随着信息数量的指数级增长,人将越来越难以对海量信息进行独立处理,未来信息分发与审核将越来越依赖算法。在算法主导监管的短视频平台中,虽然技术的应用提高了审核效率,但对某些动态模糊图片等仍存在审核漏洞。为确保算法技术的信度和效度,应充分利用“技术把关”,同时辅之“人工把关”,不断优化人工审核机制。一是算法技术要体现人的伦理,在输入代码规则时,将社会主流价值观予以贯彻,用规范的新闻专业性完成对算法推荐的规训,确保用户接收到的内容是符合社会主义核心价值观的产品。二是正向引导人工智能、大数据技术的应用,及时接收用户反馈,扩大对敏感信息和隐私内容的筛查范围,做到隐私保护事前严防,事后快纠。第三,建立健全信息预警机制,加入“该视频包含诱导性信息”“请谨慎点击外链”等相关预警标签,建立“人脸识别+人工审核+实名认证”三道“防火墙”,对短视频平台上的信息内容进行严格审核,保证视频内容的质量和准确性。
(二)推进算法治理法治化
1.事前设计部署
《中华人民共和国电子商务法》《中华人民共和国网络安全法》《中华人民共和国计算机信息系统安全保护条例》《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)等对算法规则都有相关规定。其中,《个人信息保护法》提出了算法自动化系统决策治理的方案,要求平台事前对运行的自动化决策系统进行评估,并保证决策的公平、公正、透明。平台的应用网络服务符合国家强制标准、不得设置恶意程序,发生问题要及时修补漏洞,保障网络安全,同时在利用算法技术进行自动化决策前,向用户告知算法处理数据的逻辑以及对用户产生的影响。除上述程序需提前部署外,平台对内容进行事前审查。但其内容审查义务主要是防止和限制不法信息传播,不能侵犯用户隐私[44]。《中华人民共和国民法典》第1197 条规定:网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任[45]。事前预防正是算法的优势所在,短视频监管者可通过收集用户反馈,不断优化算法审查逻辑,完善数据库,做到事前对隐私侵权内容的预防。
此外,要实现法律与算法的兼容,就需要从算法所依赖的对象——数据入手,在不影响平台利用算法分析用户兴趣爱好、内容审核的前提下,通过对个人数据界定、脱敏以及细化数据处理原则等,实现法律的事前规制。2018年5月25日,欧盟《通用数据保护条例》(General Data Protection Regulation,简称:GDPR)正式生效,其主要立法目的在于实现对个人信息的全面保护并促进个人信息自决权的行使。其中,GDPR 将种族、民族信仰、性取向等作为禁止处理的个人敏感数据,并要求使用者对数据进行脱敏处理,指出数据主体拥有自决权,可以对算法进行人工干涉。此方式应用到短视频平台中,可以从源头减少个人隐私的非法收集与应用,落实个人信息自决权。在美国,纽约市议会于2017年年底通过的《算法问责法案》要求成立一个由自动化决策系统专家和相应公民组织代表组成的工作组,专门监督自动决策算法的公平和透明[46];美国白宫于2020年发布了《人工智能应用监管指南》,提出对算法系统可能产生的风险进行预警,鼓励行政机关与私营部门合作、加强公众参与、提倡公开更多联邦数据等[47]。我国亦可借鉴国外立法经验,除规范平台的事前预防机制外,还应提升短视频用户的媒介素养,鼓励用户对平台的算法治理进行监督,调动用户作为信息自决主体的积极性,形成多元协同的预防模式。
2.事中多方监督
短视频平台运用算法技术进行监管的过程中,短视频平台应该定期对自身的信息处理活动、保护措施等自身进行合法性审查。监管部门可委托第三方进行算法核查。这对于纠正算法偏差起到了补充作用。因此就需要引入社会第三方力量的参与,改变过去政府单向度的“命令加控制”的管控方式,构建算法规制的合作治理路径,从专业角度监管算法,使算法更好地发挥治理效能。GDPR 规定数据控制者或数据处理者在进行数据保护影响评估时,必须征求数据保护官的意见。在当前算法深入应用的数字社会中,个人数据保护制度发挥着监管企业数据活动的作用[48]。
值得注意的是,第三方社会力量的引入可以增强算法监管的效率,但同时也不能忽视对第三方机构的监管,除需对第三方机构的资质进行认定外,还应制定覆盖数据投入、数据处理和数据产出全过程的算法质量标准。否则,第三方机构可能因为利益因素而沦为数据生产者的同盟或摆设[49]。因此,构建第三方力量在算法合作治理中的参与机制需明确以下几点:第一,社会第三方力量的参与权限——如监督或审核平台对访问协议严密性的规定、在线跟踪个人信息再次使用情况或未经同意将用户数据转卖等事宜;第二,细化社会第三方力量参与程序,如参与时间、参与方式和参与决定权[50]等。
3.事后救济规制
2017 年,英国科学院和皇家学会明确提出,将促进数字福祉的日益增长和人类繁荣作为数据开发、利用和管理的首要原则。这就需要在法律规制中进一步强调个人对数字技术和网络服务的高质量使用。当前,应充分挖掘用户隐性需求,推出能够真正记录生活且符合主流价值观的内容。依法治理隐私侵权问题,设立个人数据被遗忘权和更改权,权利主体有权界定个人的隐私边界,决定其信息的保留、删除与更改。规定平台在面对用户提出的删除侵犯隐私的视频内容等法定义务时,应及时作出反馈并阻止侵权行为的发生和扩大。
在当算法侵犯个人数据信息时,必要的问责机制可以更好的提供救济并预防此类威胁的再度发生[51]。2019年4月,由部分美国民主党参议员提出的《2019算法问责制法案》(Algorithmic Accountability Act of 2019),试图对机器学习中的偏见和个人敏感信息使用问题进行规制。针对算法技术使用中可能出现的泄露用户隐私、收集用户敏感内容等问题,提出了尽快制定关于“高风险自动决策系统”(High-Risk Automated Decision System)的评估规则,并明确了联邦贸易委员会在监管程序中的权力和责任。运营商依托算法技术在短视频平台拥有强大影响力和决策力,算法问责制的制定可使运营商遵守法律,确保运营商的决策不会对用户造成伤害。对此,我国可以在现行法律框架内,吸取国外经验,做到算法问责制的本土化,进一步完善算法与法律的兼容模式。
综上所述,算法在短视频内容分发及审核上发挥着巨大作用,推动算法治理的良性发展最可靠的办法仍是激发平台对于优化算法的治理诉求。
当前算法治理涉及三大核心问题——透明性、规范性和责任认定。从透明性上看,算法透明作为算法权力规制的可能进路业已具备一定的现实可能性和外部环境条件[52],虽然受知识产权保护等其他外部因素制约,算法透明只能是有限度的透明,但作为规范算法权力的应对之策,可作为解决短视频隐私担忧的手段之一。从规范性上看,技术规范应与法律规范并行,即平台应用算法解决用户隐私担忧问题时应符合我国民法典和网络音视频相关法规,在缺少针对算法问题专门法的现实情境下,平台应重视技术伦理、优化技术规范。从责任认定上看,短视频隐私泄露涉及的主体主要集中在作为生产与传播者的用户个体和作为内容审核与传播中介的平台方,平台方负有传播与监督的责任,因此一旦认定隐私侵权成立,平台方有义务协助并配合司法与行政部门,厘清算法案件主体责任,并以自身的算法治理实践推动我国现行法律在算法治理方面的制度框架调整,使算法治理落到实处。