APP下载

西方社交平台用户生成内容治理的困境与改革*

2023-11-27

国外社会科学前沿 2023年11期
关键词:策展规制社交

曹 然 王 悦

社交平台的内容治理已成为国内外学界、业界共同关注的话题。面对海量用户生成内容(特别是其中的有害内容、违法内容等),仅依靠平台自律已经无法满足当下的要求。在美国宪法第一修正案的庇护下,当与选举有关的信息、虚假信息以及恐怖主义信息等进入各大社交平台内容治理的范畴时,都引起过各种争议。2020 年美国总统大选前夕,时任美国总统特朗普关于选票邮寄的推文被Twitter 平台贴上“待事实核查”标签,他指责互联网平台审核言论的行为违宪,要求对社交媒体免责条款做出限制;同时,拜登也呼吁Facebook 加强对错误信息的审核力度。联邦最高法院目前正在受理中的“冈萨雷斯诉谷歌公司案”(Gonzalez v.Google LLC)①2015 年11 月,巴黎发生了一系列恐怖袭击事件,造成至少130 人被杀害。遇难者中有一名23 岁的美国学生诺艾米·冈萨雷斯(Nohemi Gonzalez)。诺艾米的家人认为,YouTube 通过其根据用户个人资料定制的内容推荐系统,引导用户观看ISIS 的招募视频,并对诺艾米的死亡负有部分责任。联邦最高法院于2022 年10 月批准了该案的调卷令,该案与“推特公司诉塔姆内案”将成为法院将审理的第一批关于《通讯规范法》第230 条的案件。、“推特公司诉塔姆内案”(Twitter,Inc.v.Taamneh),两者都关系到平台对用户发布、托管在服务器上的恐怖主义内容处理的问题,而前案更涉及平台的推荐系统是否受到法律对互联网服务提供商的责任豁免的判断。在内容治理上,西方社交平台的需求日益迫切,又受到现有治理手段的掣肘,二者的紧张关系不断加剧,已经到了不得不做出改变的时候。基于此,本文将从“过程话语”的视域考察西方社交平台的内容治理问题。在理论框架上,参照和发展普尔、莱斯格等人提出的治理路径,从内容规制、内容调节、内容策展三个层面入手,回顾西方社交平台内容治理的现有手段,结合对相关案例的分析,指出现有治理手段中难以克服的问题,最后参照美国、欧盟的最新实践,试图描摹未来可能的出路。对西方社交平台内容治理的比较研究,将有助于改变我国相关研究仅限于意识形态层面的现状,对进一步健全网络综合治理体系,参与构建公平公正的世界信息传播新秩序应当有所镜鉴。

一、西方社交平台内容治理的现有手段

平台治理的历史可分为“开放式互联网”(1990—2005 年)、“平台式互联网”(2005—2020 年)与“强监管互联网”(2020 年至今)三阶段。其中,第一阶段占主导的是“权利话语”,强调在中介机构和政府缺席的状态下,自下而上的、公民主导的倡议将如何带来繁荣;第二阶段占主导的是“危害话语”,关注平台创新造成的系统性危害,提出规避潜在危害的法律法规;第三阶段占主导的是“过程话语”,要解决的问题包括谁来做出治理决定,基于什么基础,相关主体是否值得信任,何为最佳的政策组合等。②Terry Flew,Communication Futures for Internet Governance,SSRN Electronic Journal,2021.学者对于平台治理三阶段的划分,特别是对第三阶段的“过程话语”的概括,使针对不同国家和社会环境下平台的治理主体、治理框架(合法性基础)、政策优化、实现路径和驱动因素的比较成为可能。

第一,关于内容治理的目标。前期研究大都强调平台的盈利性和由此产生的负外部性,比如“解决怎样从一个旨在自由交换信息的系统中赚钱的问题”;③Robin Mansell and W.Edward Steinmueller,Advanced Introduction to Platform Economics,Edward Elgar,2020.不仅仅是回应法律的要求,也避免因冒犯、骚扰而导致平台用户流失,从而更好地迎合广告商的需要,营造健康的在线社区;④Tarleton Gillespie,Regulation of and by Platforms,SAGE Publications Ltd,2018,pp.254-278.以及,建立一个让用户感到自由的数字环境,并在其中分享信息和数据,吸引来自广告的利润①Shoshana Zuboff,Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power,Public Affairs-Hachette Book Group,2019.,等等。也有学者认为治理的目标在于维护社会利益与公共利益,形成于大众传播时代的“守门人”范式在平台治理中得到沿用,这一点在中国和西方国家都有所体现。②方兴东、钟祥铭:《“守门人”范式转变与传播学转向——基于技术演进历程与平台治理制度创新的视角》,《国际新闻界》2022 年第1 期。

第二,关于内容治理的路径。普尔概括了平台的内容治理策略,包括设定规范(由平台确立标准、指导方针和相关政策)、组织优化(平台对内容和服务进行分类和排序,以实现有效匹配)和审核管控(平台根据某些规范对内容实施审核和把关);莱斯格提出约束网络空间中行为的四种模式(法律、社群规范、市场、技术架构)。③[美]劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社,2021 年,第143 页。普尔、莱斯格的“三种策略”“四种模式”为本文提供了分析问题的框架。除了平台的内容策展,也不应忽视其他的信息服务(如访问、浏览、传输、托管等)在打击有害内容、保护公民权利方面的作用。④Jenna Ruddock and Justin Sherman,Widening the Lens on Content Moderation,Joint PIJIP/TLS Research Paper Series,vol.7,2021,p.69.与西方国家政策取向的侧重点有所不同,中国的治理过程中,国家始终处于核心主导地位。⑤张志安、冉桢:《中国互联网平台治理:路径、效果与特征》,《新闻与写作》2022 年第5 期。

第三,关于内容治理的驱动。驱动因素多种多样,从公众压力、媒体报道、个人权利保护到保持国家社会稳定等不一而足。有学者认为,公众压力、媒体报道将促使社交平台表现得更负责任,使之成为公共话语的策展人;⑥Jack M.Balkin,How to Regulate (and Not Regulate) Social Media,Journal of Free Speech Law,vol.71,no.1,2021,pp.71-96.还有学者认为,治理主要出于对个人权利的保护、对公共机构和利益的保护,以及对新闻生态系统的正常运行的维护;也有研究发现,通过主动嵌入商业平台的信息产制和内容把控,并借助商业平台实现对政治舆论场的数据化监测,进而提升与复杂舆论主体的虚拟互动能力。⑦姬德强:《“困在系统”之外:一个数字平台研究的国家理论》,《编辑之友》2022 第10 期。但是在不同国家地区、不同驱动因素的竞争角逐下,哪项驱动因素将获得优势、成为平台治理中的“主导性话语”,尚未见到详尽的分析。

传播学者托马斯·普尔所提出的内容规制、内容调节和内容策展等维度,可用于描述西方社交平台内容治理的现有手段。这一分类背后隐含了平台内容治理过程中政府、平台、用户的多元主体地位和交互作用,能够兼容“私主体公共性—公权力私有化”⑧谢新洲、宋琢:《三角角力与公私对列:美国社交平台内容治理研究》,《信息资源管理学报》2022 年第1 期。“国家主导”的不同治理取向,以及“硬性”的法律政策、守则标准与“柔性”的检索、推荐和排名等不同治理路径,“保护用户—限制用户”“推动市场繁荣—维护社会稳定”等不同治理目标。内容规制、内容调节和内容策展的参与主体、相互关系,如图1 所示。

(一)内容规制

所谓内容规制,是指运用一套权威规则,通过限制或促成特定活动来控制特定部门或领域的行为或管理,其目的是促进平衡,确保复杂系统的正常运作。数字环境下的规制形式相比过去更为多元化,既包括公共规制的经典工具(如国际公约、法律、行政法规等),也包括私人性质的规制形式(如服务条款、隐私政策等)。②Luca Belli and Olga Cavalli,Internet Governance and Regulations in Latin America,FGV Direito Rio,2019,pp.39-64.规制的内容范围,从最初的淫秽色情、侵犯版权,到后来的冒犯性言论、恐怖主义、种族主义等不断调整、扩大(侵犯版权的内容不在《通讯规范法》第230 条规定的平台内容治理的免责保护范围内,因此下文自动排除)。因此,在内容治理的问题上,即便是像莱斯格一样信仰言论自由的拥趸,也不否认通过规制手段约束特定内容的必要性,前提是不违背宪法第一修正案的要求。③[美]劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社,2021 年,第261 页。然而,美国法律赋予了社交平台较大的豁免权、自由裁量权,在信息内容环境急剧变化的今天,其所带来的争议也愈发明显。

(二)内容调节

所谓内容调节,即“(平台)根据相关传播和出版政策,对在线内容进行筛选、评估、分类、批准或删除/隐藏,以支持和执行积极的在线内容传播行为,并尽量减少攻击性和反社会行为”。④Terry Flew,Fiona Martin and Nicolas Suzor,Internet Regulation as Media Policy: Rethinking the Question of Digital Communication Platform Governance,Journal of Digital Media &Policy,vol.10,no.1,pp.33-50.按照调节行为介入的阶段,可分为“预调节”和“后调节”两种形式。考虑到平台上用户生成内容的海量性,预调节的成本太大,且容易联系到威权政府针对出版物和信件的“审查”(censorship),后者被认为是对公众隐私、合法权利的侵害,是对言论自由的打压,所以使用更温和的“调节”(moderation)一词,以“后调节”方式限制平台上激进、暴力、过分的内容,力图证明这是一种保护机制而非权力机制,其行为将“有助于民主自由的价值观”,其结果是“形成更健康的网络社区”。但是,法律赋予平台进行“内容调节”的自由,使其能够自由地选择他们想要保护和推广的价值观,而这些价值观未必就是民主主义的,也有可能是反民主主义、独裁主义的;考虑到平台自身的私营属性,当他们对内容进行调节时,自然会倾向于尽量减少经济风险,而不是确保各项基本权利之间的公平、平衡。①Giovanni De Gregorio,From Constitutional Freedoms to the Power of the Platforms: Protecting Fundamental Rights Online in the Algorithmic Society,European Journal of Legal Studies,vol.11,no.2,pp.65-103.

(三)内容策展

所谓内容策展(content curation),是指从更大的可用内容范围中选择一部分相关内容。在信息丰富的现代环境中,其作用在于“通过选择和组织,对丰富的信息进行过滤,使之成为一个可管理的规模,并在其较小规模的情形下,更有效地满足信息或战略需求”。②Kjerstin Thorson and Chris Wells,Curated flows: A Framework for Mapping Media Exposure in the Digital Age,Communication Theory,vol.26,no.3,pp.309-328.内容策展与内容审核密切相关。区别在于,后者意味着对不被允许的内容进行限制,前者则是使平台需要或偏好的内容变得更加“可见”。因此,审核往往会导致特定内容被删除或特定用户被制裁,而策展则意味着针对检索、推荐和排名系统的设计和调整。当然,审核也可以通过策展的方式完成,比如借助排序算法对特定内容、用户进行“降级”处理,使其内容得到更少的曝光,并且因此获得更少的广告投放。

下文将详细论述的是,西方社交平台的内容治理已陷入困境:《通讯规范法》第230 条等法律给予社交平台高度的豁免权和自由裁量权,不仅未能限制有害内容的传播,更侵犯了公民的基本权利;社交平台依据自身规范以“人工+机器”方式进行自主调节,在实践中表现出选择性执行、效力不足等问题;基于算法的内容策展在一定程度上提升了内容治理的效率,但又带来公平性的质疑……以上的治理手段,无论是内容规制、内容调节还是内容策展,都未能形成一个良性的、稳定的治理框架。

二、西方社交平台内容治理的当前困境

作为世界数字巨头,美国拥有在全球覆盖最为广泛的社交平台。同时,美国在平台内容治理上的负外部性也由全球共同承担。2022 年,一位YouTube 主播指出其上传的视频内容遭到了平台的不当限制(简称YouTube 主播事件),而且平台对其申诉的处置相当随意,有违公正性的要求。他的遭遇得到了其他主播和网友们的同情,后者为了声援他而发起了一场声势浩大的抗议活动,集中曝光了社交平台内容治理机制的弊端,但并未引起后续有效的纠偏行动,甚至没有使平台运营团队出面澄清、说明。正所谓“冰冻三尺非一日之寒”,有必要全面地考察西方社交平台的内容治理手段以更好地评价其得失。

(一)内容规制:有害内容泛滥与平台的自主争议

美国目前针对社交平台的内容规制形式中,属于“公共规制”性质的法律依据主要包括1996 年《通讯规范法》(Communication Decency Act,CDA)第230 条①CDA 第230(c)(1)条:“任何交互式计算及服务的提供商或者用户不应被视为另一信息内容提供商提供的任何信息的发布者和发言者。”第230(c)(2)条:“在线服务提供商不应因以下原因而承担责任:主动出于善意地采取技术限制猥亵、色情、低俗、肮脏、过于暴力、骚扰或其他不良信息,即使这些信息的发布受宪法保护。”和1998 年《数字千禧年版权法》(Digital Millennium Copyright Act,DMCA)的“避风港原则”②避风港原则的基本内涵是,对于网络服务提供者使用信息定位工具,包括目录、索引、超文本链接、在线存储网站,在其链接、存储的相关内容涉嫌侵权,如果其能够证明自己并无恶意,并且及时删除侵权链接或者内容,则不承担赔偿责任。——笔者注。CDA 最初是为了治理网络色情等内容而制定,但很快因违宪被基本推翻,其中第230 条被保留了下来,成为奠定美国网络内容生态的基石。CDA 第230(c)(1)条正是平台拥有广泛的责任豁免的法律渊源,第230(c)(2)条反映出国会鼓励平台自主地审核用户内容。DMCA 提出的“避风港原则”最初适用于版权保护,后来拓展到其他互联网侵权领域,由“通知”和“删除”两部分构成,因此又被称为“通知—删除规则”。CDA 第230 条和DMCA 的“避风港原则”一道为网络服务提供商提供了安全庇护,保护了互联网领域的创新,推动了社交媒体的发展进步,同时也为社交平台规避内容治理的责任提供了依据。

法律规定了主体承担的、必须履行的责任,不同性质的主体所承担的责任不尽相同,反映了法律对社交平台的定位。“平台”成为正式的法律术语是晚近的事情,此前的对应指称是发布者(publisher)、发言者(speaker)和分销商(distributor)。CDA 第230 条中引入发布者和发言者概念,起初被视作对网络诽谤案件的回应。诽谤案件中的被告包括“发言者”③“发言者”即陈述诽谤性言论的原始消息来源。——笔者注“发布者”④“发布者”即重复诽谤性言论的人。——笔者注和“分销商”⑤“分销商”即分发或销售诽谤性材料的人(如新闻供应商、图书馆和书商等)。——笔者注,这些角色在对诽谤材料的编辑控制权上各有高低,它们承担的法律责任也不同——“发言者”当然对诽谤性言论负责,“发布者”与“发言者”同样负责,而“分销商”只有在知道他们分发的材料具有诽谤性或应该知道的情况下才承担责任。那么互联网服务提供商(ISP)是所谓的“分销商”吗?早期的网络诽谤案件给出了答案。在1991 年的Cubby,Inc.诉CompuServe,Inc 案⑥在该案中,一个名为Rumorville 的八卦专栏发表了对原告的诽谤性评论,原告起诉托管Rumorville 的网络服务提供商CompuServe。法院得出结论,认定CompuServe 是一家分销商。CompuServe 只是在其服务器上托管Rumorville,并不比图书馆,书店或报摊拥有更多的编辑控制权。详见Cubby,Inc.v.CompuServe,Inc.,776 F.Supp.135,1991。中,法官认定网络平台只有在采取措施控制内容时,才可能对用户生成的内容负有法律责任,而CompuServe 是一家“分销商”,并没有什么编辑控制权。在1995 年的Stratton Oakmont 诉Prodigy 案⑦在该案中,一个匿名人士在网络公告板上发布了针对证券投资公司Stratton Oakmont 及其总裁Daniel Porush 的诽谤性言论。网络公告板由网络服务提供商Prodigy 托管。法院认为,Prodigy 是发言者或发布者,后者自称是一家行使编辑控制权的网络服务提供商,因为它自称是“面向家庭的”(family oriented),并且拥有与报纸类似的编辑控制权。详见 Stratton Oakmont,Inc.v.Prodigy Services Co.,23 Media L.Rep.1794(1995)。中,法院则认定Prodigy 是“发言者”或“发布者”。早期网络诽谤案件对网络平台的界定依照具体情形各有不同,立法者担心,类似Cubby案的判决可能使日益普及的互联网沦为“法外之地”,因此在CDA 第230 条中赋予了网络平台对用户内容进行自行审查的权利。CDA 第230 条颁布之后,法院大都给予平台广泛的豁免权,比如在1997 年的Zeran 诉America Online 案①详见 Zeran v.American Online,Inc.,129 F.3d 327,1997。中,法院认定CDA 第230 条赋予美国在线完全的豁免权,使其免受来自用户生成内容的索赔。

作为内容“分销商”的定位曾经给予社交平台极大的庇护,使其免于承担过多的诉讼。但是现在,社交平台已经从最初的创业公司发展到大规模的国际平台,它是否应当以“分销商”的身份,继续在法律庇护下免除自身的内容治理责任?面对质疑,各大社交平台坚称自己是“在线中介”(online intermediary),只是对用户生成内容进行“托管”。在由参议院商务委员会举办的一次虚拟听证会上,Facebook 和Twitter 的负责人一致将第230 条对平台的保护上升到表达自由的高度。②Facebook 执行总裁马克·扎克伯格(Mark Zuckerberg)的证词中写道:“如果没有第230 条,平台可能会对人们所说的一切负责,甚至可能面临基础性的审核责任,例如删除影响其社区安全的仇恨言论和骚扰言论。”Twitter 首席执行官杰克·多尔西(Jack Dorsey)同样表示:“(取消第230 条)可能会瓦解我们在互联网上的沟通方式,最终只留下少数规模庞大且资金充足的科技公司。” 详见 Katie Canales,Mark Zuckerberg and Jack Dorsey Warn that Stripping Tech Firms of Section 230 Protections Would Harm Free Expression on the Internet,Business Insider,2022。然而,所谓的“在线中介”,实际上也在行使内容编辑、控制的权力——服务提供者通过各自的算法过程,根据预测的相关性、兴趣等向用户群体提供经过特别选择的信息(所以就公开推荐的情况看,平台不可能是“中介”)。③Jennifer Cobbe and Jatinder Singh,Regulating Recommending: Motivations,Considerations,and Principles,European Journal of Law and Technology,vol.10,no.3.2019.何况在历史上,从“分销商”转向“发布者”“发言者”的情形也并不罕见。2012 年的“圣费尔南多谷公平住房委员会诉‘室友网’有限责任公司案”④在该案中,室友匹配的网站需要用户在创建他们的个人资料时输入人口统计信息,包括性别、性取向和家庭状况。用户还可以通过下拉菜单选择他们对未来室友的性别、性取向偏好。公平住房委员会声称,这些下拉菜单要求用户自行制作违反联邦住房歧视法的陈述和室友偏好。地区法院最初驳回此案,因为它认定该网站是享有第230 条责任保护下的中介机构。公平住房委员会向第九巡回上诉法院提出上诉,后者推翻了地方法院的判决,认定“一个中介机构对被指控的非法行为做出重大贡献时,无权根据第230 条享有责任保护”。详见Fair Housing Council of San Fernando Valley v.Roommates.com,LLC,521 F.3d 1157,9th Cir.2008。中,第九巡回法院推翻了地区法院的判决,裁定“室友网”作为内容提供商(而非先前认定的中介机构)对内容行使了足够的控制权,从而丧失了第230 条对它的免责保护。尤其值得注意的是,对于内容涉及性交易、恐怖主义和暴力的案件,CDA 第230 条也发挥了重要作用。考察2009 年的Barnes 诉雅虎公司案⑤在该案中,塞西莉亚·巴恩斯的前男友在雅虎公司运行的网站上为她创建了一个虚假的在线个人资料,这份资料中包括巴恩斯的裸照、工作地址、电话号码和电子邮件地址。尽管雅虎的传播总监向巴恩斯保证,在她的要求下,这些内容将被删除,但几个月后,雅虎的承诺仍未兑现,巴恩斯对雅虎公司提起诉讼,指控其未能兑现提供服务的承诺。联邦地方法院驳回了巴恩斯的主张,巴恩斯提出上诉。详见Barnes v.Yahoo!,Inc.,570 F.3d 1096,9th Cir.2009。及类似案件不难发现,平台公司只要强调其“渠道身份”(conduit capacity),完全可以通过CDA 第230 条逃避承担责任。⑥Brent Skorup and Jennifer Huddleston,The Erosion of Publisher Liability in American Law,Section 230,and the Future of Online Curation,Oklahoma Law Review,vol.72,no.3,2020,pp.635-673.

西方社交平台中大量关于内容侵权的指控都得到了第230 条的庇护。面对指控,平台坚持以“在线中介”“分销商”自居,最终往往能够得到法院判决的支持。退一步讲,通过法律方式针对内容表达进行规制,直接关系到宪法第一修正案所保障的言论自由。即使意识到了问题,美国政府近年来多次修改该条法律的努力都以失败告终,其根本原因就在于此。随着社交平台的覆盖范围不断扩大,这一法治困境的消极影响从美国开始向全世界蔓延。

(二)内容调节:保护用户与侵害权利的矛盾

根据前述,作为公共规制的法律工具已陷入法治困境,无法在平台内容治理上发挥作用,作为私人性质的规制形式(如平台的社区标准、隐私政策等)能够发挥作用吗?2018 年“剑桥分析”事件曝光后,Facebook 受到了操纵政治选举、泄露用户隐私的指控。对此,该平台除了承诺将更负责任外,还公布了修订后的社区标准,以及应用这些标准的内部指南。这是一次重大突破,因为早先Facebook 关于内容调节和针对工作人员的培训材料一直都是保密的。这些保密文件受到缺乏规定一致性、执行一致性的批评,以至于存在争议的内容会依据发言者的身份而被允许(或不被允许)保留在平台上。同时,作为国际性的社交平台,Facebook的社区标准会根据不同国家的监管框架进行调整,同时也采取多种策略保留自身特色。在德国,Facebook 按照《网络执行法》(Netzwerkdurchsetzungsgesetz,NetzDG)的要求,为该国用户制定了更加严格的社区标准,提供了举报“非法内容”的特别功能(比如用户可指出某内容违反了《德国刑法》的第几条)。但是后者相较于平台自身的、面向全球用户的标记(flagging)功能而言“很难找到,也很难使用”①Soyun Ahn,Jeeyun (Sophia) Baik and Clara Sol Krause,Splintering and Centralizing Platform Governance: How Facebook Adapted its Content Moderation Practices to the Political and Legal Contexts in the United States,Germany,and South Korea,Information, Communication &Society,2022.。当用户试图举报“非法内容”时,平台甚至会主动警告用户“对非法行为的指控是一个严重的问题”。②该平台对于言论表达的保护与德国政府对言论进行干预的传统之间存在冲突。德国《基本法》明确允许为言论自由设定界限(比如不得宣扬纳粹言论),这一义务使国家对言论自由的干预合法化。——笔者注结果,2020 年下半年该国Facebook 仅受理了4211 起投诉,而同期该国Twitter 受理的投诉量超过80 万起。不难发现,Facebook 平台的策略其实是诱导该国用户远离一国监管框架而转向平台自身的治理规则。

更棘手的问题在于,即使平台的社区标准得到了一定程度的公开,即使平台的社区标准与部分国家的监管框架相契合,平台执行社区标准的过程中仍然会出现不透明的问题。大多数社交平台依据社区标准通过人工审核、机器学习相结合的方式治理内容,并且主要依赖于后者(比如垃圾邮件会被机器自动删除),但是后者的决策过程并不透明,因而缺乏监督。以YouTube 为例,该平台的人工审核者据称来自YouTube 社区中成员(比如被内容冒犯到的人)和内容主题相关专家(包括非政府组织、政府机构和学者等)。新冠肺炎疫情暴发后,YouTube平台不得不减少了人工审核的工作量,更多地依靠自动系统对更大范围的有害内容进行识别、审核和删除。然而更多依靠自动系统带来了更多的“冤假错案”,因为机器相对于人工在精确性上存在明显不足,为“保护用户”,平台不得不小心谨慎,执行更加严苛的标准。据统计,2020年4 月至6 月期间,YouTube 一共删除了1100 万个视频,这一数量远高于平时,许多实际上并未违反社区准则的内容都被删除。当用户上传的视频内容被认定违反了“社区准则”,会收到来自YouTube 运营团队的“警告”(strike),并被给予三次调整机会。但在“YouTube 主播事件”中,运营团队没有向当事人详细地说明视频未通过审核的原因,当事人只有猜测视频中可能违规的部分并自行整改,再次提交审核。当创作者无法确认自己的视频在哪里存在问题时,就只能通过向平台申诉的方法解决问题。对于拥有大量订阅用户的创作者,YouTube 平台会为其设置专属的申诉通道,方便前者快速地与YouTube 运营团队取得联系,而影响力一般的创作者只能通过普通的申诉通道寻求解决,这一通道在大多数情形下都是不生效的,即便创作者给出正当、有力的申诉理由,仍然有相当高的概率会被驳回。YouTube 主播事件发展到后期,当事人对平台审核机制的控诉得到了其他主播和众多网友的声援,后者在平台上发起“不被年龄限制挑战”(Try Not to Get AGE-RESTRICTED Challenge)①“年龄限制”是YouTube 平台针对部分第三方内容的审核手段之一,被施加年龄限制的内容意味着更少的曝光和更少的变现机会。——笔者注的活动,以故意的越界行为(比如在视频内容中播放大量粗话等),测试YouTube 平台审查机制的合理性、公正性。然而结果是,平台以“杀鸡儆猴”的方式,在不事先告知的前提下删除了其中一名主播在直播活动中的画面片段。

不难发现,社交平台对有害内容的调节,无论是缺乏内部一致性的社区准则,缺乏精度的人工审核和自动决策,还是未能有效运作的申诉机制,都反映出它实际上采取的是一种“宁缺毋滥”的策略,而这种“宁缺毋滥”的策略表面上是出于“对用户的保护”(实则放任了大量有害内容),却损害了用户的表达自由(导致一部分人被“针对”),以“伤敌一千自损八百”的方式规避公权力对它的干预。

(三)内容策展:争夺可见性与破坏公平性

西方社交平台的内容策展所面临的问题,在“冈萨雷斯诉谷歌公司案”中得到集中呈现。在向联邦最高法院提出的上诉中,冈萨雷斯·诺艾米的家人将重点放在平台算法上,后者是为提供用户感兴趣的内容而量身定制的。他们认为尽管这一推荐过程是自动完成的,它仍然是一种调节形式(a form of moderation),而第230 条并未完全覆盖到。在向联邦法院提交的请愿书中,诺艾米的家人写道:“第230 条是否适用于这些算法生成的推荐具有巨大的实际意义。交互式计算及服务不断以一种或另一种形式将此类推荐引导到美国几乎所有使用社交媒体的成人和儿童。”2022 年10 月,联邦最高法院批准了该案的调卷令。2023 年2 月,联邦最高法院就冈萨雷斯案开展口头辩论,因双方观点针锋相对、未能达成一定的共识而被媒体报道为“因挑战互联网公司的法律保护而产生撕裂”。原告冈萨雷斯家族的律师肯定了算法在网上普遍应用的现实,但质疑被告使用算法的目的。被告谷歌公司及其支持者则担忧如果原告胜诉将带来连锁反应,颠覆整个互联网的运作方式并威胁言论自由。法官们既担忧限制互联网企业的豁免权的潜在后果,也怀疑这些企业是否应该得到特定类型的有害或诽谤性内容的保护。或许是牵涉面太广,截至本文完稿前,这场迁延日久的案件仍未得出最终的裁决。

作为一种独特的调节形式,内容策展对于平台内容生态的影响显然更加直接、更有效率。但是,它不仅面临助长恐怖主义信息传播的指控(如前述“冈萨雷斯诉谷歌公司案”),还有关于可见性、公平性的争议。在网络空间的海量信息面前,社会的注意力取代了传统媒体时代的版面、频率等要素,成为稀缺资源。谁、在何种程度上、以什么样的方式被看见,天然具有竞争性,是权力角逐的关键场域①易前良:《算法可见性:平台参与式传播中的注意力游戏》,《现代传播》2022 年第9 期。。由于注意力资源的有限性,部分人赢得可见性必然以另一部分人丧失可见性为代价,当然会引起公平性的争议。有学者考察了中国社交平台上各方针对可见性的争夺,将其比作一场“注意力游戏”——内容生产者通过热门搜索词、社交机器人等方式“骗取”算法可见性;数字中介为内容生产者提供“指导”以争取可见性;平台公司通过算法进行管理,积极“惩治”内容生产者针对可见性的欺骗行为;受众通过策略性地使用“内容标记”等方式塑造可见性。②易前良:《算法可见性:平台参与式传播中的注意力游戏》,《现代传播》2022 年第9 期。这一“注意力游戏”在西方社交平台上同样广泛存在。比如,Facebook 为了遏制低质量内容的传播,一方面阻止“低质量网站”以外部链接方式从平台上“骗取”流量,通过“Click-Gap”技术抓取、索引和识别该平台上大量出现的某网站链接,另一方面根据用户是否隐藏、举报某个帖子等指标评估内容质量。但是,这些调整未能解决低质量内容的传播,更带来“放大占据主导地位的社会和政治群体的声音”“压制被针对和被边缘化群体的声音”的质疑。又如,Twitter 在其“时间线”(timeline)中引入算法策展——比如“万一你错过了”(In case you missed it)功能——由算法确定哪些内容是相关的、有意义的,人们担心这一功能将使该平台无法呈现多样化的内容,发挥“民主的公共广场”的作用,于是各方就此进行了长时间的“拉锯战”。同样地,YouTube 平台立场鲜明地反对流量造假、恶意举报等行为:“不得引导或鼓励对用户与服务的真实互动进行任何不准确的衡量,包括向用户付费或向他们提供奖励以增加视频的观看次数、喜欢或不喜欢,或增加频道的订阅者”“滥用任何报告、举报、投诉、争议或申诉流程,包括提交缺乏根据、无理取闹或轻率潦草的举报”,但这并不必然保证前述行为能够得到妥善解决。

三、西方社交平台内容治理改革的可能出路

鉴于西方社交平台在全球范围的广泛覆盖,其内容治理亟需突破“美国模式”(平台高度豁免)的窠臼,未来可能的改革方向包括:合理借鉴欧盟的《数字服务法》《数字市场法》等,在法律框架上重新界定不同主体的责任义务关系,实施分级监管;引入共同规制的新形式,既保证国家目标的实现,又给社交平台留有一定的自主性,还要对社交平台的自主调节进行监督;加强内容策展形式的公平性、可问责性和透明度,制定新的法律标准,以协作的、对话的方式执行规制。必须注意,作为参考范本的欧盟在制定法律法规(以此保护公民权利、推动公平竞争等)上固然有其传统优势,但并不排除它也有自身面临的问题,与美国争夺数字—技术战略自主是其一系列行动背后更深层的驱动因素。

(一)跳出法律框架中“发言者”“发布者”“分销商”的限制

当下,美国《通讯规范法》第230 条有关“发言者”“发布者”的说法继续影响着他们对于网络平台性质、责任的判定,限制了通过法律途径治理平台内容的可能性。然而即使是网络言论自由坚定的捍卫者,也主张跳脱出平台到底是“发布者”还是“分销商”的争论,指出“发布者”或“平台”之间的区别并不存在①比如:“围绕第230 条的关键问题始终在于‘谁才是有争议内容的起源’,平台可能通过促进某一内容在网络上的出现来‘发布’它,但这并不足以使平台成为确定承担法律责任的‘发布者’,因为‘发布’(publishing)与‘创造’(creating)不同,只有‘创作者’才能对被创作的内容承担责任。真正重要的是‘创作者’与‘推动者’的区别。”,或者作为“发布者”或“平台”并不重要②比如:“既是自己内容的‘发布者’又是他人内容的‘平台’的情形十分常见(比如报纸),网络服务的用户端上很少出现只作为传递用户声音的渠道而没有自己声音的情况,除非它处于网络基础设施层相当深层的地方(即使如此也不乏因内容问题被关闭的情形),所以‘发布者’或‘平台’并不重要。”等。对于美国而言,跳出现有框架中“发言者”“发布者”和“分销商”的限制是非常重要的改革出路。曾有学者将“平台”(platform)与“发布者”(publisher)融合为“平台型媒体”(platisher)的概念,后者既拥有媒体专业编辑的权威性,又是面向用户开放的数字内容实体③王君超、刘婧婷:《平台型媒体、“中央厨房”与深度融合——兼论<赫芬顿邮报>的衰变》,《新闻界》2019年第12 期。,因其“具有一定的规则和把关行为”④王君超、刘婧婷:《平台型媒体、“中央厨房”与深度融合——兼论<赫芬顿邮报>的衰变》,《新闻界》 2019 年第12 期。而承担更重要的责任。

有识之士将眼光转向美国之外,关注欧洲近期针对社交平台的严格立法,仔细研判其中的可行性。欧盟在2000 年出台的《电子商务指令》中规定了与美国类似的避风港制度,对纯粹传输服务、缓存服务和宿主服务提供豁免。⑤李欢:《重思网络社交平台的内容监管责任》,《新闻界》2021 年第3 期。然而,随着社交平台日益控制公共话语、操纵在线行为,在现有的《视听媒体服务指令》《数字化单一市场版权指令》和《防止传播恐怖主义在线内容传播监管条例》等之外,欧洲在2022 年分别出台了《数字市场法》(Digital Marketing Act,DMA)和《数字服务法》(Digital Service Act)。其中,DMA 草案最早正式提出“守门人”(gatekeeper)制度(“守门人”源于过去针对传统媒体如何影响信息传播的认识,笔者注),旨在保护用户、其他竞争者和权利人免受“守门人”非法、有害内容和做法的影响,⑥申琦:《是非“守门人”:国际互联网超大型平台治理的实践与困境》,《湖南师范大学社会科学学报》2023 年第1 期。这与美国式的“发言者”“发布者”和“分销商”定位有着本质的区别。为了更好限制非法内容在网上的传播,DSA 区分了不同层次的“守门人”,对“中介机构”(intermediaries)、“托管服务提供商”(hosting providers)、“在线平台”(online platforms)和“超大型在线平台”(VLOPs)进行分级监管,其中“超大型在线平台”对应了本文的“平台”。根据DSA,“超大型在线平台”承担了一些内容治理义务(详见表1)。此外,DSA 还在欧洲历史上首次提出了“通知—行动”(notice-and-action)机制,在程序上确定何时、是否对非法内容的传播负责(比如当托管服务提供商在收到通知时,应当立即采取行动),这被认为与美国DMCA 的“通知—删除”程序类似,而前者在程序上“更具行政化的色彩”。①具体而言,DSA 规定了“通知”中必须包含的信息,包括“经过充分证实的理由和解释”“非法信息的确切电子位置”和“确认通知是善意的声明”(DSA 第16 条),同时托管服务提供商有义务将其所做决定及其原因通知请求采取措施的用户和受影响的用户(DSA 第17 条)。DSA 也指出了“行动”的可能形式,包括“限制特定信息的可见性,比如删除、禁止访问或降级内容”“暂停、终止或限制支付”“暂停或终止服务”和“暂停或终止(被指控的)侵权人的账号”(DSA第17 条)。——笔者注尽管DSA 针对“通知—行动”程序作了详尽规定,它并未明确要求托管服务提供商在事前防止同样的非法内容的出现,这或许可以认为是DSA试图在治理有害内容与维护公民基本权利之间找到某种平衡。

表1.超大型在线平台的内容治理义务

欧洲通过新立法的举措被国际社会寄予厚望,与美国的法治困境形成鲜明对比。但是美国仍坚持以市场方式监管社交平台,“反垄断”被视为重要的解决方案。②Nathaniel Persily and Joshua A.Tucker,Social Media and Democracy: The State of the Field,Prospects for Reform,Cambridge University Press,2020,pp.199-219.这是该国监管传统媒体思路的延续,在立法和司法实践中得到呼应,包括出台《终止平台垄断法案》(The Ending Platform MonopoliesAct,EPMA),对谷歌和Meta③Meta(中文译为“元宇宙”),由美国社交媒体平台Facebook 部分品牌改名而来。——笔者注发起了反垄断诉讼等。然而,欧盟的新立法承受了一定的外部压力,比如国际非营利性组织“电子前线基金会”(Electronic Frontier Foundation,EFF)担心DSA 的规定容易导致过度执法:“DSA 允许政府机构命令广泛的网络服务提供商删除涉嫌非法的内容,赋予政府权力发现匿名发言者和其他所有人的数据。”更多关于DSA 的质疑集中在执行效力,以及对于隐私与安全的影响④比如苹果公司认为DSA 部分条款给其用户带来不必要的隐私与安全漏洞,阻碍其知识产权投资的成本回收。参见李鸿涛:《欧洲针对美数字巨头加强监管》,《经济日报》2022 年7 月20 日第4 版。等方面。欧洲在该领域的严格立法为美国提供了参考,但到底是“照单全收”还是“合理借鉴”则有待进一步观察。

(二)采取共同规制的新形式,公平分配平台用户权利和义务

西方社交平台在内容调节上的“低精确度”“选择性执行”等问题,既受到法律规定本身模糊性的影响,也部分归因于平台自我规制效力的局限。对于前者,美国司法部正式提出立法提案,建议将第230 条(c)(2)(A)中的“其他令人反感的材料”规定为“促进恐怖主义或暴力极端主义”“促进自残”和“非法”的内容,防止平台根据原来的规定随意删除内容,并要求平台在确定相关内容属于这些类别后才可以删除,建立可以删除的“黑名单”。

对于后者,部分西方国家以“共同规制”(co-regulating)的新形式解决问题。“共同规制”即政府机构介入由市场主体制定的自我规制的制定和执行进程,以强化前者的效力。根据政府机构介入程度的不同,具体区分为“共同规制”“受监管的自我规制”和“审计式的自我规制”。①Rolf H.Weber,Realizing a New Global Cyberspace Framework: Normative Foundations and Guiding Principles,Springer,2014.pp.33-51.共同规制形式旨在有效协调多个利益相关方的诉求,既实现国家层面的预期目标,又为市场主体保留了一定的自主性。比如,欧盟、爱尔兰、澳大利亚分别以“数字服务协调员”“在线安全专员”“电子安全专员”的形式实现共同规制(详见表2)。这些行动的意义或许并不仅限于相关内容被“删除”或相关平台被“罚款”本身,而在于平台因被施加“删除”或“罚款”等制裁而造成的品牌声誉的负面影响,这些负面影响将迫使平台采取必要的行动以维持其负责任的形象。

共同规制除了可以提升自我规制的效力,也可以对自我规制的执行进行必要的监督。针对社交平台内容调节的“选择性执行”问题,政府机构要求社交平台披露更多内容调节过程的具体细节,或许可以防止出现少数人“被针对”的情况。至于具体披露的对象范围,则可以根据相关信息的性质分别处理。有研究者建议,平台的内容调节、广告和运营服务是可以披露的领域,其披露对象包括公众、用户、研究人员、监管机构等,但一些社交平台的内部信息不宜公开,如操作和内容审核算法的专有代码,此类信息的披露可能有损知识产权和平台系统的诚信;用户的个人信息也应受到保护,例如投诉网络有害信息的用户身份可以提供给监管机构,但不一定要披露给其他用户或大众。

此外,针对用户被“制裁”后缺乏申诉和救济渠道的问题,更好地平衡平台与用户的权利义务关系是今后的改进方向。由欧洲法律研究所(European Law Institute,ELI)推出的“ELI在线平台模式规则”(ELI Model Rules on Online Platforms)明确了“黑字原则”(black letter rules)①英美法系中的一种术语,用以表示一种完善的法律规则,已经被法院普遍接受或体现在某一特定司法管辖区的制定法中的基本的法律原则,不再受到合理争议的制约。——笔者注,平衡、全面地规定了“平台运营商对用户的一般义务”(包括信息透明度和合同条款、排名系统的透明度、声誉系统的一般要求、声誉系统的职业勤勉标准、评论的可移植性、保护用户义务、对用户提供误导信息的责任等)。②Christoph Busch,Gerhard Dannemann,Hans Schulte-Nölke,Aneta Wiewiórowska-Domagalska and Fryderyk Zoll,The ELI Model Rules on Online Platforms,Journal of European Consumer and Market Law,vol.9.这些规则精神大多体现在了后来正式通过的DSA 的条款中。DSA 授予用户对任何内容限制的决定提出异议的权利,以此确保普通用户言论和信息获取的自由。这包括欧盟范围内“通知—行动”机制的协调,数字中介机构开展自愿“主动”调查的可能性。DSA 还通过维持对数字中介服务的一般监控义务的禁令来保留《电子商务指令》中的关键原则。

(三)推动内容策展形式的公平性、可问责性和透明度

面对各种内容策展形式,个人往往无法注意到自己正在受到影响,也无法理解自己被朝着某一方向(而非另一方向)影响的原因,这引发了算法中是否存在偏见的担忧,是否会造成“过滤气泡”效应的担忧,以及算法是否反映或加剧了其设计者和全社会针对特定问题的判断倾向的担忧。现阶段,社交媒体平台依靠新技术手段的解决方案无异于“抱薪救火”,无法真正有效地缓解算法偏差——算法决策的黑箱性质使算法中隐藏的系统性偏差无法被用户,甚至是开发人员自己所注意到。为了更有效地监督互联网平台基于算法的内容策展,有必要对平台内容策展形式的具体实施过程及其影响,对算法开发人员与平台运营方所信奉的世界观、价值观进行更有效的监督问责,促进该领域的公平性、可问责性和透明度。有时,透明度会被认为缺乏效力,只强调透明度义务而没有随后的行动义务无法制止偏差行为,从而无法发挥充分的治理作用。但是透明度义务并不是孤立的,人们将透明度与公平性、可问责性绑定,因为它是推动公平、进行问责的先决条件,从中产生了各方面要求被平等对待的压力,迫使平台运营方必须遵循自己制定的标准、原则,对偏离标准、原则的做法给出合理的解释,因此透明度并非毫无意义。对于社交平台来说,推动其内容策展的公平性、可问责性和透明度的改进方向可能包括(但不限于):第一,设法提高人们对于策展实践如何影响用户体验、表达自由的认识(披露相关信息,并以易于公众理解的方式呈现);第二,向全社会公开策展实践赖以形成的主要参考指标(包括各项参考指标之间的相互关系、如何进行加权赋值等),从而使人们更好地了解平台所倡导的价值观,以及在此价值观主导下可能被放大或压制的内容类型;第三,为用户赋能,提高用户掌控内容的自主性(如自主决定其个人数据被允许收集和使用的程度、其个人数据是否用于开发和完善机器学习模型、是否接收受到策展的内容等)。

部分学者呼吁从已有的其他法律中找到监管依据。比如,欧盟《一般数据保护条例》(General Data Protection Regulation,GDPR)关于“除名权”(right to de-listing)①“除名权”允许任何人要求搜索引擎删除根据其名字和姓氏进行查询中出现的结果。此删除并不意味着删除源网站上的信息。欧盟法院(CJEU)于2014 年正式承认了“除名权”。法院裁定,任何人都有权要求运营搜索引擎的公司删除与其身份有关的结果,但须符合某些条件,比如,不得违背获得此类信息的公共利益。的规定。欧盟理事会要求,对于每一项除名请求,必须根据三类主要标准衡量公众对于获取信息的利益,包括相关数据的特征(信息内容、上线时间和来源等)、数据主体的声誉和职能、获取信息的条件(公众通过其他方式获取信息的可能性、有关人员已经明确公开信息的事实等)。其中,“敏感数据”(宗教信仰、性取向、健康状况等)受到严格保护。显然,“除名权”对于社交媒体平台通过自动抓取、分析数据而进行的内容策展形式具有重要的约束作用。比如,美国政府计划在中期选举后推动新的反垄断立法《美国创新和选择在线法》(The American Innovation and Choice Online Act,AICO),该法针对“大平台”(Covered Platforms)的歧视性、自惠性行为做出了严格规定。又如,DSA 要求“超大型在线平台”和“超大型在线搜索引擎”应当“更好地控制流向人们的信息”,所有在线平台必须披露其内容推荐系统的参数,以解释为什么人们比其他信息更频繁地看到某些信息。这些关于内容推荐系统的参数应该可以通过他们的服务条款轻松地获得。而且,人们应当有权利修改内容推荐系统,并有权利获得至少一个不是基于分析的选项。

四、结语

当前,在“强监管互联网”阶段,“国家”再度成为社交平台内容治理的重要主体,这一点无论在西方还是东方都是相同的。特别是在“中美竞争”格局之下,中美两国的社交平台因应市场变化而朝着有利于竞争的方向调整,从而将在监管目标、策略和手段方面产生更多的共同点。区别在于,目前“美国模式”“欧洲模式”强调多个利益攸关方平等参与治理,“中国模式”则呈现出“政府主导、社会参与”和“以意识形态为重点,兼顾经济发展”①张志安、冉桢:《中国互联网平台治理:路径、效果与特征》,《新闻与写作》2022 年第5 期。等特点:一者,始终强调政府在治理中的主导作用(设计和执行监管规则),政府可以调用各类资源促成治理目标的达成,政策执行的优良效果构成了中国的独特优势。同时,平台依靠志愿者、社区委员会等参与社区生态治理,及时发现和处理违规信息。二者,维护网络意识形态安全是中国治理社交平台内容的首要任务,无论是《互联网信息内容生态治理规定》《互联网信息服务算法推荐管理规定》,还是“媒体白名单”“清朗行动”等都服务于这一主题。同时,治理也兼顾社交媒体平台不断扩大市场、增强竞争力的目标,抖音及其国际版TikTok 在海内外取得的成功就是这一治理取向的典范。当然,“中国模式”也有自身的问题,包括运动式治理的主体不清晰、效果难持续,制度化建设层面缺乏具体、统一的法律规定和阐释、法律位阶不高,用户合法权益易受损害,等等。本文无意评价三种治理模式存在价值层面上的优劣,能否取得治理实效才是最重要的评判标准。在过程话语视域下,通过与其他模式的比较,各个模式的优势可以得到彰显,其中的问题也可得到廓清和规避。

猜你喜欢

策展规制社交
社交之城
社交牛人症该怎么治
主动退市规制的德国经验与启示
关于策展
社交距离
你回避社交,真不是因为内向
2017 艺术策展人
保护与规制:关于文学的刑法
关于将“curator”统一翻译为“策展人”的建议
中西方博物馆策展人(curator)制度浅析