平台监管权在未成年人网络欺凌行为防治中的实现进路
2025-01-17李伟赵俊博
〔摘要〕 当前未成年人网络欺凌现象多发,存在着法律界定与现实防治的难题。《未成年人网络保护条例》第二十六条对如何落实防治未成年人网络欺凌行为作出有力回应,赋予网络平台针对该行为的监管权。文章从权源缘起与实践探索的角度出发,分析平台对于未成年人网络欺凌行为的监管权应当包括预警审核权、识别监测权与规范处置权。网络平台监管权的有效实施务必严格遵循依法行权、合理行权、正向培育与合作规制的原则指引。完善确立羁束与裁量制度规范,构造横纵结合的场景模型,组建多元协作监管系统,从而确保平台监管权的平稳运行,实现未成年人网络欺凌行为的法律防治,切实保护未成年人的合法权益。
〔关键词〕 网络欺凌;平台监管权;网络安全;《未成年人网络保护条例》
〔中图分类号〕G 804.8; G442
〔文献标识码〕A
〔文章编号〕1 008−2689(2025)02−0065−15
引言
伴随着信息数字社会的快速发展,网络环境中未成年人欺凌现象愈益多发,已成为社会关注的焦点问题。这种欺凌行为跳脱了现实空间的限制,呈现出近乎没有时空边界的“无休止欺凌”特征,更易于给受害者造成巨大伤害。根据《2021 年全国未成年人互联网使用情况研究报告》,未成年网民遭到网络欺凌的比例为16.6%,2022 年则上升至34%,部分未成年人因之患上心理疾病甚至产生轻生的念头①。这一现实问题引发了立法者的关注,2024 年1 月1 日起施行的《未成年人网络保护条例》(以下简称《条例》)对此作出回应。该条例第二十六条②规定了网络产品和服务提供者应当采取预防与治理举措,在行政立法层面对未成年人网络欺凌问题加以专门法律规制,为平台监管权在防治未成年人网络欺凌的实现提供了法律基础和现实契机。但是,如何理解阐释第二十六条的立法理念,将其具体落实于未成年人网络欺凌的预防、识别和处置之中,目前学界并无相关研究成果。同时,通过探讨平台监管权在防治未成年人网络欺凌中的实现,可以为数字时代网络平台的规范治理提供一个观察样本,从而有助于推动网络平台的合规建设与发展。
一、未成年人网络欺凌行为的概念界定与防治现状
未成年人网络欺凌频发是数字时代亟需解决的社会问题。网络欺凌与传统欺凌虽同属于欺凌行为,但二者有所不同,前者相较后者更具复杂性、隐蔽性、广泛性,从而导致维权取证难、预防成本高、秩序破坏严重等问题[1]。值得关注的是,当前未成年人网络欺凌法律规范与防治手段存在滞后空转等现象,使得未成年人合法权益无法得到根本保障。因此,合理界定未成年人网络欺凌行为的法律概念与准确分析现行防治欺凌行为的法律规范体系,一方面能够明确治理对象与治理行为,另一方面也有助于及时查摆制度漏洞与防治症结,为建构新型未成年人网络欺凌防治体系奠定基础。
(一) 未成年人网络欺凌行为法律概念界定
现行法律规范体系中对于未成年人欺凌已有相对完整的制度框架,但对于网络欺凌行为则关注不足。通过立法梳理可知,在《未成年人网络保护条例》颁行前,仅有3 部法律对未成年人欺凌有所提及。其中,《预防未成年人犯罪法》作为干预矫治未成年人犯罪行为的基本法律理应对未成年人欺凌行为予以周密详尽的规制举措,但该法仅关注到校园欺凌,并未对网络欺凌作出规制①。《家庭教育促进法》则是要求监护人对未成年人开展“防欺凌”教育,但更多是从教育规劝而非以强制义务的角度加以规定②。《未成年人保护法》着重强调关于预防未成年人欺凌的学校管理与监护人教育的两方责任,并在“附则”中对学生欺凌作出说明,即“学生欺凌是指发生在学生之间,一方蓄意或者恶意通过肢体、语言及网络等手段实施欺压、侮辱,造成另一方人身伤害、财产损失或者精神损害的行为”③。但该条文仅将“网络”视为一种欺凌手段,并未清晰地认识到网络欺凌与传统欺凌之差异。由此来看,既有立法对于未成年人网络欺凌尚无明确界定。《未成年人网络保护条例》则是沿用《未成年人保护法》相关网络欺凌的概述,以禁止性规定与列举式定义框定其范围。但此举显然难以穷尽所有手段,如骚扰、嘲讽等行为无法由此标准加以认定④。此外还有一些地区、部门的工作方案对未成年人网络欺凌有所关注,如《上海市预防中小学生网络欺凌指南30 条》《儿童侵害防范指南》等。但审视其适用范围与效力位阶,未成年人网络欺凌定义在法律层面仍未有权威性阐释。未成年人网络欺凌的内涵外延界定不清,必然导致无法区分其行为程度以触发法律适用机制,亦使得管理主体无法形成有效的预防监管、劝诫教育与干预处置。
基于以上立法现状,不少学者尝试从比较法分析、犯罪心理学、社会伦理学等角度,对未成年人网络欺凌进行界定,其观点主要分为“媒介说”“行为说”“结合说”等。“媒介说”主要强调网络渠道的媒介作用,欺凌者通过社交软件、论坛、网络日志等方式反复故意地实施伤害他人的行为[2]。正是通过计算机、手机等电子设备,网络欺凌成为传统欺凌在虚拟网络世界上的衍生[3]。“行为说”则强调网络欺凌手段的使用,提出以公开或秘密的方式反复发送或公布有害(残酷、粗俗、威胁、尴尬、骚扰、可怕)的电子邮件、信息、图像、视频和语音来伤害某人或团体[4]。“结合说”借鉴美国联邦最高法院“毕肖普案”评判中行为与言论两要素,提出网络欺凌要具备侵权行为和冒犯性言论之结合,强调侵权效果与特定禁止内容[5]。由此可见,学界尚未对网络欺凌的定义和特征达成一致。但基于各方观点,可以发现网络欺凌的民事法律关系具有以下特征:其一,行为主体层面,确定欺凌主体应当根据是否具备加害行为进行判断,这种行为往往是由欺凌者最先向受害者发起实施,且具有违法性特征。基于主体数量特点,可分为个人和群体;而主体性质角度,则一方可分为施害者,另一方则为受害者且为未成年人。其二,损害结果层面,加害行为使得受害者人格权遭受侵害,造成影响身心健康的损害事实。具体表现为恶意施害行为影响受害者身心健康,从而产生恐惧心理,出现抑郁、焦虑、失眠等症状。甚至后期演化成厌世心理,进而导致自残、自杀等问题出现。其三,因果关系层面,不论是相当因果关系说,还是事实与法律因果关系两分论,在判断加害行为与身心健康侵害是否存在因果关系时,“可归责性”难以做到准确衡量,但借助社会一般人的“可预见性”标准能够合理评价二者之间的因果关系。其四,主观因素层面,欺凌者以主观恶意加害对方为目的实施加害行为,此处的欺凌者包括发布实施者、转发传播者、点赞评论者等不同身份,主观过错可以区分为故意与过失两种情形。
综上所述,未成年人网络欺凌行为是指个人或群体通过信息网络对未成年人实施恶意伤害致使其产生恐惧心理的行为。此处与传统学界定义有三点不同,一是加害行为的工具媒介界定,这与信息技术产业的摩尔定律相关。电子设备不断迭代升级,难以穷尽列举设备或手段,因此界定为“信息网络”场域相对客观可行①。二是不再区分加害行为的公开或私密形式。欺凌者将受害者私密照片发送至社群、第三人或本人的效果呈现趋弱现象,但由其恶意目的与影响程度,基于一般理性人标准,即可判断受害者心理是否达到恐惧程度。因此,公开或私密的形式不特定并不影响最终结果。三是不再强调加害行为的“反复性”。传统欺凌需要“反复性”来评价衡量行为性质与侵害程度,但网络欺凌囿于自身延展性、交互性、开放性等特点,一旦欺凌者藉由“信息网络之手”施行加害行为即不再可控,影响范围与侵害程度呈指数级扩大增加,“反复性”显然无法作为审查标准再适用其中。
(二) 未成年人网络欺凌行为现有防治体系
结合现行法律规范与管理实际来看,未成年人网络欺凌现有防治体系实质上是以国家引导、学校管理与家庭教育三位一体为核心支撑,鼓励网络保护、司法保护与社会保护形成合力。在管理主体层面,传统预防机制侧重强调以学校作为预防未成年人欺凌的主要抓手,采取教育保护与惩戒规制的防治手段。预防机制同时督促家庭教育主动介入未成年人价值观培养之中,以期实现家校双向调整共治学生欺凌。在功能效用层面,现有防治体系重在惩治,弱在预防。法律不断完善健全对欺凌者的责任规制,但考虑到未成年人特殊的年龄特点与成长阶段,整体上秉持谦抑性态度。欺凌情节轻微,一般采取学校规制、监护人教育的方式予以约束;欺凌情节严重,才会考量治安管理行政处罚或在刑事领域中定罪量刑。在司法实践层面,“蜻蜓点水”式的防治体系仅局限于校园空间范围中学生之间的现实欺凌。这种防治体系虽具有较为完善的事后惩戒机制,但其预防功能发挥仍显滞后且乏力,试图以惩治代替预防无法解决根本问题。而网络欺凌行为愈加呈现线上线下结合的特点。欺凌者以造成受害者心理伤害为目的,借助信息网络传播以加深欺凌效果,产生现实欺凌与网络欺凌的双重影响。2022 年郑州中级人民法院发布未成年人网络欺凌典型案例,其中“王某等六名被告人强制侮辱案”直接体现出学生欺凌由校园延伸至网络空间的特点,折射出家庭监管、学校教育的双重缺失②。2023 年“寻亲男孩”刘学州被网暴致死案经北京互联网法院立案后开庭,该案律师向法院提供2 000 多条网暴言论的账号信息证据③。传统防治策略仍将学校作为未成年人网络欺凌的起源地,而上述两个典型案例中学校主体已经无法对网络欺凌产生规制效用。监护人通常是网络平台“通知−删除”义务的触发者,但在刘学州案中监护人的主体作用亦缺位失效。诚然,刘学州案当属个例,学校教化育人功能与家庭善良家风建设对未成年人网络素养培育仍能起到一定促进作用,但监护人能否合理履行监护职能,需要对其“理性人”假设进行重新审视④。
当前,未成年人网络欺凌防治体系存在制度失灵与规范滞后的问题。现行法律已经注意到校园欺凌出现行为边界扩张的现象,网络欺凌广泛依托于网络平台而存在。这已经逾越现有防治体系范畴,故法律将网络平台纳入防治主体范围,但仅要求其履行及时删除的义务⑤。该条款实际借鉴美国《千禧年数字版权法》中对网络平台在知识产权侵权领域的责任规定,明确其履行“通知−删除”义务要求后将不再承担其他责任[6]。但这种事后删除链接以控制扩散范围的行径无异于掩耳盗铃,恶意伤害行为已致受害者身心健康产生负面影响。因此,现有防治体系中仅依托学校与家庭发挥预防作用的实然模式,并不能真正地实现防患于未然。对于网络欺凌中信息审核与传播控制来说,学校与家庭只能是“心有余而力不足”。而单纯依靠网络平台“通知−删除”管理制度亦不足以从源头上有效遏制未成年人网络欺凌的发生。质言之,不论是家校联合防治,还是传统平台管理,都无法弥补未成年人网络安全保护的漏洞。显然,这并非网络欺凌行为的应然防治模式。在当下社会现实中,更需要结合网络欺凌行为特征进行防治法律体系的再塑与完善。网络平台作为欺凌发生地与规范制定者,实有必要探究其在防治未成年人网络欺凌中的角色地位。申而言之,网络平台能否通过严格审核与有效监管的方式,在一定程度上妥善解决未成年人网络欺凌问题,值得深入考量与全面归纳。
(三) 未成年人网络欺凌行为防治因素考量
未成年人网络欺凌的传统防治机制面临数字时代的治理难题,防治体系中学校与家庭主体作用日渐式微,问题产生与治理路径共同聚焦于一点之上,即作为欺凌行为发生场域者的网络平台。《民法典》要求网络平台对用户在使用服务中产生的侵权行为履行管理职责。一方面要求平台接到举报通知后,应及时采取必要措施;否则,将对损害的扩大部分与侵权人承担连带责任。另一方面要求平台应当对用户侵权主动察觉、积极发现;若事先知道而未采取必要措施,亦要求其对全部损害承担连带责任①。上述规定从网络平台的不作为责任到作为义务均进行规定,不论是被动接收举报,还是主动发现侵权,都对网络平台施以严格的管理责任。那网络平台如何实现举报接收与事先知悉的双重功能于一身,应当采取何种必要措施才能够免于承担责任呢?具体在防治未成年人网络欺凌中,《条例》第二十六条所规定的平台监管权如何能够对《民法典》上述条款的适用与司法实践的问题予以回应?从上述问题出发,结合《条例》的立法精神和具体条款,平台监管需要考量的防治因素应当包括监管平台主体的限缩、监管技术路径的选择与合规行权制度的构建。
平台监管权的导入,应当以网络平台的范围界定为前提,这有助于明确平台监管权行权主体。伴随平台经济的崛起演进,社交、娱乐、交易等分布式网络生态逐步被聚拢在规模庞大的互联网平台之上[7]。平台网络空间的搭建是将社会现实存在置于互联网环境转化,客观上已经具备公共事业属性。但平台用户个体的地位和权利均被弱化,平台运营者基于技术和运营特征具有天然的权力优势。平台不应再以“技术中立”规避主体责任,而应从网络空间的技术提供者向平台监管者转变。平台应更多地用监管前置来减少后期必要措施的实施,积极发挥预防网络欺凌功能,促进平台运营有序与社会秩序稳定。因此,监管平台范围的限缩尤为关键,以此可以保证平台监管权防治作用的可靠性与有效性。平台规模方面,根据《互联网平台分类分级指南(征求意见稿)》说明,超级平台是指用户规模超大、业务种类超广、经济体量超高和限制能力超强的平台,如微信、抖音、支付宝、高德地图等,具有权力集中度高、权力作用耐受、规训方式隐蔽等特征[8]。主体类型方面,该指南还依据连接对象和功能设置将平台类别分为六类,结合未成年人不同触网场域的高发特点,其中网络销售、生活服务、社交娱乐、信息资讯等四类均应包含在平台监管权的主体类型之内。依照“权责一致”原则分析,《条例》第二十条亦对行权主体范围提供参考。由此来看,未成年人网络欺凌平台监管权的主体是指面向未成年人用户并对其产生显著影响的超级平台。
随着网络信息技术的迅猛发展,未成年人网络欺凌出现多形式、新样态等特点,以个性化偏好集聚形成圈层化族群,凸显出群体性、倾向性与单向性的行为特征,“饭圈欺凌”是其典型代表[9]。这种基于网络族群所形成圈层化网络语言而实施的网络欺凌,对传统防治技术路线构成新的挑战。网络语言是用户以符号系统为介质进行网络交际活动的表意符号,具有情感性、普遍性、特定性以及谐音双关与以形会意的特征[10]。网络语言并不是单纯的信息传播互动,其更多地反映出个体差异、社会关系以及背后的心理活动、价值取向与身份认同等[11]。当前未成年人网络欺凌的技术防治路线,主要集中在发布源审核与敏感词过滤等方面。例如B 站设有内容审核专员对于投稿视频审核、弹幕评论监管、私信反垃圾信息处理等方面进行管理。抖音、闲鱼分别以“大众评审团”和“闲鱼小法庭”招募用户对争议投诉进行审核评判。在技术层面上,目前发布源审核与敏感词过滤仍处于初级的“人工+机器”的审核阶段,浅层学习结构机器审核识别精度不高,需要借助人工辅助完成二次质检。但这种方式忽略了网络语言手段多样化、互动场景化与个体差异化的特点。《中国青少年互联网使用及网络安全情况调研报告》显示,71.11% 的青少年遭受网络欺凌场域主要在网络社区、短视频和新闻评论区等,其内容大多是嘲笑辱骂、恶意动态图、恐吓等[12]。网络语言在脱抑制效应与链式传播效应双重作用下,欺凌者依然能够采用缩略语、符号语、表情语等方式在特殊语境下赋予其侵害含义[13]。因此,平台监管权的有效行使需要依靠与时俱进的技术创新,以此强化网络欺凌行为的防治能力。
未成年人网络欺凌行为多发,与网络媒体形成的流量逐利思维存在着重要的内在关联。海量网络媒体以争夺市场占有、增加用户黏性为目的,主动迎合受众群体的关注喜好,这成为卖方市场向买方市场转变后的普遍现象。但一味地追求吸引流量势必造成反噬,继而导致传播虚假信息、散布负面能量、扰乱公共秩序等问题近年来层出不穷。网络媒体与公众关注内容具有交互双向度的特点,使得传统防治策略作用发挥空间受限紧缩,措施效果也会大打折扣。2021 年《法治日报》曾刊载一起公众号平台实施未成年人网络欺凌的案件①,施害者借自身平台流量“变现”,以非法牟利为目的虚构未成年人不实信息,侵害未成年人名誉权。在该案中,作为行为发生地的公众号平台本应严格审核把关,但却成为案件发生的“助推器”与“孵化地”。因此,囿于网络平台自身逐利性特点,应对平台监管权的理念原则、权力边界与合规制度予以合理设计。《条例》赋权网络平台监管权的同时,需要从管理实践角度厘定其“四至”边界范围、梳理权能脉络、明确权能导向,才能够有效防治未成年人网络欺凌所带来的风险与挑战。因此,从平台合规治理的视角切入,继而展开适当引入平台监管权的探讨,应当是防治未成年人网络欺凌行为的可行分析进路。
二、平台监管权导入未成年人网络欺凌行为防治中的法理解析
作为预防未成年人网络欺凌的重要阵地,网络平台通过平台监管权的有效实施,能够及时介入网络欺凌全过程,积极发挥最后一道防线作用。平台监管权被视为网络平台实施预防规制的有力手段,对《条例》第二十六条的阐释理解与准确把握,有助于进一步提供合法性论证,这也应当是《条例》颁行的应有之意。因此,有必要对平台监管权的权力属性与权能范围进行厘定,为平台监管权的顺利实施提供法理基础支撑。
(一) 平台监管的权力属性及其内在逻辑
1. 平台监管权法理权源缘起
对网络平台监管权不同效力等级的规范性文件进行逐级分析,是展开论证其权力来源的法理逻辑前提。平台将未成年人网络欺凌行为作为监管对象的主要缘起是在《关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》中对于《民法典》要求“网络平台承担连带责任”情形考量的司法解释,将“网络平台是否具有预防侵权措施的技术可能性与是否采取合理措施”作为考量标准的因素设定②。《未成年人保护法》与《网络安全法》虽未明确对于平台监管权的具体授权,但都从法律层面上强调明示未成年人群体具有特殊性,要求平台应当加强未成年人网络安全保护③。而《条例》的出台则是对平台监管权确认的直接来源。其中第二十六条对网络平台监管未成年人网络欺凌给予指导,并赋予平台主体在预警预防、识别监测、处置机制等方面的监管权。在部门规范性文件方面,针对信息内容管理范围的具体要求,《互联网信息服务管理办法》与《计算机信息网络国际联网安全保护管理办法》最早提出“平台应对信息内容加以审核,发现侮辱或诽谤他人的,应即时停止传输,保存记录”。《即时通信工具公众信息服务发展管理暂行规定》则直接指出具体处置措施,“平台应当视情节采取警示、限制发布、暂停更新直至关闭账号等措施”。《网络信息内容生态治理规定》要求“平台应加强信息内容审核管理,一经发现违规行为应采取处置措施”,《互联网用户公众账号信息服务管理规定》重点强调“平台应建立健全规则制定、分级管理、信用评级、谣言处置等制度”①。整体来看,平台监管权权源丰富,已基本建构起相对完整的规范架构。但对于未成年人网络欺凌这一调整对象来说,权源层级相对不高,唯《条例》中所设置有关“平台监管权”的内容,是当前最具全面性与可操作性的立法规定。
2. 平台监管权学理属性论证
从学理逻辑角度来看,不少学者已经从对平台责任约束机制的探讨转向对平台监管权力论证的研究。马长山教授认为,政府通过将自身公法审查义务以权力形式赋予网络平台,造成“防火墙”与“避风港原则”之间的内在张力,平台至此享有着自身运营的管理权和政府转加的公法审查权,形成了日益庞大的、具有某种公权特征的私权力[14]。刘权教授提出,平台通过制定和实施管理规则,实际上拥有并行使着“准立法权”“准行政权”“准司法权”的私权力,承担着维护网络市场秩序的公共职能[15]。还有一些学者从平台类型化着手,对不同领域范围的平台监管权进行拆分解析,提炼出直播营销监管权、网络借贷监管权、网络交易审查权等权力[16]。平台监管行为作为私法领域的内部管理活动,需要用户接受平台服务协议且提供授权。但基于平台地位与实力不断增加,超级平台所提供的基础性公共服务致使自身公共属性不断集聚。由此来看,平台监管权兼具公法属性与私法属性,是受公法和私法共同调整的社会权。具体到未成年人网络欺凌行为的监管方面,平台自身管理权与转加审查权共同使其成为保护未成年人合法权益并排除他人非法侵犯的利他权[17]。另外,从监管行为性质上来看,平台监管行为的确可以通过监管机制与裁定监督加以施行。但平台发挥防治未成年人网络欺凌的功能时,并不侧重于“行政立法”与“行政裁决”,而是更多地以“行政执法”的形式予以展现。按照“行政执法”行为性质分析,平台在实施预警预防与识别监测功能时,本质上是在其所属范围内对用户言论进行事前与事中的督促检查。这类行为较符合“行政监督检查”的特征。在欺凌行为规范处置方面,主要突出预防管理功能并非“行政处罚”的惩戒处理。尤其是这种欺凌处置行为要兼具预防性与强制性,平台暂时性冻结控制施害者账号,屏蔽欺凌言论并保存记录。这种制止违法行为、避免危害发生、控制危险扩大的要素符合“行政强制措施”的特征。但二者并不相同,可借鉴“金融业审慎监管措施”的规范处理方式划分为“类行政强制措施”之类②。
3. 平台监管权实践技术探索
关于实践逻辑的论证,需要围绕当前平台算法技术的实现可行性进行说理。在Gartner 曲线爬坡阶段延长与摩尔定律持续放缓的情况下,超级平台所在领域的信息产业技术发展格局渐趋明朗。伴随着超级平台市场份额的逐渐扩增、数据资源的长期积累与审查权力的实际控制,对于新兴平台市场进入的抑制作用也由之扩张。同时,技术迭代升级使得网络硬件设施的计算、存储等能力亦随之呈现指数型增长,互联网平台的公共品属性日趋明显。根据梅特卡夫法则,平台价值与用户数量的平方呈正比。因此,网络平台愈益具有非排他性和非竞争性特征[18]。平台技术中的算法承担着决策或辅助决策的职能,算法(设计者和拥有者)拥有一种事实上影响用户行为的能力[19]。而技术治理可以实现对未成年人网络欺凌的监测预防与阻断处置,弥补传统法律规制只能在网络欺凌持续发展到一定规模才能介入干预的弊端。实践中,平台开始采用降低推荐、强制删除下架等方式减弱影响程度,并上线投诉举报、一键防网络暴力及智能过滤等功能,还通过设置弹窗提醒“当用户收到大量非正常评论时,提示用户是否开启一键防护的功能”[20]。目前从技术层面来看,算法识别监测技术已经具备实现可行性,这将为平台监管权的行使与管理提供关键技术支持。
(二) 平台监管权的基础权能范围厘定
1. 信息内容发布预警审核权
《条例》第二十六条第二款规定“网络产品和服务提供者应当建立健全网络欺凌行为的预警预防、识别监测和处置机制”①。其中,信息内容发布预警审核被置于防治未成年人网络欺凌的首要位置,正是网络平台监管运行的基础功能。信息内容发布是未成年人网络欺凌实施阶段的起点。在平台公共性逐渐聚合的情况下,网络欺凌信息一经平台发布,便会自动广而告之。预警审核权,主要是指在用户使用信息内容发布功能时,网络平台对网络欺凌词汇进行预警与审核的权力。由此可见,预警审核权作为防治未成年人网络欺凌的第一道监管关隘,要将施害者恶意言论扼杀在萌芽初发状态。预警审核权的实现,需要以网络欺凌词汇的词频规律分析、语言习惯定准、图片与音视频内容表意识别作为审核要素,通过算法技术进行编码生成预警审核程序,一旦出现可疑词汇、图片与音视频等,即可对应转码为预警提示词、词汇转译重置、图片模糊处理与音视频滞后保存等。预警提示词可对发布者进行显著提醒,告知其目前疑似发布不当言论,应及时停止违规操作。词汇转译重置纠正了传统意义上对于敏感词隐藏或无法输出的不足,通过文明和谐词汇实现重置转译,降低不当言论的负面影响程度,同时辅之以图片模糊处理与音视频滞后保存,可阻碍发布者达成网络欺凌目的。
2. 网络欺凌信息识别监测权
网络欺凌信息识别监测权是《条例》第二十六条最为具体说明的核心权能。该条第三款对识别监测权进行重要补充,“网络产品和服务提供者应当建立健全网络欺凌信息特征库,优化相关算法模型,采用人工智能、大数据等技术手段和人工审核相结合的方式加强识别监测。”②立法者高度重视平台监管权中识别监测权的实现,对识别监测的方式和手段进行明确指引,要求网络平台要以网络欺凌信息特征库为根本,推动使用算法模型、人工智能与大数据技术来配合人工审核,提高网络欺凌信息的识别监测信度与效度。识别监测权的法律确认,将会提高网络平台优化产品、服务的积极性与创造性,加快网络欺凌信息特征库的建立健全进程,融入大数据算法技术与人工智能技术,实现及时发现未成年人网络欺凌之目的。在这里,识别监测需要将公开信息与私密信息进行区分。一方面,可对前期审核不严而公开的网络欺凌信息予以识别。面向公共区域内发布与传播的信息,平台可通过识别监测手段进行欺凌特征比对,以便在平台可控范围内采取后续处置措施,将未成年人受害程度降到最小。另一方面,识别监测不能突破用户个人隐私的底线。对于用户之间的私密信息,必须经过平台用户举报并授权,才可以进行严格识别审核与欺凌判定。若举报人未能提供初步证据材料,平台可设置举报投诉频率与次数。如有多人举报、多次举报同一用户行为,可对其进行公开言论跟踪或行为轨迹调查,将其所发布的公开信息予以重点审核或通过信息内容反馈进行评判。若确有欺凌倾向或欺凌行为,平台可将其纳入黑名单,限制其使用平台私聊或评论功能。
3. 网络欺凌行为规范处置权
网络平台享有的未成年人网络欺凌的规范处置权,这是由《条例》中第二十六条与第二十九条对网络欺凌处置的共同明示授权所赋予的重要权力。从内容上看,《条例》第二十九条补充解释了第二十六条中“处置机制”的建立健全路径。具体而言,网络欺凌行为规范处置权既包括对欺凌信息的制作、复制、发布、传播的防止权,又包括对欺凌信息停止传输、删除、屏蔽、断开链接的处置权,还包括对欺凌信息的制作者、复制者、发布者、传播者基于平台功能使用的处置权。上述两个“处置权”虽均属处置措施,但二者并不完全等同。其区分在于,前者注重时效性与紧迫性的制止干预,强调平台及时介入“欺凌现场”,突出使用干预性措施以控制影响扩散;而后者确保防止施害者继续使用平台账号再次实施欺凌行为,要求平台通过预防性惩戒措施加以防范。因此,网络欺凌行为规范处置权可分为三个方面,一是平台加强日常管理运行中的网络欺凌防护功能举措,二是平台对于网络欺凌信息的主动发现并及时采取处置手段,三是平台对于网络欺凌行为施害者的内部预防惩戒,区分不同施害者的身份作用作出相应层级的处置措施。
三、平台监管权在未成年人网络欺凌行为防治中的原则遵循
《条例》第二十六条对预防未成年人网络欺凌进行专门的立法规制是该部法规的亮点之一,但对于平台监管权缺乏具体明确的行权条件及达成标准,仍需通过引出平台监管的基本理念予以整合统领,从而实现网络平台行权规范的整体性、统一性与有序性。网络平台集制定规则、实施规则、解决纠纷等多项权能于一身,这种“准政府行为”的私权力具有“非常明显的手段上的压制性、侵入性、否定性和强制性”,将会影响到公共利益和许多个人的生计[21]。由此可见,在规范网络平台行为中,作为调整公法领域的行政法原则具有较大的适用空间,从其基础性功能层面来看,既要严格遵循兼顾职权法定与程序合法的依法行权原则,又要在实质正义指引下确保行权目的和手段合理的合理行权原则。此外,平台监管原则处于整合统领网络平台发挥防治未成年人网络欺凌功能的核心位置,还应当倡导积极正向的监管价值取向与确保监管稳定运行的合作规制原则。
(一) 严格遵循权责统一的依法行权原则
网络平台作为准公共性权力主体,其自身实施平台监管行为具有调整范围广泛与行为性质复杂的特点。较之平台与用户之间的私法自治关系不同,这种监管行为应当严格遵循职权法定这一核心原则,依照法律规定的权限和程序行使平台监管权,确保稳定性和可预测性。平台务必做到“法定职责必须为,法无授权不可为”,不得逾越法律、不得滥用职权。职权法定原则为导入平台监管权提供关键指引。一方面,应根据《条例》第二十六条规定的“四至”边界开展监管活动,即实施预警审核、识别监测与规范处置等行为。另一方面,应坚持权责统一原则,禁止平台选择性抛弃自身义务与法律责任。平台监管权内在属性本身就包含义务性质[22],严格遵循《条例》规定的平台约束义务之外,更应结合《未成年人保护法》与《网络安全法》相关责任规定,保证网络平台积极履行义务性责任中通知删除义务、及时报告义务、保存记录义务和主动承担知情而未采取必要措施的后果性责任。
平台监管权中的信息发布审核、欺凌信息识别与欺凌行为处置,都会对用户产生根本性权利和义务的影响,需要通过程序正当原则保障用户的知情权与参与权,以达到行政公开与公众参与的原则要求。用户通过平台所提供的正常渠道进行反馈、投诉,保障自身权利不被侵害,亦能有效监督平台监管行为。具体而言,平台监管权中预警审核流程、识别监测方式、规范处置等级等内容需要通过在平台规则中显著说明,确保用户提前知悉。区别于“刑不可知,则威不可测”①的古代秘密法状态,现代法治秉持程序正当原则,这就要求网络平台提供用户知情与公众参与的途径。平台应当保障用户享有对平台监管权行使记录的查询、访问、监督的权利,设置平台用户参与规则制定、欺凌举报、监管投诉的端口,如投票式规则意见征求、欺凌行为举报信箱、弹窗式规则建议反馈等制度。对于网络欺凌行为的识别监测与规范处置,平台更应依照正当程序实施监管权,主动接受公众监督。网络平台要对识别监测算法与数据特征库进行定期公示,实施规范处置行为要公平公正、公开透明,不得采用隐形执法、钓鱼执法的手段来佐证监管力度与效果。后续平台监管规则更新或技术改革升级,属于重大变动情形的,平台应重新进行意见收集与市场调研,并采纳合理建议以调整平台规则或技术,使得最终平台决策行为不与公众利益相违背。
(二) 坚持遵循损益权衡的合理行权原则
权益衡量是平台规制最重要的方式之一,平台监管权的本质是审核用户网络言论行为是否具有正当性、合理性的监管制度。平台依据《条例》进行严格的违法审查,以此协调网络言论自由与未成年人人格权益之间的冲突。平台应当坚持以比例原则作为考量标准对内部监管活动进行全方面、全流程的行为审查。平台监管首先根据用户言论性质作为认定依据,判断其是否属于网络欺凌信息特征库的比对范围;其次进一步评价用户在网络欺凌中的参与程度以确定身份责任;最后根据不同欺凌者身份责任以采取相应层级的处置力度。比例原则要求平台始终保持以防治未成年人网络欺凌为监管目的,体现目的正当性原则。平台监管手段需要确保识别判定与处置举措的合目的性和监管范围与处置方式的适当性,以此实现监管手段与监管目标之间的合比例性。美国《未成年人互联网保护法》要求平台加强关键字词识别以达成信息过滤的目的,采用分级处置网络言论的方法,实现平台防治效果与保障用户权益之间的利益平衡[23]。由此可见,比例原则的损益权衡功能在未成年人网络保护工作中具有指导意义。网络平台要坚持最小侵害原则,在发布识别、过程监管、制止干预等环节平衡监管权与言论自由权之间的比例关系,防止平台成为侵犯未成年人合法权益的助推者。
网络平台要保证合理行使平台监管权,就应当遵守平等非歧视原则的指导要求。平等非歧视原则强调平台同等对待情形相同用户,情形不同则应区别对待。一方面,平台应恪守自我约束原则,公平合理且不歧视对待每一用户。例如,不得因平台用户等级或特殊身份进行差别对待,如欺凌者为会员高等级用户或内部人员而免除或从轻处置;不得因数字画像产生因性别、地域、职业等原因的明显性歧视,也不得产生如算法过滤、算法错误和算法瑕疵等隐性与结构性的人为偏见[24]。另一方面,平等非歧视原则中区别对待情况条件不同者,主旨是要求网络平台对于不同参与身份的欺凌者,采取不同层级、不同程度的处置措施,对制作者予以封禁账号、传播者予以取消“链接分享”功能、评论者予以禁言警告等举措。
(三) 自觉遵循正向培育引导的预防前置原则
网络空间与现实环境共存共生,未成年人网络欺凌事件发生后,一般会在极短时间内在网络和现实环境下双重发酵而实现“质”的突变,严重者甚至会酿成社会舆论事件,继而对受害者产生二次伤害。虽然事后惩戒能够要求施害者承担后果性责任,但难以抚平对未成年人身心健康所造成的伤害。尤其是网络欺凌多发于青少年群体中,这一群体正处在“自然属性褪去与社会属性养成的发展阶段,在此阶段受到的欺凌会对其整个人生发展造成严重的负面影响”[25]。2022 年北京互联网法院发布未成年人网络司法保护典型案例,其中“刘某诉赵某侵害人格权案”足以彰显平台治理中事前预防较之事后惩戒的重要性。法院最终认定赵某侵害了刘某的肖像权、隐私权,判决赵某向刘某赔礼道歉并赔偿相关经济损失①。赵某主观上虽不具有欺凌恶意,但公开刘某私密信息的行为已满足未成年人网络欺凌的构成要素。这对未成年人刘某来讲,个人私密信息一旦曝光,不论是赔礼道歉或是赔偿经济损失,其身心健康状态已然无法恢复至欺凌前的完满状态。因此,相比事后惩戒,更需要网络平台建立健全未成年人网络欺凌潜在威胁的预防前置机制。
《条例》第二十六条第一款规定“任何组织和个人不得通过网络以文字、图片、音视频等形式,对未成年人实施侮辱、诽谤、威胁或者恶意损害形象等网络欺凌行为。”该条本身即属于面向平台用户进行的正向性引导、保护性宣示。本质上,网络平台作为公共性和非中立性的“守门人”,依据“谁受益谁负责”的法律原则,采取“以网管网”的规制策略[26]。对于未成年人网络欺凌的防范,网络平台必须从根本上坚持预防为主、教育为本的防治原则,加强对未成年人的安全保护与网络欺凌的早期干预,强调正向价值引导与培育功能。网络平台在实施审核发布信息、识别欺凌信息、规制欺凌行为的治理过程中,从威慑与防治的视角上,均是一种控制事件态势发展与防止其他用户效仿的预防举措。但完整意义上的根本性预防手段,主要意指平台对用户的正向价值引导功能,探索培育数字公民伦理与人文精神的治理新路径[27]。《条例》第二条要求“坚持以社会主义核心价值观为引领”,第六条规定“尊重社会公德,遵守商业道德,诚实信用,承担社会责任”。这种价值引领即是要求平台积极培养用户良好网络行为习惯,采取柔性手段加强正面引导。事实上,网络平台已经通过制定和执行平台规定来维护组织秩序与惩戒违规行为,从而培育用户的正向价值。故平台规则制定权本身即是具备预防告知、警戒提示的重要意义,教育引导是规则制定权内在意涵与外在表现的有机结合。平台通过用户服务协议签订、弹窗消息提示提醒、正向教育视频等方式来创设稳定和谐的组织秩序,树立公正平等的参与意识,营造良好的舆论生态,如社会公德宣传教育、遵规守纪奖励机制等。平台应当不断完善引导培育政策和举措,以公序良俗与社会公德筑牢未成年人网络欺凌的预防之基,强化社区社群建设,提高用户归属感与责任感,培养用户的网络自律意识和正确价值观。
(四) 全面遵循多元主体参与的合作规制原则
现代法治原则的社会面向,在逻辑上必然要求社会力量参与到法治化治理中。在未成年人网络欺凌行为的防治中,合作规制模式能够有效整合优势资源,集中力量提供社会公共治理。国外已有这方面的成功经验,如美国国家学校安全中心就曾组建专门防治欺凌团体,英国地方教育当局也曾支持成立NSPCC、BIG 等干预欺凌的组织[28]。这种政府参与、平台主导的治理优势在于各方主体易于实现相互协调、消除隔阂冲突,以最低成本保障长远的公共利益[29]。从我国立法现状来看,合作规制理念在《条例》中虽有体现,但监管主体应如何参与到平台监管与怠于行权应担何种责任均未明确。《条例》侧重强调网信、公安、教育等部门的内部合作。各部门均享有对未成年人网络欺凌的监管权,也享有对网络平台监督管理与警示告知的权力。但《条例》第八条写明,“任何组织和个人可以向上述监管部门投诉、举报。不属于本部门职责的,应当及时移送有权处理的部门”①。《条例》单纯指出政府部门接受投诉举报的被动监管形式,缺乏主动参与未成年人网络欺凌监管的具体渠道。若仅凭组织和个人的投诉或举报的形式,面对快速传播、影响广泛与施害隐蔽的欺凌信息时犹如“蚍蜉撼树”。单一化的监管手段不足以保证监督部门正常行使职权。此外,《条例》并未明确监管部门各自的具体职责,自行判断是否“不属于本部门职责”的情形而向有权部门移送,本身即是缺乏判断标准。各部门之间采取何种方式移送、移送次数、移送时间等也仍未明确。
网络平台因其自身技术、效率优势,在行使监管权时具有便捷性与有效性,但监管透明性与公正性仍有提升空间。行政监督以国家公权力为手段,能够兼顾规制的公共性与稳定性,但难以跟上网络环境与算法技术的快速变化[30]。因此,网络平台参与下的合作规制模式有助于整合政府部门与网络平台的优势力量,促进各方主体相互配合、信息互通,相比惩戒与救济功能而言,将会更好地发挥对未成年人网络欺凌行为的防治效能。一方面,根据“授权明确性原则”,明确赋予国家网信、公安机关、教育机关等部门作为未成年人网络欺凌监管部门相对应的具体职权,以此作为判断“本部门职责”的统一标准,防止出现治理空白、移送困难、监管缺失的难题,更好落实联合防控、综合监督。另一方面,强化防范未成年人网络欺凌风险的多元治理,整合平台、学校、家庭、社会力量。网络平台作为平台监管权行使主体,应积极主动借助技术优势合规行权;学校作为未成年人学习成长主阵地,防范学生校园欺凌网络衍化;家庭作为未成年人价值观塑造、行为习惯养成的生活场域,应持续发挥引导培育职能,增强其网络素养和自我保护能力;社会层面则涵盖丰富,包括社会媒体舆论监督、行业组织、社会公众等,需严格落实行业准则、社会公众参与监督机制,一经知悉或发现网络欺凌行为,可以及时向平台反馈,如遇平台监管失责、预防不力,也应及时向行政机关或行业协会提出建议、投诉或举报。这种合作规制模式,才能够实现防治未成年人网络欺凌的协同治理,促进主体功能与优势资源的全面整合。
四、平台监管权在未成年人网络欺凌行为防治中的路径选择
在传统监管理念中,自上而下的强制性手段促使网络平台对行政机关和社会公众负责。这种网络监管体系愈发呈现“一管就死,一放就乱”的局面[31]。在算法数据技术臻于成熟与用户规模呈现数量优势的条件下,网络平台已然具备准公共性特点的私权力。新型平台治理机制的建构,必须坚持以优化市场协调为导向,赋予网络平台在法律范围内一定权限的自我管理、自我调整与自我规制的权力。平台监管即是置于社会治理领域中的一种行为监管,需要建立在合规治理制度之上,完善发展羁束与裁量制度,合理优化平台治理结构[32]。具体而言,网络平台的信息审核、欺凌监测、行为规制等监管行为可分为羁束和裁量两类。羁束行为要求平台必须严格依照法律规定实施,而裁量行为是指赋予平台一定权限的自主权,其可对欺凌经过、侵害程度和行为性质等自行判断,以便于选择适当的监管方式和处置限度。由此来看,平台监管权的有效实现,需要确立合规羁束与合理裁量的制度标准以确保运行有序,深入构造场景模型以实现风险管控,组建协作监管系统以彰显防治功能,从而在法治轨道上推动未成年人网络欺凌行为的预防治理进程。
(一) 完善平台监管的合规羁束法律制度
《条例》第二十六条为导入平台监管权提供了立法指引,但仍存在欺凌定义不清、处置措施不全、职责分配不足等问题。立法部门应坚持以问题为导向,补足完善现行法律制度规范。首先,明确未成年人网络欺凌的法律概念。建议采用前文第一部分中所述的未成年人网络欺凌定义,即未成年人网络欺凌是指个人或群体通过信息网络对未成年人实施恶意伤害致使其产生恐惧心理的行为。其次,分层设计平台规范处置措施。平台对于未成年人网络欺凌的处置措施类似“金融业审慎监管措施”,可将其视为“类行政强制措施”以通过法律进行合理规范。这种“审慎监管”原则指引下的处置手段,其主旨在于及时采取制止干预措施,降低未成年人遭受网络欺凌的风险。但处置措施不得于法无据,否则属于超越职权的“执法行为”。因此,针对不同施害程度所采取的处置措施可采用具体实施细则等规范性法律文件予以立法明确,选择分层设计对应采取删除、屏蔽、断开链接等举措。最后,合理划定各职能、各层级监管部门的权限与责任。《条例》规定网信、公安、教育等部门都享有审查平台监管权是否合规的监督权力。但各职能、各层级部门的监督权限并不明确,部门监督失责应承担何种责任也未写明,易造成网络平台向各部门移交欺凌报告时出现相互推诿的法律漏洞。一旦监督部门出现懒政、怠政现象,防治未成年人网络欺凌的法律条文也就被束之高阁而成为“一纸空文”。因此,通过合理划定各自监督权限与责任,为行政监督机关在各自职责范围内行使监督权力提供法律依据,也有助于推动其主动介入审查平台监管的失责行为。
(二) 确立平台监管的合理裁量规则体系
未成年人网络欺凌事件具有复杂性、紧迫性与危害性,网络平台应转变传统只重形式审查的监管思想,持续优化监管裁量规则体系以保持灵活性。网络平台在预警审核、识别监测与干预处置等方面具有一定的自由裁量性。但这种自由裁量行为应在立法精神的指引下合理设定行权规则。平台监管的具体操作需要依托于专业性、层次性与完备性的监管制度,包括但不限于敏感词划定、提示预警设置、信息风险评估、干预处置措施等内容。首先,平台监管的合理裁量规则体系需要对敏感词范围进行划定。根据日常管理实际,平台通过算法梳理常见敏感词并编码汇库,依据敏感词数量对照监管级别,以普通级、合规级、严格级依次递进归纳。其次,制定信息审核流程与选择识别监测方式。平台应当定期公示信息发布与识别监测的规则,用户在使用平台服务前予以知情同意。网络平台可自行选择信息审核与识别监测方式,但必须以符合法律规范为前提。如微信平台自行制定的《腾讯微信软件许可及服务协议》中即明示“微信平台一经发现侮辱、诽谤他人等行为有权不经通知随时对相关内容进行删除、屏蔽,并视行为情节对违规主体相关账号进行处罚,并公告处理结果”①。最后,制定干预处置举措。《条例》中并未说明制止欺凌行为的干预措施与欺凌参与者身份的对照关系,这为平台监管赋予了一定的裁量空间。在斗鱼平台的《斗鱼用户阳光行为准则》中规定“斗鱼平台有权对违规用户行为进行独立判断,可直接删除、屏蔽违规内容并给予相应处罚措施”,“如用户发布侵犯他人合法权益的内容,如谩骂、侮辱、诽谤、骚扰、歧视、恐吓他人,斗鱼平台可给予其2 级禁言到5 级永久封禁的处罚”②。由此来看,平台监管实践中已经实施自由裁量行为,但由于平台本身逐利性特点,又易于产生权力滥用风险。因此,这种合理裁量规则体系应建立在法律框架之下,监管部门亦应当定期审核平台监管权的具体规则是否存在裁量怠惰、裁量失范或不合义务裁量的情形。
(三) 横纵结合构造风险管控的场景模型
未成年人网络欺凌的侵害风险日益突出,并向网络空间整体环境中传导渗透。由于其海量性、匿名性与隐蔽性的特点,网络平台需要借助预防性、追溯性与强制性的监管举措,对未成年人网络欺凌行为进行识别监测与风险干预[33]。构造横向与纵向风险管控的场景模型,能够全面把握未成年人网络欺凌的种类特征,区分施害者角色定位,实现风险预测与风险管控的精准锁定与双向驱动。
横向场景是指未成年人网络欺凌的类型划分,国内学者鲜有涉及,可以借鉴国外立法经验进行具体分析。日本根据语言、心理与精神等伤害形式,以侵害特点为标准,区分为通过故意制造谣言侮辱他人名誉、利用他人弱点缺陷制造心理阴影、借助他人孤立身份进行精神刺激等方式[34]。美国则是以言论内容为标准,划分为涉恐吓威胁的挑衅性言论、涉性骚扰与异性纠缠的猥亵言论、涉个人名誉与隐私的诽谤性言论等。由此可见,网络欺凌种类集中在恐吓威胁、恶意诋毁、侵犯隐私等三个方面[35]。恐吓威胁是指施害者发送引发受害者产生恐惧心理的信息,包括恐吓信、言语威胁、性骚扰纠缠等手段。平台可通过信息发送频次周期与词频规律进行账号个性痕迹监测,借助设置屏蔽敏感词实现有效预防。恶意诋毁既包括谩骂讥讽语言进行侮辱,也包括发布诽谤和不实信息等行为,网络论战与孤立排斥即可借助诋毁手段实现。平台应当严格审核用户信息内容发布,发现有疑似侮辱诽谤信息及时采取制止干预手段进行处置。侵犯隐私的行为一般是指个人私密信息如家庭住址、身份信息、私密照片等被直接公开,还包括人肉搜索、假冒他人等。平台应当严格落实用户实名认证,以核实欺凌者身份是否对应,及时凭借算法技术对其监测、审查与控制。除以上三个方面外,一些学者认为网络论战、孤立排斥、人肉搜索、假冒他人等行为也应包含在内。事实上这些行为往往是从施害者数量、受害者状态、欺凌手段上进行划分,而根据欺凌行为性质本身,均可归结为上述三个方面。
纵向场景构造作为横向场景的重要补充,主要集中在两个方面。一方面细化公开与私密的欺凌监管形式,另一方面准确定位欺凌流程中的参与者身份。网络平台监管应坚持最有利于未成年人的原则,但这种监管不得进入个人私密领域。故平台公开监管场景主要指平台社区互动、公开话题投票、公共发帖栏目等公共性场域。针对用户发布信息、话题讨论、跟帖评论等行为,平台能够借助社区公约与管理规则予以约束,对于不当言论主动实施审查与识别功能。而私密场景是指具有私人性特征的群聊、私信、空间留言、转账备注等形式,显然平台无法主动介入识别受害者是否遭受侵犯。私密场景下平台处于被动监管状态,受害者需要主动向平台进行投诉举报,要求平台及时删除侵犯信息、屏蔽施害用户、断开信息链接。由此也更加彰显《条例》第二十六条“提供便利未成年人网络欺凌信息防护选项”的价值和效用。在准确定位欺凌流程中的参与者身份方面,结合《条例》第二十六条与第二十九条的补充规定,可分为未成年人网络欺凌信息的制作者、复制者、发布者、传播者。其一,制作者正处于欺凌预备阶段,凡经用户举报发现,平台应及时采取规制以防止事件发生。其二,网络欺凌因其数字属性而具有内容留痕性,这将使受害者无法彻底治愈身心伤害[36]。因此,一旦平台判定复制者保存或收藏的信息内容为欺凌信息,应及时断开链接端口,使得复制信息直接失效,将再次传输的可能性降至最低。其三,发布者是欺凌信息施害的源头。平台应在信息发布前予以严格审核,对已公开信息应加强监测识别。平台发现欺凌信息后,有权自行删除、屏蔽、断开链接,对发布者予以处置。其四,传播者不仅是欺凌信息链接的转发者,还理应包括“沉默螺旋效应”中的点赞、评论、跟帖者。为避免欺凌信息的广泛扩散,平台应视情节严重程度采取暂停服务、关闭账号等惩戒手段,减少乃至消除因刻意歪曲舆论导向、多次转发、跨网转发等行为所带来的负面影响。
(四) 组建多元主体参与的协作监管系统
遏制未成年人网络欺凌行为的关键在预防,而传统监管模式局限于政府公权力监管与平台私权力监管的二元治理结构。前者技术监管滞后导致监管范围狭小,仅在事后规制中发挥指导作用;后者内部强力控制导致自治空间扩大,平台监管权需受到全面监督。从立法理念来看,《条例》第二十条提出网络平台应成立“由外部成员组成的独立机构”,对未成年人网络保护情况进行监督。此举正是在鼓励平台规范行权的同时,引导各方监管主体共同参与到平台治理中。多元主体参与的协作监管系统,将会对独立机构的组建提供职能分布框架、管理运行机制与技术防治路线的方案选择。该系统旨在以公共性管理为目的,调动各方利益相关者共同建设、共同参与、共享成果。这在平台监管的基础上增加多方主体的靠前监督与主动介入,确保监管程序的透明化与监管处置的公正性。
首先,在梳理主体职能分布方面,这种系统性未成年人网络欺凌行为综合防治体系需要政府部门、网络平台、学校、家庭与行业组织之间的合作协同。协作监管系统改变了单向度的政府管控,实现政府与平台双向互动的同时,融入各方利益相关主体,更加彰显数字时代网络空间命运共同体的本质特征[37]。合理配置各方主体职能是协作监管系统运行的前提,权责不明极易出现系统倒转、监管停滞与协作虚设等问题。因此,网络平台作为服务提供者和欺凌发生场域,应主动担当网络欺凌的积极治理者之角色,为协作监管系统提供技术支持与资源基础[38]。平台应严格遵循法律规定,完善合规制度体系,借助技术手段实施预警审核、识别监测、规范处置等举措,积极引导用户培育正向价值。合作规制模式下的网信、公安、教育等法定监督部门,应当建立健全职能明确、功能有序、协调合作的内部协作体系,厘清各自本职工作范围内的监管方式、惩戒手段与管理责任。家庭、学校作为共治主体更需要联动发力,持续发挥网络素养培育与自我保护引导的传统防治作用,提高未成年人对于网络欺凌信息的判断能力,做好平台“通知−删除”义务的触发者角色。平台监管协会应引领制定行业自律监管规范,明确法定范围内的底层算法运行逻辑,确保监管技术规制的健康发展,并为协会成员提供技术指导。
其次,在搭建管理运行机制方面,政府部门的双重监管身份,决定着其应当承担起协作监管系统的统筹主导作用。平台监管权的基本运行制度,需要由政府制定发起与监督执行,主要包括资源协调、监督考核与联合执法等三个方面。其一,资源协调机制涵盖数据共享、监管协商、技术交流的功能。政府以推动信息公开为中心,引导平台与行业组织之间打破信息壁垒,实现监管政策导向、欺凌数据库特征、应急处置方案等数据的互联互通。政府邀请平台企业、科研院校、社会媒体等主体定期组织监管政策研讨、监管技术交流、监管标准协商等会议,提高网络欺凌信息查处效率。其二,监督考核机制主要是为政府审慎监督网络平台行权而设置,行业组织、家庭、学校虽具有协作监管义务,但目前缺乏可责性要求。政府可通过组建联合监督工作组进行动态抽检、主动约谈、派驻监督等方式履行评估与审查职责,对监管不力、问题严重的网络平台进行劝诫、警告、处罚,对行权规范、流程合规的网络平台予以官方认证安全标识。其三,联合执法机制重在发挥职能部门刚性执法与柔性执法相结合的工作实效。法定职能部门具有接受处理未成年人网络欺凌投诉、举报的资格,也是网络平台移转欺凌记录报告的行政主体。职能部门监管主要以事后审查为中心,发挥各自部门资源与功能优势,组建未成年人网络欺凌行为联合执法网络服务大厅,实现“一键提报”“综合审查”“联合执法”等效果。联合执法大厅根据证据材料合规研判,对欺凌记录与受害者信息严格保密、妥善保存,视情节严重程度选择是否需要移交司法机关。网络平台应根据判定结果采取相应的平台处罚。柔性执法重在加强用户网络行为教育与法治宣传教育工作,推动平台积极创设良好社区舆论氛围,提供便利防护功能,从而提升未成年人的防范意识、法律素养和自我保护能力。
最后,监管技术路线创新是实现未成年人网络欺凌行为协作监管系统的重中之重。其一,强化用户身份实名认证。用户实名注册与身份验证能够防止“假冒他人”“水军机器人”等账号问题,为后续实施监管处置措施提供便利。其二,优化N 元语言模型、词袋模型等大语言模型特征识别技术。平台可抽取分析判决文书中未成年人网络欺凌认定的语言结构要素,依靠逻辑驱动与数据驱动的大数据建模手段,进行语料库分类与数据模型提取[39]。其三,基于前者特征库工程制定网络监测方法,以文本、情感、用户等特征综合判断信息归属、行为性质与欺凌倾向等要素,通过弱监督学习与深度学习结合方法实现识别监测。平台可借助这种混合监测手段将网络欺凌信息与数据库进行比对,从而实现过滤上报效果[40]。其四,落实风险预警处置机制,提升重点关注对象的防范水平与网络欺凌威胁的监测能力,实现对未成年人网络欺凌初始阶段的早期预警。风险预警处置机制可对明显符合欺凌特征的违规行为直接触发举报与处置系统;对有待明晰而需作具体审查的行为,应当自动移转人工审核渠道以多垂类体裁规范标准进行实质性检查。此外,网络平台亦需加强跨平台、跨国别、跨网域的监管技术交流与预防合作,整体提升风险防控能力与网络保护水平,合力实现未成年人网络欺凌行为的有效防治。
结语
数字时代背景下,《条例》为网络平台合规行使未成年人网络欺凌行为的平台监管权提供法律基础,是加强未成年人保护和犯罪预防“抓前端、治未病”的重要制度建设,更是个体安全与社会安全、国家安全的有机融合与治理缩影。基于合法性与合理性原则理念的要求,平台监管权作为防治未成年人网络欺凌的重要举措,其贯彻实施不仅需要《条例》的法律指引,更需管理实际中的正确理解与具体适用。平台监管权的有效行使应当在法律框架下,强化内容审核、风险监测、欺凌处置、引导培育的规范作用,筑牢制度规范根基、构造风险场景模型、搭建协作监管系统,塑造共商共建、共治共赢的合作治理新格局,从而凝聚社会信任、化解冲突矛盾,实现未成年人网络欺凌防范与治理的应有价值与实际功效。
〔参考文献〕
[ 1 ]祝捷. 涉未成年人网络欺凌的预防和应对[J]. 人民检察,2024(2):74-76.
[ 2"]李东风. 关于网络欺凌的研究综述[J]. 江西广播电视大学学报,2020,22(3):54-63.
[ 3 ]朱嘉珺. 大数据视野下的网络侵害防治−−一次运用技术解构新型犯罪的探索[J]. 苏州大学学报(哲学社会科学版),2019,40(6):69-76.
[ 4 ]刘思硕,石阳,宋广文. 防治网络欺凌的国际经验及其启示[J]. 青年探索,2020(3):101-112.
[ 5 ]吴亮. 论学生网络欺凌的法律规制模式[J]. 青少年犯罪问题,2023(2):125-132.
[ 6 ]于鹏. 未成年人网络言论的法律规制[J]. 中国青年社会科学,2017,36(6):110-116.
[ 7 ]赵鹏. 平台公正:互联网平台法律规制的基本原则[J].人民论坛·学术前沿,2021(21):75-84.
[ 8 ]解志勇. 超级平台重要规则制定权的规制[J]. 清华法学,2024,18(2):5-17.
[ 9 ]张鸿巍,侯棋. 从仪式建构到集体行动:亚文化视角下的未成年人网络饭圈欺凌[J]. 预防青少年犯罪研究,2021(3):4-13.
[10]骆昌日,何婷婷. 网络语言的特点及其情感性意义[J].武汉理工大学学报(社会科学版),2015,28(2):322-328.
[11]郑欣,朱沁怡. “人以圈居”:青少年网络语言的圈层化传播研究[J]. 新闻界,2019(7):25-36.
[12]卢家银. 数字时代未成年人网络保护的挑战、应对与逻辑[J]. 青年记者,2022(15):84-87.
[13]隋岩,李燕. 论网络语言对个体情绪社会化传播的作用[J]. 国际新闻界,2020,42(1):79-98.
[14]马长山. 智能互联网时代的法律变革[J]. 法学研究,2018,40(4):20-38.
[15]刘权. 网络平台的公共性及其实现−−以电商平台的法律规制为视角[J]. 法学研究,2020,42(2):42-56.
[16]万方. 网络直播营销平台监管权运行的困境及其破解[J]. 法商研究,2023,40(2):146-158.
[17]李伟,孔凡靖. 家庭教育权在预防未成年人沉迷网络行为中的实现路径−−以《家庭教育促进法》第二十二条为中心[J]. 北京科技大学学报(社会科学版),2022,38(6):695-705.
[18]张晨颖. 公共性视角下的互联网平台反垄断规制[J].法学研究,2021,43(4):149-170.
[19]陈景辉. 算法的法律性质:言论、商业秘密还是正当程序?[J]. 比较法研究,2020(2):120-132.
[20]王燃. 论网络暴力的平台技术治理[J]. 法律科学(西北政法大学学报),2024,42(2):121-134.
[21]刘权. 比例原则适用的争议与反思[J]. 比较法研究,2021(5):172-187.
[22]胡杰. 论权力的义务性[J]. 法学,2021(10):21-33.
[23]柯卫,汪振庭. 域外网络言论自由法律规制的比较及启示[J]. 政法学刊,2019,36(3):5-9.
[24]伊卫风. 算法自动决策中的人为歧视及规制[J]. 南大法学,2021(3):79-92.
[25]陈美华,陈祥雨. 网络欺凌现象与青少年网络欺凌的法律预防[J]. 南京师大学报(社会科学版),2016(3):51-56.
[26]解志勇,修青华. 互联网治理视域中的平台责任研究[J]. 国家行政学院学报,2017(5):102-106,147.
[27]王静. 数字公民伦理:网络暴力治理的新路径[J]. 华东政法大学学报,2022,25(4):28-40.
[28]任海涛. 我国校园欺凌法治体系的反思与重构−−兼评11 部门《加强中小学生欺凌综合治理方案》[J]. 东方法学,2019(1):123-133.
[29]高晓霞. 日本校园欺凌的社会问题化:成因、治理及其启示[J]. 南京师大学报(社会科学版),2017(4):100-108.
[30]张海鹏. 学生网络欺凌法律规制路径辨析[J]. 大连理工大学学报(社会科学版),2021,42(1):122-128.
[31]杨东. 监管科技:金融科技的监管挑战与维度建构[J].中国社会科学,2018(5):69-91,205-206.
[32]朱圆,肖佳欣. 社会企业架构下企业合规制度适用研究[J]. 北京科技大学学报(社会科学版),2022,38(1):94-102.
[33]柯卫,汪振庭. 我国网络言论的法律规制[J]. 山东社会科学,2019(3):131-136.
[34]向广宇,闻志强. 日本校园欺凌现状、防治经验与启示−−以《校园欺凌防止对策推进法》为主视角[J].大连理工大学学报(社会科学版),2017,38(1):1-10.
[35]吴亮. 学生网络欺凌的法律规制:美国经验[J]. 比较教育研究,2018,40(10):52-59.
[36]吴进娥. 性犯罪网络传播行为刑罚裁量的功能主义诠释[J]. 东南法学,2022(2):170-185.
[37]周佑勇. 社会主义核心价值观融入网络空间治理现代化的法治逻辑[J]. 江苏行政学院学报,2022(1):120-128.
[38]刘艳红. 网络暴力治理的法治化转型及立法体系建构[J]. 法学研究,2023,45(5):79-95.
[39]宋宇琦,高旻,李骏东,等. 网络欺凌检测综述[J]. 电子学报,2020,48(6):1220-1229.
[40]刘品新. 论大数据法律监督[J]. 国家检察官学院学报,2023,31(1):76-92.
〔基金项目〕国家社科基金重大项目“数字社会的法律治理体系与立法变革研究”(编号:20amp;ZD177)。