APP下载

论算法治理视域下的未成年人网络保护

2023-05-30杨秀李芬

关键词:算法

杨秀 李芬

摘 要:

算法已然成为当前社会运转的一个重要技术元素,而伴随着媒介成长起来、被称为“数字原住民”的未成年群体,在享受技术红利的同时,也不可避免地面临着诸如成人化、信息茧房、全景监视、娱乐模仿以及阶层分化等算法风险。我国日渐成型的算法规制体系在制度供给、司法执行以及业界实践过程中给予了未成年人特殊的关照与保护,但仍然在监管条件、配套规则、对象界定、技术实践以及家庭教育等方面存在缺陷。这需要多主体在多环节协作配合,通过相关立法的完善、监管框架的优化、标准文件的出台、阶段保护的落实以及算法问责的强化,来妥善回应算法滥用及异化带给未成年群体的挑战,帮助未成年人构建友好型网络生态,推动我国网络强国的建设。

关键词:

算法;未成年人;网络保护;法律

中图分类号:D902

文献标识码:A

文章编号:1673-8268(2023)02-0076-09

技术的发展必然会对社会运行模式施加影响。作为大数据技术在信息传播中的应用,算法推荐服务将人们从海量信息中解救出来,实现了信息与人之间的高效匹配,大幅提升了信息传播的效率。学界关于算法的相关研究最早可追溯到20世纪,但是它成为新闻业的传播方式则是发生在近十年,并且发展势头迅猛。算法与媒体的正式结合源于2002年9月推出的谷歌新闻[1];而在我国,自2012年“今日头条”开启算法分发的尝试以来,不仅新闻资讯类平台,而且类似于抖音、快手的视频类平台,包括微博、微信在内的社交平台以及淘宝、京东类的交易平台,都开始运用算法推荐机制来进行信息分发并影响人们的决策。

2021年11月16日,国家互联网信息办公室审议通过了我国第一部以算法作为专门规制对象的部门规章——《互联网信息服务算法推荐管理规定》(以下简称《规定》),其中指出算法推荐技术包括生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等五大类别。各类型算法推荐服务在人们的不同生活场景中发挥着作用。作为计算机程序实现数据分析、面向特定目标的一套指令[2],算法逐渐成为媒介化社会中的基础性技术元素,改变了信息传播逻辑的同时,还促进了经济运行与国家管理方式的变革,并对当代未成年人的生活与成长环境产生了深刻影响。当前社会中的未成年群体多为伴随互联网成长起来的“数字原住民”,他们在算法作用机制下获取信息、了解世界、构建认知、作出决策,也在更大程度上面临着算法诱发的风险挑战。我国现有的算法规制体系能否给予未成年人足够的关照?当下社会应当如何帮助未成年人在算法推荐服务普遍运用的环境下实现“安全”与“发展”的双轨成长?这些都是值得探讨的问题。

一、未成年人面临的算法风险审视

近年来未成年网民规模持续增大,触网低龄化趋势也愈加明显。截至2022年6月,我国网民规模为10.51亿,19 岁以下网民占全国网民人数的17.7%[3]。算法技术越早入驻未成年人的生活,也就将其越早地暴露在技术应用的风险中。基于未成年群体特殊的心理机制与行为模式,他们在享受算法推荐服务带来的好处时,也正在被植入的算法逻辑渲染上数字色彩,从认知到行为,都被埋下了受技术殖民的隐患。具体来说,算法推荐服务带给未成年人的风险主要包括五个方面。

(一)倍速中成长

媒介文化研究者尼尔·波兹曼曾提出,童年并非是由生物学决定的概念,而是一个社会学概念;书籍和阅读往往限定了相应的门槛要求从而实现了儿童与成年人的区分,因此书籍和阅读的普及创造了童年。但是,电视影像时代不设界限的传播方式却导致了童年的消逝,“新媒介的自由化视像语法摧毁了成人与儿童之间由读写能力孕育的文化分野,‘成人化的儿童与成人一起,在简单化的观看之中,漂浮在娱乐消费的文化表象之上”[4]。现代社会已然是一个“算法时代”,由于媒介设备的易得性、算法应用的普遍性以及把关人的缺失,未成年人被偏重“工程传播逻辑”的算法削弱了群体特殊性,成年与未成年的分野因技术手段而变得模糊。一方面,一些网络服务平台在用户注册信息时并未强制要求实名认证,这便给予了未成年人在入池阶段隐瞒自己真实年龄的机会,错误的用户标签使得他们接触的信息超出其本应置身的未成年内容池,而开始延伸至更大范围的成年人可读内容。另一方面,基于现实社交关系的精准分发以及流量池叠加推荐等操作,都无疑会使得成人世界的“秘密”不再被遮蔽,而成为繁杂信息中推向大众的沧海一粟,从而致使具有較强好奇心以及较低辨别能力的未成年人在潜移默化中被催熟,并开启倍速成长模式,渐趋“成人化”。

(二)茧房中生存

“信息茧房”这一概念最早由美国学者凯斯·桑斯坦在《信息乌托邦》中提出,他认为用户在接触互联网信息时,往往只会选择自己感兴趣的内容,而刻意无视并排斥其他内容,长此以往就形成了“信息茧房”[5]。算法技术本身是基于信息爆炸的现实图景应运而生,甚至可以被解释为是人们在信息过剩时代的某种自我保护,是现代人以个体为基础信息消费的必然结果[6];它将人们从海量信息带来的迷茫、焦虑与压力困境中解救出来,放纵用户的独异性需求,降低信息检索成本,帮助受众更快定位自己所需要的资源。理想状态下,未成年人本应借由强大的信息技术接受多元信息并全面了解世界,在观点的碰撞之下形成自己的价值观,不断进行自我提升,现却因为对算法的不当应用而使自己无休止地被同质化内容饲养,导致视野的偏狭和观念的固化。对未成年人而言,算法推荐服务能把他们与拥有相同兴趣、关注共同话题的人集聚起来,从而让自己迅速获得群体归属感与满足感。但是,这也使其只接触并关注自己认同的信息,而下意识屏蔽、排斥其他观点和内容,从而造成了信息茧房的固化。而且,未成年人往往在自主意识方面难以摆脱算法的“知心”服务,于是在媒介使用方面难以自控,由此患上媒介依赖症。算法对于用户兴趣的精准掌控,无疑会加深这种依赖,如此循环之下,便会使未成年人深陷技术漩涡与信息茧房之中。

(三)监视中“裸奔”

人工智能算法的实质是算法系统处理和利用用户存在于网络之中的个人信息[7],因此算法推荐机制得以运行的基础在于对个人信息数据的获取与处理;用户在平台上停留的时间越长、暴露的数据越多,算法为用户所刻画的画像就会更精确。边沁曾提出圆形监狱理论,指出由外围环形建筑和中心瞭望塔两部分组成的建筑结构能令处于中心瞭望塔的狱警完全监视到犯人们的一举一动,使其毫无隐私可言[8]。而在当前的媒介环境中,算法技术对于用户信息的获取在某种程度上也产生了一种隐性的监视机制。技术的背后往往附带相应的利益诉求和价值观念。不具备专业技术知识的普通用户对于自己同意被采用的数据,除了了解其将被作为信息分发的依据之外,对于其是否被作为他用以及数据存储机构能否保证数据库安全不受侵犯,往往没有进行全面的了解。特别是处于技术黑箱中的未成年人,对平台背后的工程逻辑了解较浅,在自身隐私信息保护方面警觉性也相对较低,因而很少刻意采取相应的措施来规避算法监视。在此意义上,由于现在的未成年人触网年龄越来越小,其数字生命相较于成年人而言会更长;随着时间的累积,他们被获取的数据会更多,卷入隐私风险的可能性也越大。

(四)娱乐中模仿

新媒体时代的技术赋权,完成了传播流程的去中心化,任何个体都可能成为传播中心。算法的推送机制更是解构了传统社会中的权力结构,那些带有娱乐性质的传播内容往往能够获得更多的浏览与点击率,并在下一个流量池中“俘获”系统的自动加权,实现更大范围内的内容分发与传播。基于未成年人的心理机制,带有强烈趣味性、偏向娱乐化的信息对其更加具有吸引力。而未成年人长期浏览娱乐化内容,使得算法在持续的自我驯化过程中为其建立相应的标签,并在之后的服务实践中继续加大娱乐内容的传播比重。由于当前的娱乐化信息中不乏低级低俗、价值观扭曲的内容,且具有人文关怀的把关人在算法推荐过程中缺席,而以工具理性为导向的算法又不具备分辨内容价值的能力,因此,仅以未成年人自身兴趣为推送衡量标准往往会造成不良信息以畸形的“合理性”乘虚而入,在导致未成年人沉迷网络的同时,也在其建立价值观的重要阶段产生误导。此外,出生于数字时代的未成年群体有其特定的娱乐需求与社交需求,在接受算法推荐的过程中,也在扮演传播角色。可变现的流量与被关注的渴望,驱使许多孩子孵化网红理想,而模仿行为则会是大部分未成年人“打拼事业”的第一步。但是,处于认知建构环节的未成年人,会疏于对其所模仿的内容进行甄别,而对包含暴力、性暗示、畸形审美等高风险、恶趣味、错误价值导向的行为进行模仿,这无疑会阻碍未成年人健康成长。

(五)偏见中分层

算法技术的数据模型以及运行标准是人为设定的,设计者个人的道德观念以及利益集团的资本追逐訴求,都会在某种程度上影响受众的信息获取,并在更长远范围内影响其社会认知。算法广告中的种族歧视、性别歧视以及“大数据杀熟”背后的价格歧视,是生活中常见的几种算法偏见[9]。这些社会歧视反映在算法推荐环节中,会使得处于成长过程中的未成年人延续既有的社会偏见,加深刻板印象。并且,同质产品与服务的长期投放,使得用户难以接触多元观点,在窄化其认知的同时,也致使其失去获得新资源的机会,从而阻碍了社会阶层的流动,这无疑扼杀了未成年群体成长发展的更多可能性。此外,基于现实社会客观存在的阶层分级,未成年群体对媒介信息的接触与使用会因为环境条件的不同而呈现出差异,这种差异多由家庭、教育等因素决定。在接受算法推荐服务时,

未成年群体在获得来自父母、长辈、老师甚至是同龄人的引导方面,经济条件富裕的会比经济条件贫瘠的更好,从而能够有效实现算法这项新技术在开拓新知、资源整合以及行为决策方面的正面效应。诸如留守儿童等群体却往往面临着更大的算法风险,他们因技术使用缺乏家长引导与监督而更加追逐新技术的娱乐功能、忽视其发展功能,长此以往就逐渐成为“数字鸿沟”下知识贫瘠的一端。

二、算法治理中对未成年人的多维关照

随着算法技术背后的风险渐渐引起社会各界的重视,我国开始引导算法向善,深入探索算法治理路径,并在这个过程中不断体现出关照未成年人的取向,以促使技术增进人类福祉。当前,我国在算法治理过程中对于未成年的关照主要体现在以下三个方面。

(一)制度关照

“制度供给是通过法定程序设立和创新行为规则的过程,其本质就是明确经济社会运行规则;要针对经济社会生活中出现的新情况新要求,增强制度供给的及时性。”[10]为了规制算法推荐技术应用可能存在的潜在风险,我国致力于为算法治理提供制度支撑。《规定》作为我国首个针对算法推荐服务制定的专门法律文件,标志着我国算法治理事业初步迈入体系化轨道。继《未成年人保护法》《儿童个人信息网络保护规定》等法律文件之后,《规定》的出台和实施为我国未成年人网络保护制度增设了重要内容,且在算法治理领域对未成年群体表现出明确的制度关照。作为未成年的权益保护专条,《规定》第18条提出了算法推荐服务提供者在未成年人网络保护方面应当履行的责任义务,明确要求他们通过开发未成年人模式、提供适合未成年人的特定服务等方式履行积极义务,并界定了算法推荐服务提供者在把控甄别不良信息、预防未成年人网络沉迷等方面的消极义务,以此在算法领域提供了未成年人网络保护和发展并行的中国智慧。

(二)司法关照

个人信息的收集与处理是算法执行逻辑的前提,因而算法技术的不当运用会造成未成年人个人信息的滥用。在此过程中,鉴于算法技术隐蔽而复杂的“黑箱机制”,算法推荐服务的潜在风险不易被未成年人及其监护人察觉;即便有所察觉,由于算法服务提供者与使用者之间对于专业技术知识的掌握存在明显参差,个人维权面临着成本过高、流程冗长等问题,这都会使得普通大众让渡自己的权益诉求以获取生活便利。因此,为了更好地维护公民利益,我国在司法执行层面规定可由相应的国家机关提出公益诉讼,拓宽救济范围,遵循儿童利益最大化原则,并促进互联网行业健康发展。2021年新修订的《未成年人保护法》在其第106条中规定:“未成年人合法权益受到侵犯,相关组织和个人未代为提起诉讼的,人民检察院可以督促、支持其提起诉讼;涉及公共利益的,人民检察院有权提起公益诉讼。”这为解决算法侵权纠纷提供了司法依据。当前,我国司法实践中,已经出现了运用公益诉讼保护未成年人权益的司法案例,如“杭州市余杭区人民检察院诉某短视频平台未成年人保护民事公益诉讼案”。该案系全国首例有关儿童个人信息网络安全保护的民事公益诉讼,其中指出,“某短视频APP在未再次征得儿童监护人有效明示同意的情况下,运用后台算法,向具有浏览儿童内容视频喜好的用户直接推送含有儿童个人信息的短视频”,以及“信息处理者对儿童用户进行画像,未获监护人同意默认开启个性化推荐,运用算法进行内容推送”,这些行为被认定为违法处理儿童个人信息。在法院调解下,该案公益诉讼起诉人与被告某科技公司达成调解协议,被告需履行停止侵权、进行整改、接受审查、赔礼道歉以及交付罚款等调解事项[11]。此案为通过公益诉讼在算法推荐服务领域保护未成年人权益的司法实践提供了示范。

(三)平台关照

无论是应国家相关法律法规要求的被动行为,还是基于社会责任感的主动履行,作为提供互联网服务与运用算法推荐服务的重要角色,平台在对未成年人保护的過程中都发挥着举足轻重的作用,体现出愈加强烈的关照趋势。对未成年群体进行优先、特殊的网络保护,保护其隐私信息并为其提供优质内容,运用合理的算法推荐模式,为其构建友好、健康的网络空间,已经成为互联网企业的普遍义务。自2007年4月我国网络游戏正式进入防沉迷时代开始,从网络游戏到各个短视频平台、直播平台,乃至社交软件,未成年人保护模式的应用场景陆续拓宽,实名认证制被不断普及且要求更为严格细致;各大网络平台也逐渐开始制定“儿童隐私保护条款”,运用技术手段增设相关的“青少年保护模式”“防沉迷系统”以及“专属内容池”,对未成年人的网络在线时长、使用时段、内容类别、消费层级以及披露范围进行规范。在此过程中,平台借助“监护人或家长同意”机制,合力保护着未成年人在网络环境中的健康与安全。

三、算法治理中未成年人保护困境探析

为了应对算法推荐技术给传播、经济、政治、文化以及大众生活带来的风险,我国从上层制度出发,不断完善平台服务者以及行政监管者的责任义务,加大对算法设计者、学校、家长等多元主体的呼吁力度,初步构建了中国算法推荐技术应用治理体系;并在此过程中,关注重视未成年人这一特殊群体,旨在帮助未来网络强国的接班人健康、安全地成长。但是,面对“算法”这一新兴事物,我国在该领域对未成年人开展的保护工作依然存在一些问题。

(一)监管执行门槛高

《规定》作为我国首个针对算法推荐服务制定的专门规定,主要面向包括各级网信部门、电信、公安、市场监管等有关部门在内的政府机关以及作为算法推荐服务提供者的企业平台,明确了各自的信息服务规范、用户权益保护以及监督管理责任,从而为我国算法安全管理提供了制度供给,具有国际示范性。值得注意的是,有规可依只是我国开展算法治理的第一步,如何落实才是重中之重。然而,我国现有的实践脉络并不清晰,面对算法技术这一新兴事物,监管部门在履行相关责任的过程中面临着技术门槛过高的问题。因为,要对算法推荐服务进行监管,就意味着包括各级行政机关在内的政府部门要掌握对等、甚至高于监管对象的技术能力,即需要配备一定的技术团队并提供相应的经济支持;现实情况却是:除了经济发达地区,其他地区并不具备这样完善的条件,这就从技术层面阻碍了算法服务监管的有效落实。

(二)配套规则不完善

《规定》提出了贯穿算法推荐服务提供过程的事前、事中、事后监管体系,具体包括分级分类安全管理、算法备案制度、算法安全评估机制以及算法监督检查等;但是,对于监管体系内的具体流程、具体标准以及落地实施,我国目前还处于起步阶段,各主体的责任义务相对模糊,配套规则并不完善。《规定》第23条将算法推荐服务的舆论属性、社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度等作为建立算法分级分类管理制度的关键要素,随后对具有舆论属性或者社会动员能力的算法推荐服务提供者提出了更严格的管理要求。值得注意的是,此处虽然对于分级分类的相关要素进行了罗列,但是关于“社会动员能力”“用户规模”“重要程度”以及“干预程度”的具体界定标准却并未明确,并且该条款主要聚焦于具备较大影响力的算法推荐服务者,对于中小规模企业的监督管理路径也并不清晰。此外,《规定》第8条要求算法推荐服务提供者自行对其采用的算法机制机理、模型、数据和应用结果等进行定期审核、评估与验证,但是由于算法推荐的效果大多需要一个时间的积累,如何确认审核工作的完成,什么样的结果是符合标准的,谁来设置标准,等等,这些都有待进一步界定。

(三)保护对象存局限

在我国既有的算法治理制度设计中,对于未成年人的保护多集中在十四周岁以下的群体,“儿童”与“未成年人”概念的差异性致使十四至十八周岁的未成年群体保护存在局限。《个人信息保护法》第15条明确了关于个人信息处理的同意撤回规则,《规定》第17条则进一步确定了算法应用的拒绝权,指出算法推荐服务提供者应当向用户提供便捷的关闭算法推荐服务的选项。由于对个人信息进行处理是算法运行的基本逻辑,因此在个人信息处理方面的法律法规文本设计也在一定程度上为算法推荐服务的应用治理提供了依据。在此意义上,《个人信息保护法》第31条对不满十四周岁未成年人个人信息的处理作出了特殊规定,要求个人信息处理者在处理时应当取得其父母或者监护人的同意,并且需要制定专门的处理规则。如此看来,这一条款默认年满十四周岁而不满十八周岁的未成年人拥有“同意能力”,可以独自拒绝或同意个性化推荐算法处理自己的数据[12]。但现实中,这个阶段的未成年人在“数字年龄”与“社会年龄”之间存在严重不对称,让他们完全自行决定是否接受或拒绝算法推荐,实际上是充满风险的。由于这个范围内的未成年人多处于中学阶段,媒介设备普及率明显高于十四周岁以下群体,信息技术使用能力又高于其父母,因而,相较于传统媒体时代儿童对社会的关注度和理解力,“童年的消逝”使得他们更趋于成熟[13],信息主体意识显著提高,也具备更完善的条件与更强烈的积极性来进入媒介构筑的“拟态环境”。但是,由于他们三观尚未成型,无论是在文化素养、社会阅历,还是认知判断方面,都与真正意义上的成年人存在断层,放任他们接受算法饲养,可能导致其难以清晰区分现实与网络,从而脱离正确的三观建设道路。

(四)技术实践有缺陷

网络生存已然成为当代未成年人社会化的重要途径,对未成年群体进行网络保护也逐渐在社会各界达成共识,相关的网络服务提供商在此过程中被赋予了更多的责任义务,

并且越来越多地借助技术手段开启青少年保护模式。2022年11月30日发布的《2021年全国未成年人互联网使用情况研究报告》显示,虽然青少年保护模式对减少未成年人网络依赖发挥了积极作用,且八成以上未成年人和家长知道该模式,但对此设置过的人不到五成[14]。从现实来看,这种技术实践目前仍旧存在许多缺陷,包括:界面显示不显著,监护人难以注意到模式的存在;模式设置环节多,因消磨家长耐心或者超过家长的媒介使用能力而使其放弃设置;模式容易被破解,已设置的模式可通过卸载重装、购买相应代码以及手机验证等方式绕过或取消;此外,还存在着身份冒用的问题,即使有的平台设置了实名认证,但是部分未成年人会冒用身边成年人的身份信息或者直接运用家长的媒介设备获取互联网服务,主动将自己放置到算法推荐的场域之中。即使现有大数据技术已相对成熟,可通过用户媒介使用轨迹判定其年龄,但这类技术并没有在互联网行业普及,且部分平台为了追逐利益,疏于执行“监护人或家长同意”机制,即使检测到用户疑似未成年人,也不会做出相应举措。以上技术实践都有待解决和完善。

(五)家庭教育关照少

随着媒介设备的下沉市场不断增大,当前大多数未成年人都拥有自己的移动设备,或是有条件获取媒介设备。加上近年来疫情的影響,未成年人接受线上教育的频率大幅增加,接触互联网的时间明显增长,家长在进行未成年人网络保护的过程中显然需要承担比以往更大的责任。然而,目前,对于家庭教育在帮助未成年人规避算法风险方面,我国所给予的重视程度并不够。一方面,虽然《未成年人保护法》第17条、第64条以及第71条规定了家长在未成年人网络保护中的职责,但并没有明确其法律责任,法律对家长这一主体的要求更多体现为柔性规范。另一方面,2021年通过并实施的《家庭教育促进法》也对家长进行未成年人网络保护的关注不够,主要提到了家长在预防孩子网络沉迷方面的责任,而未涉及他们在新技术应用层面对孩子的引导义务。此外,在媒介使用方面,作为“数字原住民”的未成年群体与作为“数字移民”的家长监护人在一定程度上存在数字鸿沟,部分家庭甚至需要通过技术反哺,即孩子教给家长传播知识来帮助其适应现行媒介化社会,这就限制了家庭教育作用的发挥。

四、算法治理中未成年人保护路径的优化

作为未来网络强国的主力军,未成年人是否健康地成长生活,这关系到后继人类社会的福祉。较之传统媒体时代,当代社会中的未成年人迎来了新技术促发展的时代机遇,却也面临着新技术增风险的时代挑战,算法对未成年人施加的影响贯穿了其认知、行为乃至社会化全过程。因此,在现有的算法规制体制下,更加细致、全面地对未成年人进行保护,是我国重要的时代要务。

(一)健全相关立法,提升规范位阶

算法技术的运用已然成为当前社会各行各业运转的一个重要脉络,并且这种趋势大有愈演愈烈之意。《规定》作为中国第一部聚焦算法推荐服务安全治理的部门规章,对于我国算法规范与技术发展具有重要意义。但是,由于它仅为部门规章,且主要面向“算法推荐”,而未来算法应用不会局限于“推荐服务”这一应用场景,因此其效力有限,场景窄小,也在未成年人保护的重要性与实际效力方面存在脱节。立法如果停留于部门规章层级,则不仅难以对算法乱象进行全面规制,而且容易导致针对一种违法行为制定一种规则的滞后性问题[15]。因此,基于算法应用场景必将持续扩大的趋势及其对人民生活的重要影响,对算法进行专项立法是必要的,且在专项立法中需要对未成年人面临的算法风险进行专款规制。鉴于现有的制度供给情况,对于算法的专项立法必然还需要经历很长时间的磨合与商榷,为了更及时地帮助未成年人规避算法风险,同时节省司法成本,可在既有的《未成年人保护法》《家庭教育促进法》等法律中增设“算法使用”的相关条款,从更高的法律层级,以更强大的法律效力提请人们留意、关注并付出实际行动以保护置身算法应用中的未成年人,同时为算法监管、问责等流程的有效推进提供强有力的法律背书。

(二)优化监管框架,充实监管力量

算法推荐服务依赖于持续性的自我学习与进化,它的运作程序总是处在变化之中,其技术逻辑决定了对它进行全生命周期动态监管的必要性。《规定》强调了行政部门与算法推荐服务提供者在监管算法安全过程中的责任义务,但由于算法从设计到应用的全流程包含了多主体,因此,无论是现有的监管框架还是监管力量,都亟待更合理的优化。具体来说,可从三个阶段结合不同主体进行有效监管。首先,算法应用前,可由通过了资质认证或者国家授权的第三方机构事先进行算法审计,避免专业壁垒导致监管门槛过高的问题;审计对象主要包括算法代码、模型、数据等,关注其有无设置未成年人特殊推荐机制,必要时可对相关算法程序采取试运行的方式,来判断算法推荐服务提供者意图采用的算法是否符合国家法律政策要求以及社会公共善原则。其次,在算法应用过程中,除了要求专业机构定期审查算法运行过程、测试平台采用的算法是否存在异化转向之外,还可以在这个阶段强调算法推荐服务提供者的自检责任,要求其定期进行自我评估并抄送报告以用于行政机关备案或者专业机构辅助抽查。最后,在算法的输出结果层面,行政机关由于受到客观的技术条件限制而主要负责定量监管。其监管内容包括:算法推荐服务提供者的算法使用强度、范围与频率,是否严格落实实名认证机制,是否对疑似未成年人的用户进行有效甄别并采取措施,是否创建未成年人专属内容池,是否设定未成年人算法推荐模式,以及是否实现算法推荐与“随机内容”双流推进[16]。也就是说,在运用算法技术的过程中,算法推荐服务者应该有意识地将未成年人不感兴趣但具有社会意义的新闻、与其观点不同的评论以及必要的科普信息等按照一定比例进行分发,为其创造多元化信息环境。

(三)细化配套规则,出台标准文件

《规定》的出台构建了较为完善的算法推荐服务监管体系,但其中的配套规则亟待更为细致的完善。《规定》设立了未成年人保护条款,因此,锁定未成年群体,并出台具体的分级分类标准、安全评估标准、算法备案标准以及监督检查标准是必要的。关于分级分类标准,其一,应当依照平台自身属性,即是否专门面向未成年用户提供服务而区分未成年人平台与成年人平台;其二,由于绝大多数平台受众范围并不局限于未成年群体,因此可对照《规定》中涉及到的“社会动员能力”“用户规模”“重要程度”以及“干预程度”等要素,结合平台内的未成年用户使用情况,对于市面上现有网站与APP进行分级。关于安全评估标准,则可以根据分级分类的相关结果,将平台划分为“重大”“中等”“微小”等不同风险等级。关于算法备案制度,则应当要求算法推荐服务提供者在备案时明确报告其算法推荐服务中设置的未成年人专属程序、风险纠偏、敏感文本过滤等情况,以此在事前以及运行过程中固定问责点,以便后期的问责程序能快速定位相关依据。而关于监督检查标准,则可以依据前面的安全评估情况以及算法备案情况,对不同风险等级的平台进行区别监管。比如,那些专门针对未成年人或者包含大量未成年人的平台,会被界定为“重大风险”级,需要受到严格的监管,包括多机构审查、定期检查以及不定时抽查;隶属于其他风险等级的,则可以依据具体情况在监管主体、监管周期方面灵活设置。

(四)实施阶段区分,进行差异保护

我国现有制度对于十四周岁以下未成年人采取父母知情同意原则,而给予十四至十八周岁未成年人个人自治的权利,这种制度设计无疑使得十四至十八周岁的未成年人在算法治理领域存在保护空档。因为这部分未成年人同样面临着不良诱导、信息茧房、算法歧视以及隐私泄露等算法风险,甚至相较于得到法律以及社会更多关照的儿童,他们受到算法伤害的可能性更大。因此,不应使其置身于完全的信息自决状态,而可采取以十四周岁为界限的区分保护:平台在无法准确获知用户年龄的情况下,应当默认关闭算法推荐服务选项,这项服务需在实名认证之后再开启。对于十四周岁以下的未成年人,应当奉行严格的准入门槛,对于算法推荐服务的接受与否需要得到其家长明确的同意;“同意”获取途径包括但不限于人脸识别、支付认证以及电子签名等不易伪造的方式,甚至可以不定时以发送邮件的方式提醒家长未成年人保护模式的存在,并尽量简化该模式的设置过程。而对于十四至十八周岁的未成年人,鉴于其信息主体意识的提高,可赋予他们一定的自由决定权,但仍旧需要发挥父母辅助决定的作用;辅助决定的途径包括通过邮件获取家长同意,或者定期发送行为轨迹报告,以便家长及时对孩子进行行为纠偏。辅助决定的必要性可根据算法推荐服务应用的具体场景进行区分,如“教育类”与“商业类”是两种不同的情形,对前者可给予孩子足够的自我同意权,对后者则需要家长辅助决定[17]。

(五)强化算法问责,督促主体履责

算法问责的有效落实,有利于督促相关主体担起责任,促使算法监管与治理工作落到实处。算法问责的相关依据不应只局限于重大社会损害事实,还可来源于专业机构或者第三方机构撰写的审计报告、行政部门的检查结果、算法推荐服务提供者与备案有出入的评估报告以及民众的举报信息。算法问责对象主要面向以下主体:一是算法推荐服务提供者,问责场景包括其违背相关的法律政策与社会公共善原则恶意操纵算法、没有尽到合理注意与通知义务以及其他没达到的应当行为和禁止行为;二是行政机关,问责主要指向其不监管、不履行、不尽职行为。同时,鉴于算法侵害事实的广泛性与隐蔽性,“公益诉讼”无疑是现有社会环境下帮助未成年群体应对算法风险挑战并维护权益的重要途径。但是,目前我国运用“公益诉讼”开展未成年人网络保护的司法实践模式并不成熟,所能提供的示范经验也较为有限。因此,在侵权范围广泛或者收到人民举报却没有做出相关行为的情况下,相应的检察机关也可被纳入问责对象范围。此外,对于作为未成年人权益维护的重要责任人的家长,现有法律主要通过柔性规范来规制,因而广大家长还未意识到算法推荐服务带给未成年人的影响之大以及自己在帮助孩子规避算法风险方面的责任之深,对此可采取罚款、训诫等相应的问责手段以督促家长积极履责,正确开展家庭教育。

五、结 语

算法推荐服务的普及与大规模运用,促进了大众信息接收、企业生产方式以及文化传承路径的变革,也在改变着年轻一代的成长环境。对未成年群体进行优先、特殊地保护关系到社会稳定与人类福祉,因此,以促进算法向上向善为原则对未成年人进行合理、健康地引导与保护,是相当必要的。当前,我国已经在算法治理领域初步实现了有规可依的阶段性进步,构建了算法运行环境下未成年人网络保护的基本框架。但是,其效果的局限性明显,现有制度设计与监管实践均不成熟,且制度与制度、制度与实践之间本身就存在脱节。纳入多元主体,细化阶段环节,开展多维治理,是现阶段实现算法技术持续发展与未成年人健康成长共赢的主要逻辑理路。至于未来如何在法律层面实现涵盖“算法安全”与“未成年人保护”文件的有效衔接,如何在技术层面创新专门的“算法”来监督平台算法,如何在实践层面执行严格的审计流程以及如何在认知层面普遍提高全民算法素养,这些都是值得进一步持续探讨的问题。

参考文献:

[1] 景佳琦.国内媒体个性化算法推荐研究热点分析——基于CNKI的文献计量分析(2016-2019年)[J].新媒体研究,2020(13):7-10.

[2] SEDGEWICK R, WAYNE K. 算法[M].谢路云,译.4版.北京:人民邮电出版社,2012:1.

[3] 中国互联网络信息中心.《第 50 次中国互联网络发展状况统计报告》[R/OL].(2022-09-26)[2022-10-19].http://www.cnnic.net.cn/NMediaFile/2022/0926/MAIN1664183425619U2MS433V3V.pdf.

[4] 赵霞.童年的消逝与现代文化的危机——新媒介环境下当代童年文化问题的再反思[J].学术月刊,2014(4):106-114.

[5] 凯斯·R·桑斯坦.信息乌托邦:众人如何生产知识[M].毕竞悦,译.北京:法律出版社,2008:8.

[6] 喻国明,曲慧.“信息茧房”的误读与算法推送的必要——兼论内容分发中社会伦理困境的解决之道[J].新疆师范大学学报(哲学社会科学版),2020(1):127-133.

[7] 麦买提·乌斯曼,阿不都米吉提·吾买尔.人工智能算法个人信息利用刑法规制与个人信息安全刑法保护——从新型权利转向新型法益谈起[J].重慶邮电大学学报(社会科学版),2022(1):48-60.

[8] 福柯.规训与惩罚——监狱的诞生[M].刘北成,杨远婴,译.北京:生活·读书·新知三联书店,2003:224.

[9] 张力,郑丽云.算法推荐的歧视与偏见[J].中国报业,2020(13):48-49.

[10]丁伟.增强地方立法供给的有效性和及时性[EB/OL].(2018-01-28)[2022-09-20].https://mp.weixin.qq.com/s?_biz=MjM5MjIxMzE0Ng==&mid=2651783877&idx=7&sn=fa2d1e50f43b07391ee9c2eda7a9d5f6&chksm=bd5213308a259a262ddbbbc068e91ab53975ae93cd7531be0912dfb6061e27803ae013dc1bdb&scene=27.

[11]杭州中院.个人信息保护十大典型案例|杭州互联网法院5周年[EB/OL].(2022-08-19)[2022-10-23].https://mp.weixin.qq.com/s?_biz=MzA4ODk5OTQwOQ==&mid=2698618431&idx=1&sn=7c2dd2ccfcba5a6f7e9e46edba0a9a26&chksm=b50c92a1827b1bb78ad4a4da3e2e52482fe139165e9f2dfbdfeb25fcdca17549c5e937d7127f&scene=27.

[12]林洹民.个性化推荐算法的多维治理[J].法制与社会发展,2022(4):162-179.

[13]华劼.论《儿童个人信息网络保护规定》之完善——以美欧儿童网络隐私保护立法的比较和借鉴为视角[J].重庆邮电大学学报(社会科学版),2021(1):56-63.

[14]共青团中央.《2021年全国未成年人互联网使用情况研究报告》发布[EB/OL].(2022-11-30)[2022-12-02].https://baijiahao.baidu.com/s?id=1750980106630135317&wfr=spider&for=pc.

[15]任颖.算法规制的立法论研究[J].政治与法律,2022(9):98-111.

[16]马红丽.有“规”之后算法推荐如何监管?[J].中国信息界,2022(1):49-52.

[17]王者鹏,王肃之.论未成年学生个人信息制度保护的层次化[J].教育科学研究,2020(10):31-34+40.

On Minors Network Protection from the Perspectiveof Algorithm Governance

YANG Xiu, LI Fen

(School of Journalism & Communication, Chongqing University, Chongqing 400044, China)

Abstract:

Algorithm has become an important technical element in the current social operation. With the growth of media, the underage group, known as “digital aborigines”, is also inevitably faced with algorithm risks such as adulthood, information cocoon room, panoramic surveillance, entertainment imitation and class differentiation while enjoying the technological dividend. The increasingly mature algorithm regulation system in China has given special care and protection to minors in the process of system supply, judicial implementation and industry practice, but it still has defects in regulatory conditions, supporting rules, object definition, technical practice and family education, which requires the cooperation of multiple subjects in multiple links. Through the improvement of relevant legislation, the optimization of regulatory framework, the introduction of standard documents, the implementation of staged protection and the strengthening of algorithm accountability, it will properly respond to the challenges brought by algorithm abuse and alienation to the minors, help them build a friendly network ecology, and promote the construction of Chinas network power.

Keywords:

algorithm; juveniles; network protection; law

(編辑:刁胜先)

收稿日期:2022-11-20

基金项目:重庆市社科规划项目:《民法典》实施与新闻传播法治建设的关系研究(2020YBCB121)

作者简介:

杨秀,副教授,博士,博士生导师,主要从事新闻传播法学、策略传播等研究,E-mail:yangxiubj@126.com;李芬,硕士研究生,主要从事新闻传播法学研究,E-mail:2579062112@qq.com。

猜你喜欢

算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
基于CC2530的改进TPSN算法
基于BCH和HOG的Mean Shift跟踪算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
一种改进的整周模糊度去相关算法
一种抗CPS控制层欺骗攻击的算法
Wiener核的快速提取算法