算法推荐下信息公平失衡的法律应对
2022-11-23宋保振秦瑞标
宋保振,秦瑞标
(1.山东大学 法学院,山东 青岛 266237;2.上海对外经贸大学 法学院,上海 201620)
伴随着互联网、大数据、人工智能等技术的深入发展和快速扩散,算法推荐在互联网各种信息内容交互场景中被广泛使用。算法推荐的应用有效提升了互联网平台(以下简称“平台”)的信息内容供给能力,促进了信息内容与受众间的精准匹配。与此同时,算法推荐还解构着传统的信息传播方式和信息内容生态,通过“技术赋权”重新塑造了平台和用户之间的权力话语体系。在数字资本驱动下的算法技术有着自身的运行逻辑,当算法技术以平台利益之实现为目标时,就必然会出现用户信息权益与算法技术追求的非一致性。该非一致性集中表现为算法推荐屡屡导致“信息茧房”的形成,成为他人操纵大众的工具和劣质、虚假信息泛滥的帮凶。这损害了信息的获取自由与分配正义,进而导致信息公平的失衡。单纯的技术治理在面对算法技术的复杂性、主体利益的冲突性及损害产生的隐秘性时难以自足,需要在法律制度层面对其进行回应。
面对信息公平失衡而规范供给不足的尴尬局面,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局于2021年12月31日,联合发布《互联网信息服务算法推荐管理规定》(以下简称《规定》),实现了算法推荐领域专门立法零的突破。不过,《规定》仍然存在具体要求难以落实、相关制度有待细化等问题,从纸面上的法到实践中的法仍然需进一步的丰富和完善。基于此,本文在剖析互联网时代信息公平及其原因的基础上,阐明对信息公平失衡进行法律规制的必要性及现存制度余量,并进一步提出丰富和完善《规定》的建议。
一、互联网时代信息公平的内涵变迁
人类社会从信息化到数字化的转变,使信息的生产和传播方式发生了极大改变。在此社会变迁过程中,信息公平既保留着传统信息化时代下的固有内涵,又因新型失衡样态的出现而呈现出数字化时代的独特性。随着互联网的日益普及和信息技术的快速发展,信息资源成为基本的发展资源,网络化成为社会的基本交往方式,人类也因此从工业社会迈入了信息社会。在此背景下,新闻传播及图书情报领域的学者提出信息公平的概念,用于探讨和阐释公民信息权利中的公平问题。关于信息公平的内涵,有学者从个体信息获取和分配的视角出发,认为信息公平是在一定的历史时期和社会环境中,人们对信息资源的获取和分配中所体现的平衡与对等状态。(1)蒋永福、刘鑫:《论信息公平》,《图书与情报》2005年第6期,第2-5、22页。有学者从个体间信息利益平衡维度出发,阐明信息公平是所有人在生活中都有机会获得对他们来说至关重要及有意义的所有信息,强调信息在不同的群体、地区、族群以及其他各种社会组织之间的公平合理分配。(2)唐思慧:《信息公平及其产生的背景研究》,《图书与情报》2008年第5期,第18-21、33页。还有学者围绕信息公平的价值理念展开讨论,强调信息公平是在一定历史和物质背景下,符合公平、正义、平等价值理念的社会主体间的信息关系。(3)李昊青:《现代权利价值语境中的信息公平与信息权利》,《图书情报工作》2009年第21期,第46-49、125页。虽然不同学者论述的角度和侧重点有所不同,但是他们也仍在一定程度上达成有效共识。
虽然人们对信息公平的价值追求在多年来并没有产生实质性的变化,但是信息公平作为一个历史性的概念,必定会随着社会的发展和变迁而在不同的历史时期展现出不同的时代内涵。因此,要明晰不同历史时期“信息公平”的内涵,“只有理解了每一个与之相应的时代的物质生活条件并且从这些物质条件中被引申出来的时候”,才能真正解读出“信息公平”的本体及其价值实质。(4)《马克思恩格斯选集》第2卷,北京:人民出版社,1995年,第38页。在社会接入互联网的初期,我国能够获取信息资讯及进行信息生产和分享的各类门户网站、论坛、博客和贴吧的种类有限,且政府等主体的信息公开制度亦不完善。此外,还存在着公民互联网接入设备匮乏、对电脑及互联网的运用能力较弱等情况。因此,在这一时期,人们面临的主要问题是社会信息化缓慢而导致互联网中可获取的信息较少、公民间互联网接入程度不同带来的“数字接入沟”及公民间数字技能差异而产生的“数字使用沟”。这一问题的具体解决对策在于,推动信息上网、政务公开及基础设施建设以提高社会的信息化程度,同时培育数字公民以减少公民间在信息获取和互联网使用上的差异。
通过对问题成因及其消解措施的分析,我们可以得出以下结论:该时期的信息获取自由主要是指公民拥有接入互联网的必要设备,以实现对各类信息的自由获取。同时,分配正义指的是公民拥有足够的能力参与互联网,以充分享受信息化所带来的便捷。
在互联网已成为人们日常生活不可或缺的一部分、社会从信息化迈向数字化的当下,情况发生了改变。一方面,伴随着我国信息资源基础设施的普及、互联网产业的快速发展、网络扶贫政策的落实和数字技能课程在义务教育阶段的广泛开设,我国在填平“数字接入沟”和“数字使用沟”方面走在了世界的前列。根据《第48次中国互联网络发展状况统计报告》,截至2021年6月,我国网民规模已经达到了10.11亿,互联网普及率为71.6%,网民中使用手机上网的比例为99.6%,绝大部分公民实现了触网,并且深度参与到数字化生活当中来。(5)中国互联网络信息中心:《第48次中国互联网络发展状况统计报告》,2021年9月15日,http://www.cnnic.cn/hlwfzyj/hlwxzbg/,2022年1月20日。如今,信息的自由获取及互联网的参与似乎已经不再成为主要问题。另一方面,大数据、人工智能、深度学习等技术在互联网的广泛运用,深刻地改变了信息的传播方式和内容生态。例如,算法推荐技术的应用,实现了信息传播从“人找信息”的单向联络到“信息找人”的双向互动。与此同时,信息内容生态也伴随着互联网中技术和知识的不断更新发展、自媒体平台的出现,从信息匮乏演变成信息过载,呈现出“多而弱,富有而不富裕”的状态。在数字化时代,信息公平的内涵变化已成为一个不争事实。
二、算法推荐中的信息公平挑战样态
平台通过算法推荐技术的赋能既实现了自身的生产提效、精准分发、智慧决策,亦通过向用户进行个性化内容推送,将用户从茫茫的信息海洋中解放出来,节省着大量的信息检索成本。(6)中国传媒大学新媒体研究院、新浪AI媒体研究院:《中国智能媒体发展报告(2020-2021)》,2021年3月25日,https://www.cuc.edu.cn/2021/0324/c1761a179077/page.htm,2022年1月20日。理想的状态下,算法推荐能够协助信息需求端和供给端进行精准匹配,使平台和个人都能够从中受益。但是受制于算法推荐技术自身的运行逻辑,以及平台和用户之间对技术掌握的巨大差异,在现实中,不仅难以实现技术红利的普遍共享,甚至会引发信息公平失衡的新样态。
(一)信息获取阶段的不平等
现有的算法推荐技术所推送的内容往往直接针对个体的既有偏好和兴趣,容易造成用户被大量同类信息包围而陷入“信息茧房”。人民网曾连续推出《不能让算法决定内容》《别被算法困在“信息茧房”》《警惕算法走向创新的反面》三篇文章对算法推荐提出批评,这更进一步引发了社会对该现象的关注和思考。(7)《人民网一评算法推荐:不能让算法决定内容》,2017年9月18日,http://opinion.people.com.cn/n1/2017/0918/c1003-29540709.html,2022年1月20日;《人民网二评算法推荐:别被算法困在“信息茧房”》,2017年9月19日,http://opinion.people.com.cn/n1/2017/0919/c1003-29544724.html,2022年1月20日;《人民网三评算法推荐:警惕算法走向创新的反面》,2017年9月20日,http://opinion.people.com.cn/n1/2017/0920/c1003-29545718.html,2022年1月20日。在算法推荐技术的赋能下,平台可以随时根据用户的需求和偏好对信息进行选择和过滤,投其所好地进行信息的精准投喂,为用户打造出个性化的信息舒适区,构筑起与外界多元信息和观念的隔离墙,从而使用户陷入“信息茧房”。然而,“我所看到的都是我想看的”也暗含着“我能看到的只有算法认为我想看的”,算法推荐的信息内容满足了用户的“欲知”诉求而忽视了“应知”诉求。此时的用户虽然能够源源不断地接收到海量信息,但是信息内容在观点和类型上同质化严重。
此外,算法推荐亦未能注意到个体的行为逻辑并非永远以线性的方式遵循过去的行为样式而一条道走到黑,也无法对个体基于未来目标导向而产生的有异于过去行为的现实需求作出预测。(8)匡文波:《智能算法推荐技术的逻辑理路、伦理问题及规制方略》,《深圳大学学报(人文社会科学版)》2021年第1期,第144-151页。在很多时候,用户在过去留下的点击和检索痕迹往往并不代表其当下真正的内容需求,而算法对此无从知晓,只能仍然依据用户过去的行为惯性进行内容分发,形成一份不合用户口味的“我的日报”。(9)“我的日报”概念由桑斯坦提出,表示一份由完全依据用户兴趣编排的报纸。参见凯斯·桑斯坦:《网络共和国》,黄维明译,上海:上海人民出版社,2003年,第1-4页。算法推荐让用户在愉悦的“信息茧房”中无法自拔的同时,也在暗中隐秘地剥夺了用户获得和接触多样信息和异样观点的机会,禁锢了用户客观认识世界的视野,损害了用户的信息获取自由。(10)申楠:《算法时代的信息茧房与信息公平》,《西安交通大学学报(社会科学版)》2020年第2期,第139-144页。
更进一步地,如果说“信息茧房”现象是当下算法推荐技术应用过程中由于技术不完善和推荐方式不甚合理所产生的后果,其所造成的影响并非人们主动追求的结果,那么,在算法操纵的场景中,隐藏在算法推荐背后的那一双双肆意操纵和决定着用户信息内容接收的手更是以人为的方式加剧损害着用户的信息获取自由。以剑桥分析公司事件为例,剑桥分析公司通过大量收集美国脸书用户的数据,并对用户数据进行分析,进而构建出用户的政治画像,最后通过算法瞄准的方式对不同的选民采取不同的话语策略和宣传方式,以完成对选民的说服,实现选举的精准动员。例如,为了使特朗普在竞选中提出关于捍卫美国人持枪权的观点得到更多选民的认可,剑桥分析公司通过脸书平台对冒险型性格的选民推送以暴制暴型的广告,告诉他们枪能消除外部威胁,捍卫自由;保护者型性格的选民收到的广告则是“枪是保护他人不可或缺的工具”,而理性沉稳型性格的选民接收的广告则声称“枪能保护家人和美好未来”。(11)孙宝云、李艳、齐巍:《网络安全影响政治安全的微观分析——以“剑桥分析”事件为例》,《保密科学技术》2020年第4期,第27-34页。
此外,除了宣传自身的政治主张外,还出现了利用算法对竞选对手实施污名化宣传、大肆制造和传播不利于竞选对手的阴谋论、假新闻、歪曲客观事实进行恶性竞争的情况,该类宣传往往切合选民的心理偏好,容易为人所相信和接受。在算法的瞄准下,用户在互联网中接收的选举资讯看似五花八门,但当中的信息内容往往都是经他人精心筛选和编制。操纵算法推荐技术的手通过“植入”意向和行为动机的宣传潜移默化地塑造着用户对于选举的认知和想法,通过信息供给形成对用户的规训和思想控制,干预用户的决定。用户能看到的信息从“算法认为我想看的”进一步演化成“别人认为我该看的”,此时用户不仅失去了多样化信息的获取自由,甚至沦为了幕后集团追求自身利益的工具。
总之,从大量同类信息投喂形成的“信息茧房”到悄无声息的算法操纵,数字化时代下的人们不再受困于网上信息资源的稀缺和互联网接入设备的匮乏,而是苦恼于被大量观点片面、视角单一的同质化信息所围绕,无法直面多元而真实的世界。信息公平中获取自由的内涵也从能够获取大量信息的自由转变成为能够获取多样化信息的自由。
(二)信息分配阶段的不公正
除信息获取阶段的不平等外,另一个突出的问题就是劣质、虚假信息的泛滥。人们生活在一个信息爆炸的社会中,有益信息周围充斥着大量的假新闻、虚假广告、哗众取宠的论辩等有害信息,且该类信息在互联网上日益泛滥,污染着互联网的信息内容生态,已然成为网络中的新公害,困扰着人们的生活。
以新闻内容为例,有关机构调研发现,大多数用户对当前新闻传媒的内容质量并不满意:67%的人提到有很多标题党新闻,点进去被欺骗;58%的人吐槽蹭热点;48%的人觉得虚假新闻泛滥;47%的人认为当前营销号软文太多;35%的人认为内容太少而观点太多。(12)《2019-2020内容产业趋势报告》,2019年12月3日,https://new.qq.com/omn/20191203/20191203A0DWBE00.html,2021年10月3日。无意义、质量低下甚至虚假的信息充斥互联网的各个角落,占据人们信息获取的各个渠道,消耗人们辨识的精力,降低人们获取信息的效率,挤压优质信息的生存空间。人们被大量信息所包围,却又因信息质量的泥沙俱下而难以获得有用的信息。信息质量低下导致人们无法充分享有信息红利,进而导致信息“分配正义”的落空。
更进一步地,如果说劣质、虚假信息的泛滥作为互联网信息内容生态中的普遍现象,其所致的“分配正义”落空以社会大众为承担主体,并不直接指向特定人群,其虽然在宏观的社会层面上出现了信息公平的失衡,在微观的群体层面上却仍保持着相对公平的状态。那么,在面对掌握用户画像后而具有强大洞察力的算法推荐技术时,以老年人为代表的部分互联网使用者,媒介素养较低、网络知识盲点多、缺乏信息辨析能力,他们就像是毫无免疫能力的待宰羔羊,极容易成为谣言和伪科学内容的“感染”对象,甚至被劣质、虚假信息所“围猎”。例如,在2021年的“3·15晚会”上,曝光了一系列专门针对老年人的软件,该类软件普遍以“优化大师”“清理大师”命名,伪装成手机安全软件在各类老年人常用的应用中推广,并使用各种诱导话术吸引老年人下载。一旦老年人被欺骗或无意间点击而下载,并利用其进行“手机垃圾清理”后,该软件便会在表面上清理手机垃圾,背地里大量收集手机数据,对用户进行画像,打上“易骗”等标签,持续性地向用户推送各类带有欺骗性质的内容和广告,诱骗老年人。此外,更有权威机构调研发现,由于对网上信息辨识力较弱,老年群体已经成为虚假信息的传播主力。(13)G.Andrew,N.Jonathan and T.Joshua,“Less than You Think:Prevalence and Predictors of Fake News Dissemination on Facebook”,Asian-Australasian Journal of Animal Sciences,vol. 32, no. 2(2019).实际上,前述现象早已悄然成为网络生活中的一部分。
最为大家熟悉的是长辈分享在家族群中的各类山寨电商平台的优惠砍价小广告、自媒体发布的虚假保健养生小知识、烂鸡汤、反智谣言等。该类虚假、劣质信息便是在掌握老年人的偏好后精心创作,利用老年人在网络安全和个人信息保护上意识不足的弱点,通过算法推荐的方式大规模地对其进行合围,吞噬着他们的金钱、时间以及信任。在数字经济高速发展的今天,信息资源已经成为重要的生产资料和财富源泉,信息质量上的差异将由于信息资源本身的“增值特性”以及“马太效应”进一步加剧人与人之间的数字鸿沟。(14)陈力丹、金灿:《论互联网时代的数字鸿沟》,《新闻爱好者》2015年第7期,第33-37页。善于利用媒介,拥有充足网络信息挖掘、真伪辨析能力的群体,能够享受信息的盛宴。相反,缺乏相应素养和能力的群体,虽然实现了互联网的接入及参与,但由于自身的能力缺乏以及算法的“算计”,被排斥在宴席之外。他们不仅无法享受互联网中的优质信息,反而如同三岁小儿持金过闹市,不断遭受着来自四面八方的危险和诱惑,陷入各类劣质、虚假信息的泥沼之中。在此情况下,信息“分配正义”的公平失衡更是在特定群体层面呈现出加剧的状态。
以劣质、虚假信息泛滥为代表的互联网信息生态乱象普遍损害人们信息获取和利用的效能,算法推荐技术更是进一步加深了其对特定人群的影响,扩大了不同群体间从互联网信息中获得的红利差异。信息公平中“分配正义”的内涵也从强调能够参与互联网并享受信息化社会的便捷,转变成为能够公平地共享信息化社会所带来的红利。
三、算法推荐中信息公平失衡的原因分析
上述现象与其说是算法推荐技术的副产品,不如说是已有的社会现象在算法推荐技术催化下的集中爆发。“信息茧房”作为人类选择性心理在信息领域的体现,始终伴随着人类的成长。为达特定目的,对特定群体有意识地施加有利于己方的影响,乃是普遍之事。劣质、虚假信息作为“信息次品”,更是如影随形地伴随着信息的生产过程。一方面,无论技术如何前沿,都无法从根本上消除它们存在的心理和社会基础;另一方面,算法推荐技术毫无疑问深刻地改变着它们的表现形态、作用力度和影响规模。(15)李成:《人工智能歧视的法律治理》,《中国法学》2021年第2期,第127-147页。因此,要预防和治理算法推荐引致的信息公平失衡,必须先厘清失衡现象产生的机制及算法推荐技术的作用路径。具体而言,我们可以从算法推荐技术的作用前提、作用过程以及作用结果三方面对算法推荐技术的作用路径展开分析。
(一)“数字人格”生成提供了信息非均衡处理的前提
如果将用户接收到的个性化信息内容视为算法推荐的最终产品,那么该产品的生产过程可以被描述为:平台将搜集到的用户信息作为原材料,不断投入到特定算法这一机器之中,最终得到为个体用户独家定制的信息内容资讯。
该作用产生的第一阶段是信息获取。一方面,在当今的互联网实践中,各类应用和软件都普遍存在过度搜集用户个人信息的情况,以实现其功能和服务。遗憾的是,当前的互联网生态决定了珍贵的用户个人信息在各平台使出浑身解数的野蛮争夺面前处于近乎不设防的状态。无论是通过“不同意即不能享受服务”的霸王格式条款,或采取“一揽子授权”的方式强制用户同意对其进行信息搜集,抑或是以提供多样化服务等名目为幌子,掩盖其过度搜集信息的行为都普遍存在。即使用户保持足够的谨慎,也容易被各类冗长的隐私条款或用户协议慢慢耗尽维护自身权利的耐心。另一方面,当下的人们生活在一个数字化的社会,生活中的方方面面都与网络进行了深度的融合。从衣食住行到生产生活,离开数字化应用几乎寸步难行。传统物理空间下公共领域和私人领域间相对明确的隐私边界在数字社会所构建起来的物理空间下发生迁移,且变得日益模糊。(16)王锋:《私密还是透明:智慧社会的隐私困境及其治理》,《行政论坛》2021年第1期,第98-104页。
知名互联网企业家李彦宏先生曾经说过:“中国人对隐私问题的态度更开放,也相对来说没那么敏感。如果他们可以用隐私换取便利、安全或者效率。在很多情况下,他们就愿意这么做。”该言论一出便引发了社会舆论的轩然大波。该言论虽然仅为其个人观点,但对我们仍有一定的启发。一方面,其在不经意间反映了互联网巨头对用户隐私利益漫不经心的态度;另一方面,其也在某种程度上暴露出用户难以对个人信息实现有效保护这一问题的本质。在数字化社会中,个人信息成为互联网上的通行证和等价物,将其紧握在手的结果就是寸步难行。用户意欲享受某种服务,就不得不提供个人信息以作交换。反之,拒绝分享个人信息则意味着与高质量的服务无缘,应用和软件中的各种功能受限,甚至难以实现正常的功能。实际上,无论用户是否“愿意”为效率放弃隐私,都几乎没有说“不”的权利。
该作用产生的第二阶段是数字画像。当下算法推荐在底层原理上可以归纳为“用户画像-追踪学习-筛选推送”三步。首先是平台通过搜集到的用户信息和使用痕迹对用户进行画像。比如说,在用户使用互联网的过程中,平台往往采取对注册登录的用户进行标签化识别或利用cookie技术对用户进行追踪,以实现对用户信息的搜集。(17)丁晓东:《用户画像、个性化推荐与个人信息保护》,《环球法律评论》2019年第5期,第82-96页。其次是平台通过对用户的使用习惯、兴趣偏好进行持续追踪,以实现用户画像的实时调整。最后是系统根据平台所制定的内容分发规则对用户进行个性化的信息推送。无论是用户的个人信息,如籍贯、所在地、性别、教育背景、工作,还是留存在各个网站上的数码足迹,如用户所浏览的网站内容、点击的行为、在特定内容上停留的时间、转发和评论的内容,都为机器洞察用户创造了条件。用户在网络上留下的大量看似彼此之间毫无关联的碎片化信息,一旦与强大的算法系统结合,就能准确地勾勒出相应用户的数字画像。倘若用户在各种场景中留下的信息足够多,此时不仅可以组成完整的“历史画像”,还可以从数据隐藏的规律中探寻用户的“未来画像”。(18)姜野:《算法的法律规制研究》,博士学位论文,吉林大学法学院,2020年,第93页。隐藏在智能设备后的个人在大数据和算法面前变得有迹可循,个体赤裸裸地暴露于数字化的全景监狱,以致于发现“算法比你还要了解你自己”。(19)靖鸣、管舒婷:《智能时代算法型内容分发的问题与对策》,《新闻爱好者》2019年第5期,第9-13页。
(二)算法的内容分发和流量分配机制促使公平失衡成为现实
首先,算法推荐的内容分发机制决定了用户所能获取的信息内容。在当下算法推荐的各类推荐模式中,应用最为普遍的是基于内容的推荐和协同过滤推荐。在运行原理上,基于内容的推荐是根据用户的兴趣内容,推荐其他具有类似属性的兴趣内容。(20)许海玲、吴潇、李晓东,等:《互联网推荐系统比较研究》,《软件学报》2009年第2期,第350-362页。协同过滤推荐则是根据用户兴趣内容的相似性进行推荐,通过将与当前用户兴趣内容相似的其他用户的意见提供给当前用户,从而为用户发现新的兴趣内容。(21)邢春晓、高凤荣、战思南,等:《适应用户兴趣变化的协同过滤推荐算法》,《计算机研究与进展》2007年第2期,第296-301页。虽然各类推荐模式进行内容分发的具体逻辑有所不同,但核心要义都是基于用户的个人信息及过去行为所形成的用户画像挖掘用户的观点和偏好,进而筛选出用户喜闻乐见的内容和观点。一开始,以个人偏好为导向的内容构筑起了用户的信息世界,也用一堵堵无形的墙把具有不同观点和偏好的共同体成员分隔。随后,共同体成员的同质化使得个体原有的观点和偏好得到了进一步的印证与强化,且用户的选择性心理会使其倾向于关注自己感兴趣的领域,和兴趣相近、三观契合的人交谈,屏蔽外界不了解的领域和反对的声音。当用户的行为选择反馈到算法中,算法则会进一步根据其观点和偏好进行内容分发,以迎合其选择性心理。最后,算法的分发机制和用户选择性心理的相互作用形成了加强信息内容观点和偏好同质化的闭环,用户成为被禁锢在“信息茧房”之中的信息偏食者,失去获取其他信息内容的机会和可能性,从而导致信息获取自由落空。
其次,算法推荐的流量分配机制决定了用户直面的互联网信息内容生态。在流量为王的时代,越多的用户流量意味着越丰厚的广告收入,流量的获取和变现成为平台的核心命题。因此,在流量角逐竞争和平台商业利益的双重驱动下,尽一切可能吸引用户注意力进而获取用户流量,成为一切工作的逻辑起点。用户的点击量、停留时长、点赞、转发、评论数成为平台流量分配的标准。平台的算法推荐机制往往将更大的流量权重赋予能够吸引更多用户注意的信息内容,使其有机会出现在更多用户的界面。该流量分配机制在促进平台盈利的同时,也容易引发流量的马太效应,进而影响互联网的信息内容生态。一方面,对于能吸引用户眼球的信息内容,在初期就越容易得到更多的用户流量,进而有更大机会完成冷启动,得到平台流量分配的倾斜支持。若该信息内容一旦得到“上首页”“上榜首”等进入平台推荐系统的机会,也就更有可能被更多用户看见,进而得到更多的用户流量,成为“吸睛无数”的热点话题。另一方面,无法在第一时间唤起用户兴趣的信息内容,不仅难以获得系统流量的倾斜支持,甚至会遭受流量分配权重的削减,在一段时间后便消逝在茫茫的信息海洋之中。(22)崔诗健:《算法新闻中假新闻的产生原因及应对策略》,《传媒论坛》2021年第10期,第157-158页。原本游离并沉淀在互联网各个角落中的劣质、虚假消息,由于其中往往包含阴谋论等契合用户心理的内容,能够吸引大量的用户流量,进而被激活和快速传播。
同时,在该流量分配机制下,为了追求“流量-利益”的高转化率,内容生产者不得不费尽心思地迎合用户,以获取更多的流量。引人注目的视频封面、极具冲突和戏剧性的标题、罔顾事实刻意“制造”热点等现象,在网络中频繁出现,更有甚者打着法律的“擦边球”,发布以恶搞、色情、暴力为主的内容。此类劣质化和低俗化的内容不仅迎合了用户的猎奇、审丑心理,使用户能够快速获取快乐感和满足感,还能通过诱导用户沉迷的算法模型设计,使人欲罢不能,并在不知不觉中大量收割用户的流量和时间。(23)曾锦莹、郭德超:《新媒体劣质信息生产与奖励系统中马太效应叠合的反思》,《新闻研究导刊》2020年第17期,第59-60页。相反,国家大政方针的专业解读、社会经济文化领域问题的理性探讨等较为严肃的优质内容却往往因为其需要一定的时间进行消化,无法使用户在第一时间获得感官上的刺激而常常遭遇用户冷落,进而快速被平台流量所抛弃。平台中唯流量是从的生态环境引发了信息内容的螺旋式下降,加剧了劣质、虚假信息的泛滥,从而导致信息分配正义的落空。
(三)平台对“大众媒体人”监管不足加剧公平失衡的程度
新媒体的到来冲击了传统的信息传播方式,重构了信息的生产方式,导致传媒领域的话语权变迁,亦在一定程度上影响了互联网的信息内容生态。(24)邵国松:《媒体智能化发展的伦理与法律问题初窥》,《现代传播(中国传媒大学学报)》2018年第11期,第9-14页。伴随社会结构朝着扁平化、去中心化的方向发展,公众通过社交媒体、自媒体获得了有效的发声渠道,分享了原本牢牢握在报纸、电视及新闻门户网站等传统媒体手中的话语权。话语权的平民化和信息内容生产准入门槛的大幅度降低,把麦克风和摄像头放到了每一个人面前。内容的创作者不再仅限于专业的机构,每个人都是内容的生产者,都有机会借助微博、百家号、公众号、短视频分享自己的生活、提出自己的观点和看法,并向大众传播。但是,多元化、去中心化的传播模式在赋予个体话语权,激发大众进行内容创作和分享热情的同时,也必然会带来内容层面上的良莠不齐。
传统媒体在进行内容生产和分发时,往往由专业的编辑等新闻媒体工作者进行把关,并设置相应的层层审核机制,在对内容的选择上侧重于具有社会价值的国内外新闻和公众议题,在内容的报道上具有真实性和客观性,在内容的观点上也更为中立和深刻。而在大众创作中,情况发生了改变。因信息发布准入门槛的降低,进行信息内容创作的“大众媒体人”大多未经专业的训练,难以产出高质量、有深度的原创内容,往往只能带来重复、空洞而无营养的“垃圾文”“灌水文”或对他人优质内容进行掐头去尾式地糅合,极容易让观众产生审美疲劳。同时,在创作过程中,“大众媒体人”缺乏对传媒伦理等内容创作规范的系统学习而难以把握其产出信息内容的优劣甚至合法与非法的界限,又因法律对个体的追责和惩罚困难而产生侥幸甚至无畏的心理。退一步而言,即使“大众媒体人”在对良善内容的追求上拥有足够的自律,也可能因为自身辨识能力欠缺和个体知识范围有限而无法甄别出网络信息内容的优劣和他人报道的真假。在追热点、取素材的过程中,成为劣质、虚假信息的“二传手”甚至炒作者。
“大众媒体人”的出现淡化了平台的守门人职责,且平台自身的暧昧态度和效用有限的监管机制更是无力塑造起阻挡各类劣质、虚假信息的有效防线。与传统媒体中平台既是内容的承载者也是内容的生产者不同,当下的平台并不是内容的生产者,而仅仅是内容的承载者,内容的生产和创作来源于平台上的用户。平台在面对外部质疑时,亦往往将自身定位为内容传播渠道的提供者,强调自身对所传播内容的“中立”和“不参与”,希望能够借此抽身于内容监管的责任之外。(25)T. Gillespie, “The Politics of ‘Platforms’”, New Media & Society,vol.12,no.3(2010),p.348.
一方面,平台有限的内容监管措施受制于技术有效性、平台人财物力等种种因素,使平台无力回应信息内容生态的种种乱象。平台对内容的审核一般采用人工编辑和人工智能机器相结合的方式。通过人机的分工协同,实现对信息内容的层层过滤。(26)刘沫潇:《从“把关人”到“守望人”——算法式新闻分发下人工编辑的功能角色定位》,《电视研究》2019年第2期,第63-65页。具体流程可以描述为:首先,在初审时利用人工智能机器对含有特定敏感关键词、内容高度重复等信息内容进行标记、分流和筛选,以期过滤掉部分涉及敏感话题或质量特别差的内容;其次,如果信息内容通过初审,便会进入人工复审环节,复审主要负责质量审核,判断文章是否违背公序良俗、是否存在不良导向等,以决定信息内容是否能够最终上线。(27)邵恒媛:《数字劳动视域下内容把关人工作的异化——基于今日头条人机协同审核机制的研究》,《媒体融合新观察》2021年第1期,第38-43页。但该审核机制并非绝对保险,其结果不如预期有多方面的原因。其一,在预设算法下运行的人工智能机器无法识别出所有文字表达上的“伪装”,亦不具有判断信息内容价值之偏向的能力,预审的防线往往容易被深谙算法审核逻辑的用户所突破;其二,由于无时无刻都有大量的用户利用平台进行内容的生产和发布,内容审核的任务繁重且时间紧迫,人工编辑往往只能对信息内容进行形式上的审核以保障其不涉及某些敏感及违法的话题,无力对信息内容的真假、价值内涵等实质性内容进行审核和干预。
另一方面,平台受自身利益的驱动,往往会有意地降低审核标准,让某些质量较差但符合用户观点和偏好、能够吸引大量流量、有机会成为爆款的信息内容顺利上线。例如,Facebook的前雇员弗朗西斯·豪根在向美国证券交易委员会举报Facebook后接受CBS《60分钟》栏目采访时便谈到,虽然Facebook管理层知道平台排名算法存在“导致愤怒、两极化和分裂的放大”的系统性问题,仍选择继续使用这个算法。因为错误的信息、愤怒的内容对人们具有持续的诱惑力,能够带来更多的用户互动和流量,以使公司盈利。(28)Whistleblower: Facebook is Misleading the Public on Progress against Hate Speech, Violence, Misinformation,2021年10月3日, https://www.cbsnews.com/news/facebook-whistleblower-frances-haugen-misinformation-public-60-minutes-2021-10-03/, 2021年10月18日。
三、算法推荐中信息公平实现的法律保障
即使我们认为,对“技术奇点”迫近的莫名恐慌尚属杞人忧天,那么当隐藏在黑箱之后的算法推荐技术悄无声息地影响着互联网的信息内容生态,屡屡导致“信息茧房”形成,成为他人操纵大众的工具和劣质、虚假信息泛滥的帮凶时,关于科技失范造成信息公平失衡的忧虑则不应再被等闲视之,而是成为必须要回应的问题。(29)李成:《人工智能歧视的法律治理》,《中国法学》2021年第2期,第127-147页。此时,一种制度性的法律保障就具有极为重要的意义。
(一)法律保障的规范效力
面对以上两种信息公平失衡样态,大部分学者基于传播学的角度进行观察,提出了以下治理建议:从供给端优化算法推荐模式,丰富推荐信息内容的种类,适当增加内容的非关联性;从过程端强化平台及从业人员对信息内容的监管责任,鼓励创作优质内容并加大对劣质内容创作者的惩戒力度,以增强信息内容的可靠性;从需求端提升用户的数字技能和算法素养以增强用户对内容的鉴别力,避免上当受骗。
但是我们必须清晰地认识到,该类建议更多属于技术层面的举措,各项措施单独的运用也许作用有限。首先,科学界对技术的完善不可能一蹴而就,需要在长时间的实践积累中不断迭代而逐步修正,况且完美的技术方案是可期的真实存在还是缥缈的空中楼阁仍未可知。其次,平台及从业人员的商业利益与用户的信息权益在一定程度上存在冲突。即使我们对完美的算法带有幻想,亦无法避免算法作为一种中立的客观技术或手段支撑,最终仍然要被特定主体用于实现特定目的。当算法技术与特定主体结合后,就难以避免同伦理和价值问题产生勾连。(30)宋保振:《“数字弱势群体”权利及其法治化保障》,《法律科学》2020年第6期,第53-64页。技术中立的核心难题在于价值中立,当技术进入社会领域,被各种利益、诉求和价值判断所塑造和限制时,便很难做到中立。(31)郑玉双:《破解技术中立难题——法律与科技之关系的法理学再思》,《华东政法大学学报》2018年第1期,第85-97页。因此,仅仅依靠平台和从业人员进行自我规制,难以达到预期效果。最后,个体数字技能的习得和算法素养的提升亦需要长时间的训练。更何况,时刻以谨慎的态度对互联网的各类信息进行审视需要耗费用户大量的精力,这会大大降低用户在互联网中获取信息的效率。
因此,寄希望于通过教育和宣传的方式,让用户能够在使用互联网时对各类信息拥有足够的判断力和辨识力,进而能够自觉地防范各类风险更像是一种强人所难的说辞。最为重要的是,在算法推荐的技术霸权面前,处于弱势地位的私主体即使能力再强大,也仅仅只能避免掉部分易于识别且可为自身所控制的风险,而无法在系统性的信息公平失衡面前做到独善其身。(32)马长山:《智慧社会背景下的“第四代人权”及其保障》,《中国法学》2019年第5期,第5-24页。
技术的发展带来了信息领域生产关系的变革,对该乱象的治理也呼唤着上层建筑的回应。技术性措施的制定需要法律提供方向和价值上的指引,措施的具体落实亦需要在法治的轨道内运行,各方主体的权利保障和责任承担更是需要法律作出明确的规定。法学的使命并不是对科技发展所带来的辉煌成就加以赞赏,而是审视科技可能带来的非理性后果,以及如何通过法治降低科技发展可能带来的风险。(33)韩大元:《当代科技发展的宪法界限》,《法治现代化研究》2018 年第 5 期,第1-12页。因此,破解算法推荐中信息公平失衡的难题,消解公平失衡的风险,需要在结合技术治理特点的同时,完善法律治理,用法律治理对技术治理进行归化,实现技术治理和法律治理的“二元共治”。(34)郑智航:《网络社会法律治理与技术治理的二元共治》,《中国法学》2018 年第2 期,第108-130页。法律治理能否自信地直面新技术的挑战,关键在于我国现有法律体系的制度余量是否充足。
(二)寻求法律规制的制度余量
2021年8月以前,我国直接针对规范算法推荐的相关规定,均散落在法律、部门规范性文件及国家推荐标准之中,并以“自动化决策”“用户画像”“个性化展示”等关键词得以呈现。其中的主要内容可以归纳如下:《个人信息保护法》第24条、《电子商务法》第18条、《互联网个人信息安全保护指南》第6.3条和《个人信息安全规范》第7.5条规定了用户享有选择不接受算法推荐服务的“算法拒绝权”,若用户选择拒绝接受平台的算法推荐服务,平台应当提供不针对其个人特征的信息内容推荐方式;《个人信息安全规范》第7.4条和第7.5条规定了平台对用户个人标签的利用界限以及用户对其个人标签进行选择、修改、删除的自决权,以保障用户能够调控个性化展示的相关程度;《个人信息保护法》第55条和《个人信息安全规范》第7.7条则规定了平台利用个人信息进行自动化决策时,应当在事前评估其对个人所造成的影响。由此可知,我国针对算法推荐的相关法律规范分布较为零散、缺乏体系性的专门立法,且大部分规定集中于不具有法律约束力的国家推荐标准之中,从而造成了治理工具不足,应对效率不高的现实困境。
2021年9月,国家网信办等九部委发布了《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《指导意见》)。2021年12月31日,国家网信办、工信部、公安部、市监总局联合发布《互联网信息服务算法推荐管理规定》。《指导意见》与《规定》分别从政策和法律层面宣示了国家对算法推荐领域乱象的关注和利用法律对算法推荐进行规制的决心。《规定》作为我国首部对算法推荐作出专门规定的法律规范,其适用范围囊括了互联网中算法推荐的各类应用情形,并对算法推荐服务提出了各项技术上的细化要求,迈出了算法监管从伦理价值层面到技术应用层面全覆盖的重要一步。
通过对新颁布的《规定》进行分析,我们可以理顺其对于算法推荐的规制方式。在《规定》中,规制算法推荐的法律制度沿着用户自决、平台自律和国家监管的逻辑展开。用户自决强调用户享有是否接受算法推荐服务及其具体应用的权利。在《规定》第17条中,规定了用户享有“算法拒绝权”和“标签自决权”,赋予了用户随时关闭算法推荐服务以及选择、删除自身在系统中带有个人特征的标签的权利。平台自律强调平台在提供算法推荐服务时应当秉持算法应用“向上向善”的理念,充分落实履行自身主体责任。具体而言,《规定》采用大篇幅事无巨细地从算法设计的价值伦理、算法模型的运行机理、用户画像的运用限制、信息内容的管理义务、算法机制的公开透明、用户申诉的渠道畅通、特定算法的备案公示等方面作出了规定,并且还在第18条到第21条,特别回应了社会高度关注的“未成年人防沉迷”“老年人防诈骗”“平台劳动者保护”“大数据杀熟”等问题。国家监管强调通过有关部门的大力监管及综合治理,降低算法的安全风险。在《规定》第3条和第28条中,分别明确规定了对算法推荐服务采取中央地方双层次、多部门的联合监管及对算法依法开展安全评估和监督检查的制度,并在第23条和第24条提出了对算法进行分级分类管理,及对“具有舆论属性和社会动员能力的算法服务提供者”进行前置备案。
经上文分析可知,算法推荐作为算法技术在互联网信息内容分发场景中的具体应用,既遵循着算法技术的一般规律,自身又具有作用方式、运行原理上的独特性。面对算法推荐中的信息公平失衡,法律应当以“两条腿走路”的姿态对其进行回应。一方面,应当继续加强如算法分级分类原则、算法公开透明的程度及边界、算法解释的方法和主体、算法侵权致害归因原则等一般层面上法律规制的理论研究,以塑造算法规制的法律框架,为具体应用场景下算法治理规则的探索、制定和实施提供认识论和方法论。另一方面,应当以算法具体应用场景为出发点,通过审视该过程中算法所引致的问题及其作用方式,针对性地提出在具体场景下对算法进行回应的方式。通过宏观及微观两种层次的问题建构及其相互补充,编织规制算法的法网。只有这样,那些体现在《规定》当中的,无论是用户的“算法拒绝权”和“标签自决权”还是平台的算法机制“向上向善”义务、信息内容管理义务、版面生态的人工正面干预义务、算法运行机制的公开及解释义务以及国家层面的算法分级管理、特定算法服务提供者进行前置备案等规定,才能为消解由算法推荐带来的信息公平失衡提供可用的法律工具和可靠的制度保障。
四、结语
数字科技的快速发展及扩散使得算法推荐技术融入信息传播的方方面面,并极大地影响和改变着信息内容的生态。此时,如何保障公民对信息的获取自由和分配正义,避免信息公平失衡,成为数字科技治理的应有之义。鉴于完美算法推荐技术的可得性存疑、平台与公民利益存在不一致性及个人与平台力量悬殊,对算法推荐的治理应当采取技术与法律的二元共治。目前我国法律体系对算法治理的规范供给不足且学界对算法治理一般理论研究也尚未成熟,为了实现降低算法风险、消解公平失衡、为算法推荐治理提供法治化保障的目标,我们在建构宏观的一般性理论的同时,更应当从微观细节入手,探索《规定》具体规则的落实和适用,以实现算法推荐法律治理的“积跬步以至千里”。