APP下载

算法推荐意识形态风险的法律防范

2021-09-14侯东德张丽萍

重庆社会科学 2021年8期
关键词:风险防范

侯东德 张丽萍

摘 要:作为个性化新闻分发的底层支撑技术,算法推荐的科学技术特质决定了其并非中立,而是具有一定的意识形态属性。算法推荐的利用若不受监管,将会对主流意识形态传播、网络信息环境和用户的价值观念带来冲击,引发意识形态安全风险:平台流量至上的推送逻辑降低主流意识形态的引领力和凝聚力,以用户偏好为中心的内容推荐加剧了价值分化和观念隔离,过滤推荐引发价值迷失和信息操纵。有必要发挥法律的安全功能,通过强化网络平台的审核、监督义务和信息披露义务促进主流意识形态传播升级;通过赋予用户算法知情权、算法解释权打破信息茧房,建立多元信息环境;通过限制算法推荐的适用范围和算法审计监管构建“可信任”的算法,切实防范化解意识形态风险。

关键词:算法推荐;意识形态风险;算法监管;风险防范

基金项目:教育部哲学社会科学重大攻关项目“人工智能发展中的重大风险防范体系研究”(20JZD026)。

[中图分类号] D35,D64 [文章编号] 1673-0186(2021)008-0077-014

[文献标识码] A      [DOI编码] 10.19631/j.cnki.css.2021.008.007

随着腾讯新闻、今日头条、微博、微信等头部网络信息平台的崛起,其背后的信息分发方式——算法推荐引起学界注意。资料显示,早在2016年算法分发已成为互联网新闻的主要分发方式①。算法分发具有提升新闻分发效率,缓解信息过载危机、供需危机等优点。然而随着信息传播市场竞争加剧,平台对它的利用目标逐渐从满足用户的个性化需求到谋求流量的最大化转变,推荐算法逐渐成为平台实现市场份额扩张的工具,由此引发技术理性和价值理性的失衡:它的广泛使用给主流意识形态传播带来冲击,影响着网络空间的信息环境及信息传播秩序,同时改变着用户的信息获取及阅读习惯,蕴藏着意识形态安全风险。“意识形态关乎旗帜、关乎道路、关乎国家政治安全。”[1]我们必须正视、重视算法推荐给用户信息获取、阅读习惯以及信息传播秩序转变带来的影响,牢牢把守好意识形态建设的网络空间阵地。

关于算法推荐引发意识形态风险的应对,学者们多从新闻传播、技术伦理、政治安全等角度出发进行研究,鲜有从法学视角出发对算法推荐适用主体、适用对象、适用范围的权责关系审视。本文以算法推荐与意识形态安全的关系为出发点,探讨网络平台的商业价值与社会责任承担、算法监管等内容,提出算法引发意识形态风险的法律防范路径。

一、算法推荐:一种意识形态视角

作为一种信息分发方式,算法推荐何以引发意识形态风险?在研究展开之前,我们首先厘清算法推荐与意识形态安全之间的关系,这是进行风险防范路径探索的前提。

(一)科学技术的意识形态面向

科学技术是生产力的重要组成部分这一观点已经深入人心。作为经济基础的一部分,其似乎与意识形态、上层建筑关系甚远。然而,我们在认可马克思主义经典作家观点的同时不能据此否认科学技术与意识形态之间的关系。相反,科学技术与意识形态总是有意无意地相互影响,特定条件下科学技术甚至会间接履行意识形态相关职能[2]。

马尔库塞曾明确提出“科学与技术成为意识形态”的思想。在他看来,发达工业社会中日益精密的生产设备、日渐精进的生产技术已经不仅单纯地作为工具性存在来影响社会,而是作为系统性存在对整个社会产生影响。科学技术的发展不仅决定着社会发展需要的技能、工种,还影响着个人的职业发展规划、个体发展的愿望和需要。它消除了社会需要和个人需要之间的矛盾,推动了个人与社会发展的一致化、推动社会控制和社会团结达到新的高度。“科学技术所引发的社会关系的变迁,外在的工具性掩盖人的主体目的性成为一种常态,主观的原则日渐被客观原则所取代,主体能动性、价值、诉求的多元化在这种常态中日益被抑制和消解。”[2]67科学技术以它的生产效率和增长潜力来稳定社会,在此过程中技术进步的合理性不仅体现在经济、社会活动过程中,而且深入拓展到整个社会统治制度之中。科学技术不再中立,而是具备了维护政治统治的功能。“技术的合理性已经变成政治的合理性。”[3]8在当代,技术控制体现出了“有益于整个社会集团和社会利益的理性”[3]10,它融入统治制度使自身永久化,并把思想意识吸收进社会现实之中,为统治制度中的其他权力提供合法性基础。技术通过自身的发展,以解放双手、减轻劳动、提高效率的名义合理渗透到社会生活和控制体制之中,为现存社会制度的合法性辩护。正是在这个角度,科学技术的运用使意识形态融入商品生产的各个环节,使技术合理性成为发达工业社会中近乎唯一的评价向度;科学技术承担了意识形态功能,而且也正成为一种意识形态[4]。

哈贝马斯关于科学技术是一种意识形态的认识更为系统全面。他认为,与传统意识形态相比,科技意识形态更具广泛性、辩护性和透明性,它使“科学的物化模式”渗透进广泛的社会生活,并借助自身力量诉诸客观的合理性以反对对现实的反思和批判[5]69。科学技术以一种高度合理化的方式在社会发展演进过程中将自身塑造成为“非政治化”的文明形象,以极隐蔽的方式模糊掉其所承担的政治功能和自身携带的政治元素,让个体简单地相信自己能够通过积极拥抱科技进步、创造科技成就实现自身价值。“人们一直试图以科学技术和理性对抗迷信和信仰,结果却突然发现,科学技术和理性本身也成了迷信,而蕴含在科学技术中的合理性则成了当代人普遍的信仰。”[6]科学技术正是通过这种方式将大众对科技的忠诚转化成为对政治制度的拥护和支持。由是观之,科学技术不仅是一种意识形态,更是一种具有极强隐蔽性的意识形态,它的客观合理性、非政治性和對社会发展进步的巨大推动功能常常让人忽视其为政治统治背书的工具性。随着科学技术逐渐被公认为是推动社会进步的变革性力量,在社会生活领域甚至衍生出一种“偶像化的技治意识形态”[2]67,科技理性在某种程度上已经成为一种权威性力量。对此,哈贝马斯尖锐地指出,“技术理性的概念,也许本身就是意识形态。不仅技术理性的应用,而且技术本身就是(对自然和人的)统治,就是方法的、科学的、策划好了的和正在策划着的统治”[5]39-40。

(二)算法推荐的意识形态属性

算法推荐在各信息应用终端的使用已成主流。作为一项科学技术,其在数据话语体系中意味着客观和科学;作为一种内容分发的逻辑方式,其与意识形态关系密切。就运作机理而言,算法推荐的本质是在海量信息与用户主体间实现“用户价值主导下的场景化适配”[7],其核心逻辑是基于历史数据寻找目标信息产品与用户之间的关联关系,通过探究用户与人、物、信息的相关性去拟合用户现在的和潜在的兴趣偏好,进而完成信息的个性化推荐。一个完整的算法推荐流程通常包括数据获取—数据处理—数据输出这样三个环节[8]。

作为科学技术延续发展的产物,推荐算法的技术属性、自然属性决定了其具有一定的意识形态属性。首先是算法推荐的技术特质使然。算法推荐以新兴科学技术的身份进入内容分发市场,以其“中立性”表象承袭了科学技术在社会诸领域的公信力:随着算法推荐的适用范围不断扩张,其作为一种隐性的意识形态力量当然地被大众所接受并不断深入渗透进人们的思想意识之中。算法推荐承袭了科学技术的意识形态功能并形成了一种技术依赖的意识形态语境。其次,算法推荐技术以人的理性建构为基础。作为设计架构的产物,算法在开发过程中不可避免会被嵌入研发者个体的价值观念,会被慎重或无意地嵌入一定的规范标准、常规惯例及社会形态之中。而这些观念、标准、惯例又以算法为依托在各网络平台一次次的信息推送过程中变成传播的媒介,持续不断地为人们编织着信仰、价值和集体认同,潜移默化地影响着人们的价值观念和意识形态认知。

推荐算法的应用价值、社会属性决定了其将持续发挥意识形态影响功能。推荐算法具有提高传播效率、优化传播结构的经济属性,其在参与信息内容分发过程中展现出巨大的生产力价值,内嵌在算法层面的价值偏向将在一次次的推送传播过程中被不断强化和放大。在应用层面,算法推荐结合用户属性进行精准化甚至引导性、倾向性内容推送,在人们每一次的浏览、转发、评论等互动过程中,算法的推荐结果持续影响着人们对待事物的态度和习惯,影响着人们的思想、行为模式和生活方式。实践中各平台通常会出于某种目标导向或对传播效果的把控而突出某种价值偏好或导向,在各平台商业竞争的过程中推荐算法逐渐演变成为被资本、流量裹挟的工具,为特定的商业目的乃至政治目的服务的信息内容隐藏于信息收集、筛选、分发等环节和标准之中,展现出一定的价值导向和意识形态影响力。

二、算法推荐引发的意识形态风险

算法推荐的意识形态属性决定了其在不受干预的自然状态下蕴藏着一定的意识形态风险,这是对“技术中立”论的反驳和否定。

(一)主流意识形态引领力、凝聚力降低

主流意识形态引领力即主流意识形态“引导社会舆论和受众的能力”,是主流意识形态在社会多层次思想认识的交流碰撞过程中逐渐打破认知差异,形成协调性、整体性认同的能力[9]。主流意识形态凝聚力是用马克思主义、社会主义核心价值观等主流意识形态思想标识来寻求价值认同、凝聚价值共识的能力。在传统的中心化、自上而下的信息传播结构中,官报、官媒占据强势地位,依靠全方位、高频次的曝光和推送给主流意识形态传播提供了坚实基础。算法推荐机制的引入带来信息分发结构的改变,传统官媒优势地位不在,主流意识形态面临凝聚力、引领力降低的风险。

首先,算法推荐对内容把关权力的“收编”挤压了主流意识形态传播空间。在传统的科层制信息分发结构中,依照自上而下的垂直分工,主流意识形态可以低成本、高效率地实现传播。借助互联网技术赋权,信息分发机制迎来从人工分发到算法分发的改变,内容把关权力的转移使得传统官媒的精英属性不在,权力渐趋式微,各类自媒体、百家号“粉墨登场”。互联网的赋权改变了传统的权力结构,内容把关权力不再仅仅依靠行政力量,而是通过算法推荐开辟了新的实现方式:价值凝聚人心。在个性化的信息推送机制之下,用户散落在各个“隐秘角落”的非主流、个人化的信息产品需求经过算法的数据分析和深层挖掘后逐渐显露,原本被忽视的海量的“长尾需求”得以高度适配。“汝之砒霜,我之蜜糖”,算法推荐极其高效地满足了用户的千万种信息兴趣需求,于是信息价值判断的统一标准丧失,非主流信息传播市场得以初步打开。借助新闻内容和用户数据的精确导引,算法推荐能够实现信息与用户之间的高效适配,并且具备持续提升推荐结果、提高推送效率的能力。质言之,算法推荐具有持续满足用户需求的能力,同时也具备信息致瘾的能力。当我们的目光在一则则“精彩”“绝妙”的信息之间流连忘返,当我们沉浸在信息消费、数字娱乐的世界中无法自拔,当我们的信息世界被碎片化、消耗性的信息无意识地填满,这是算法推荐所支撑的“注意力经济”的胜利,是以算法推荐为核心的信息分发机制市场份额不断扩大、主流意识形态信息传播空间不断坍塌的结果。

其次,算法推荐机制下信息产品的微观叙事方式消解了主流意识形态传播效力,削弱了主流意识形态价值引领能力。缺乏人工编辑对信息产品的内容把关和质量筛选环节,无限制的个性化算法推荐将紧紧围绕满足用户需求这一宗旨进行发力,其最终目标是实现用户引流、增加用户活跃时间以达到流量的最大化[10]。借助信息传播结构和信息分发方式的转变,以互联网和社交媒体平台为依托,我们已经进入了资讯信息的全民创作、全民生产时代。信息传播权利的普及本应带来网络空间文化的蓬勃发展和空前繁荣,然而事实却并非如此。和相对正统、严肃的主流意识形态信息产品相比,无关公共事务、无涉知识增益的大众传媒因其通俗性、“趣味性”更容易得到普通民众的青睐。各类震惊体、标题党新闻层出不穷,动辄十万加、百万级的传播效果已不鲜见。更有乱象丛生的网络直播,利用用戶的猎奇心理频繁突破内容传播底线。若网络平台对此并不加以干涉、矫正而是默许虚假、低俗、反主流的价值偏向并据此进行个性化推荐,算法便会“被错误的价值观所捕获”,各类非主流意识形态内容充斥网络空间,并在无边界的传播过程中产生劣币驱逐良币效应:由商业利益和流量驱动生产的通俗内容驱逐有关主流意识形态和公共事务的严肃话题内容,主流信息产品中承载的庄严价值与严肃意义被无情地解构、消解,主流文化的精神内涵和教化功能也随之丧失[11]。

(二)同类推荐、偏好推荐加剧价值分化

所谓分化,是指事物由同一性向多样性、由同质性向异质性发展的过程[12]。作为一种价值观念演变过程,价值观分化即社会意识形态结构从同质、单向走向异质、多元,并出现不同价值偏向的过程。算法推荐在满足不同用户个性化需求“痛点”的同时,对不同群体、不同圈层意识形态的影响同样不容忽视。从信息分发机制的演变视角观察,从人工把关到社交过滤再到算法推荐,信息分发的效率不断提高的同时伴随着网络用户信息视野的打开,人们更容易在网络空间找到与自己兴趣相投的小组社区,但正是这种多元化小众空间的存在在一定程度上加剧着社会价值和意识形态的分化和异化。

一方面,同类推荐编织的信息茧房加剧了圈层隔离,不同价值观念之间的碰撞、交流渐趋减少。算法推荐围绕用户的兴趣需求进行内容分发,只有用户感兴趣的、同类别的或具有潜在兴趣的信息才得以被筛选呈现。“一千个人眼中拥有一千个信息世界”,用户不感兴趣的信息将不会被看到。又囿于人的主观性和局限性,每个人感兴趣的领域注定是片面的,借助算法推荐技术加持,长时间曝光于同质化信息氛围将使用户身陷信息茧房困境,视野逐渐狭窄。封闭的信息空间隔绝了多元信息穿透传播的可能,同时也隔绝了异质意识形态传播的可能,阻绝了开放、包容价值观念的形成。拥有相同价值观念和意识形态立场的用户很容易相互吸引进入同类社群,又通过社群的频繁互动进一步强化着自身固有的意识形态。群体内部同质化的信息传播保护着人们生活在信息舒适圈之内,任何与既有意见相异的信息在圈层内部都将丧失传播可能。与此相伴随的是社群内信息多样性的日渐减少,信息隔离逐渐形成,不同社群的认知观念差异逐渐演变成为用户群体借以相互区分的身份符号标签,最终造成观念差异的进一步加深和沟通可能性的丧失。

另一方面,偏好推荐产生的回音室效应不断强化用户的既有价值观念认同,容易诱发群体极化现象。单一的信息环境是群体极化现象的诱因之一。在算法推荐场域及其所实施的协同过滤机制下,人们不断接收到与自己兴趣和价值观念相吻合、相印证的内容,它们似乎是一种反馈,能够在主观上使用户得到来自网络空间的“认同感”。正是这种认同感不断建立起网络用户之间的情感联接,增进了小范围互联网社群的内部团结。但事实上,这些内容或许拥有不同的表达形式或论证手段,却也仅是能够强化既有观点、固化既有认知的来自网络世界的“回音”而已。随着回音不断出现,人们不断接触与自己价值偏好同质化的信息,并在这种情境中不断反应延伸,用户的认同逐渐增强并形成一个个相对封闭的信息回环空间,这便是回音室效应。来自网络空间的认同感同时也是可能造成群体极化的倾向性因素之一,因为“如果互联网上的人们主要是同与自己志趣相投的人进行讨论,他们的观点就会仅仅得到加强,因而朝着更为极端的方向转移”[13]。推荐算法技术对于情感型群体的形成具有正向促进作用[14]。如于欢案、孙小果案无一不是经由大众传媒、主流媒体和活跃于各平台的自媒体账号在各自话语圈层范围内多维度地讨论、传播后,不同的情感诉求和价值观念碰撞加剧,对社会公平正义的关注和共同的情感倾泻迅速凝聚起价值倾向性群体,群体极化现象开始出现。最近在网络上引发广泛讨论的性别对立等热点事件便是封闭的网络信息环境滋生群体极化的最新例证。如今的互联网似乎已不再是可以讨论问题的场所,而只是情绪宣泄的空间而已。这也从另一个侧面证实了在算法推荐主导而不加干涉的网络环境中,群体极化现象的出现在一定程度上具有不可避免性。此外,如果不同社群间的观念差异并非通过回音室效应自发形成,而是经由算法推荐被引导到越来越对立的方向,形成越来越极端的观点,那么这种技术手段与信息的叠加不仅会推动群体极化形成,甚至还将滋生极端主义生长空间。

(三)算法过滤引发价值迷失和信息操纵

算法推荐对信息分发市场的介入是一场传播领域的技术革命,传播市场环境、市场格局随之转变,速度和流量成为新的最大利益追求。作为一种观念的上层建筑,意识形态由经济基础决定并在很大程度上受到经济基础的影响。我们不能仅仅停留在意识形态层面寻找人们价值观念相异的原因,因为价值观念的分化更深层次源自不同经济基础利益主体的利益分化。有学者将价值观的分化区分为差异、矛盾、冲突三种类型[12],当价值观分化处于矛盾状态时,人们在不同价值观念间的选择中容易出现价值错乱、分辨力降低等诸多状况,个体的迷失状态给社会意识形态安全带来巨大隐患。

其一,算法推荐及其所营造的过滤气泡形塑网络空间“单向度的人”,网络空间意识形态面临价值迷失风险。所谓过滤气泡,是指算法推荐在进行数据处理和运作过程中实现了信息和内容的供需匹配,同时也帮助用户筛选掉了兴趣范围外的大量异质信息,用户处在推荐算法营造的信息和观念的舒适气泡当中。在这种过滤机制之下,“令人着迷的新闻娱乐产品带来固定的态度和习惯,使消费者愉快地产生与生产者、进而与社会整体相联结的思想和情绪上的反应。在这一过程中,产品起着思想灌输和操纵的作用。”[3]12如今随着算法推荐的广泛使用我们人人处于算法统治确立的生活方式之中,算法过滤塑造着“单向度的思想和行为模式”,凡是超出既有价值和意识形态领域的思想和行为都将受到排斥或是被纳入既有思想行为体系之中。尤其值得注意的是,这种二元对立的思想状态在个体间出现了一致化的趨势。当微信、微博、B站等头部网络平台均被同质化的信息充斥,当我们每一次的浏览体验均以探求新知开始而以理性丧失结束,网络空间留给我们的将是一片贫瘠、狭隘、单调的精神荒原,这与我们融入网络空间时怀抱的拓展、多元、交流的初衷不相吻合,与互联网科技的开放、包容、共享精神背道而驰。“缺乏信心且不确信自己应当持何种观点的人们,倾向于使自己的观点变得温和。”[13]30长此以往,人们精神世界空泛,价值信仰萎缩,辨别是非的能力和抵御反主流、反体制、反智识思想和行为的能力下降,意识形态安全面临严重威胁。

其二,算法推荐营造的单一信息环境使网络空间意识形态面临信息操纵风险。算法推荐对信息的过滤使不同意识形态属性的人们置身相互隔绝的信息茧房之中,长时期处于同质化的信息氛围,“容易使人将自己的偏见当作真理,拒绝接受其他合理性的观点和意见”[15]。这恰恰给网络谣言和阴谋论的传播提供了间隙。网络谣言通常伴随着突发公共事件出现,当有关职能部门的调查和信息公开不能满足人们内心预期,就会有人利用信息不对称和人们的固有认知框架及偏见或故意、或盲目地制造、传播虚假信息,严重消减政府相关部门的权威性和公信力,扰乱网络环境和公共秩序。尤其值得注意的是,算法的工具性特质让有关主体利用算法对用户的意识形态偏向实施影响成为可能[16]。算法推荐和社交媒体的技术偏向也给谣言传播提供了天然的有利环境。在网络空间已经成为意识形态斗争的主阵地、主战场的当下,我们必须高度警惕一些西方国家凭借其发达的科学技术优势,恶意利用算法推荐机制及新媒体的传播特性,结合热点话题发表一些倾向性言论,企图通过阴谋论对我国民众进行意识形态渗透和思想操纵,诋毁、批判我国主流意识形态的行为。

三、算法推荐引发意识形态风险的法律防范路径

算法推荐引发的意识形态风险问题,可以放在风险社会理论的研究范畴内展开探索。贝克认为,“风险可被定义为以系统的方式应对由现代化自身引发的危险和不安”[17]。对风险的防范,其重点在于防范风险带来的负面效应,包括防范风险发生的危害和风险发生的可能性。现代法律通过发挥安全功能实现风险防范,此种安全功能的发挥不在于排除所有风险,而在于依照确定的防卫和补偿规则来防止风险后果的外部化[18]。具体而言,法律通过主体、权利、义务、责任等制度的构建及其相互作用来保障安全和稳定。面对算法推荐应用领域的多样性和意识形态风险分布的离散性、隐蔽性,我们要主动作为、积极应对,既要强化對意识形态风险的事后监管,也要做好对意识形态风险的事前防范。这就要求我们从网络平台的权责关系入手,一方面强化网络平台责任,通过用户权利的赋予和平台义务的约束实现商业价值和社会责任的良性互动;同时又要刺破算法推荐的工具“面纱”,通过对算法的监管和适用范围的限制来实现技术理性和价值理性的平衡。

(一)平台责任强化:促进主流意识形态传播升级

网络平台作为算法推荐的利用者、受益方,作为互联网信息传播的把关人,在主流意识形态传播引领方面应当有更大作为和更多担当。网络平台责任的承担有其理论基础。其一,守门人理论。互联网借助TCP/IP协议地址具备了数据传输功能,为信息传播流动提供了物理基础。事实上对信息流动拥有管理能力的是各个计算机终端的网络平台。换言之,网络平台利用其信息基础设施、技术架构、服务形式等优势资源,掌握着信息流动的关键节点,同时平台算法也影响着用户对内容的获取,可以说,网络平台已超越纯粹的服务提供者的被动性、中立性角色,而是以把关人的角色参与到信息流动控制中去,成为网络空间中“看不见的手”。其二,外部性理论。外部性是对个人或企业活动对其他人或其他企业产生外部影响的评价。在网络平台是否应当对其所利用的技术引起的外部影响承担责任的论证过程中一直存在着平台是否可以因为技术的工具性而免责的问题。相较于传统媒体平台以人工编辑为主导的信息审核分发模式,各网络平台的信息传播过程展现出了更强的技术特质和自动属性,技术中立也常常成为平台责任豁免的论据之一。然而,外部性理论的适用并非着眼于企业是否对其行为的外部影响拥有实质性控制,而是作为市场机制对资源配置调节失灵的补充规则而存在。在信息传播领域,各网络平台对算法推荐的利用在客观上造成了主流意识形态传播风险,这反映出算法推荐存在一定的技术局限性:“当市场机制或技术体系无法实现资源的最优配置或社会福利的最大化时,应当由政府加以干预,要求受益的企业承担一定的责任维护社会运行的公平性。”[19]对各网络平台而言,其有义务、有责任为公众提供更加广泛的信息来源,避免公众完全被兴趣引导而走向更加逼仄的价值视野中去。

第一,强化网络平台的审核、监督义务。网络平台既是信息服务的提供者,又是信息资源的调度者,在信息传播、消费的各个节点均发挥重要作用。网络平台应当为其使用算法推送的信息尽到必要的审核和监督义务,确保信息传播符合主流意识形态。网络平台本身可被视为一个大型的公共图书馆,读者可根据自己的兴趣爱好依照图书类别索引找到自己感兴趣的书籍。作为图书馆方,不仅要能够满足不同层次、不同兴趣读者的阅读需求,还要保证其所提供的书籍内容健康向上,符合法律法规和社会主义核心价值观等主流意识形态精神,这样才与公共图书馆的地位、功能、价值相匹配。

在内容上,社交平台的审核、监督义务包括信息传播后果的预见义务和避免义务。前者要求平台对其所分发信息的传播效果有较为审慎、合理的认识;后者要求平台在预见到其所推荐、分发的信息可能背离主流意识形态时,应积极采取措施缩减传播范围或断开传播路径。在性质上,社交平台的审核、监督义务应当是一种高度的注意义务,类似于学校对学生、商场对消费者的安全保障注意义务。理由在于,其一,网络服务平台作为信息传播的载体向众多用户开放,信息传播的空间大、传播范围广;其二,网络平台在技术手段、管理经验上拥有更强的风险防范能力。

网络平台可通过用户协议、社群规范等文件将“符合主流意识形态”作为信息内容传播的底线性要求,用户擅自发布、传播背离主流意识形态内容的,平台可视情况采取拒绝发布、停止传输、删除内容、禁言、关闭账号等措施。对于平台利用算法制作、推荐的信息,平台应充分利用其技术条件切实履行审核、监督义务。平台义务的履行应以技术可行性为基础,如通过设置关键词过滤检索、引入机器学习算法进行语法语义分析、人工审核的经验判断等多维度的条件组合,让非主流意识形态信息内容丧失传播土壤。另一方面,对于未尽到合理的审核、监督义务及违反法律法规、故意制造算法偏见、传播虚假信息的网络平台及相关主体,应当承担相应的行政责任。

第二,强化网络平台的信息披露义务。随着算法逐渐在信息资源配置中占据主导地位,其所引发的意识形态风险不断扩张。传统的事后监管路径无法达到预期效果,我们的监管思路应当从结果监管向风险防范转变[20]。对网络平台而言,数据内容输出后传播环节的审核、监督作为一种监管手段有其必要性,但我们不能忽视的是,网络平台作为连接用户与信息间的媒介枢纽,作为媒介传播结构中官方媒体和自媒体间的第二梯队,其身份早已突破了单一的经营者角色,而是由于众多用户的选择而具有了一定的管理和公共职能属性。这就要求网络平台对意识形态风险的防范不能简单停留在对信息内容的审核、监督上,应更进一步转向能够有效促进主流意识形态传播的信息环境塑造上来。强化网络平台的信息披露义务旨在通过充分的信息公开唤醒用户的权利意识,在一定程度上松动算法推荐的适用基础。

一方面,关于平台利用算法进行个性化推荐相关信息的披露。平台应将其使用算法的类型、目的、运作机理,抓取推荐算法基础数据的种类、条目、范围以及推荐内容的价值偏向等内容通过用户协议等文件进行公开,同时明确提示用户拥有拒绝算法推荐的权利。另一方面,推进主流意识形态传播升级。网络平台可以在拥有一定观点倾向性的信息内容后附上不同观点内容的推荐,或者随机推荐主流意识形态相关内容,促进用户对异质内容观点、异质社群的接触曝光。针对不实内容、片面化信息,可以用“本条内容可能含有虚假内容”“本条内容可能含有片面化观点”等标语进行提示,并适当增加辟谣信息、官方调查报告等内容的推荐和链接。针对西方国家在网络平台发表的倾向性言论和对网络用户进行的意识形态渗透,同样可以通过链接推荐的方法进行反击,如针对言论涉及的某项事实在网络平台和官方媒体网站、政务网站之间增强互连互通,以个性化推荐或设置链接的方式确保用户及官方媒体相互都能够知道对方的观点及内容。

(二)用户权利赋予:形塑开放多元的信息空间

算法推荐的使用不仅成功帮助网络平台增加了用户黏性和忠诚度,实现了资讯产品服务升级,而且也在逐渐改变着人们的信息获取方式,影响着人们的意识形态认知。算法推荐之所以成为信息传播产业发展的结构性力量,算法推荐信息流之所以获得诸多拥趸,是与注意力经济的发展分不开的。从电视媒体的兴起到文字、图片、短视频内容的迭代更新,网络平台依托算法、大数据等技术进行数据抓取,针对用户的关注偏好、基础信息等进行解构分析,用户的注意力被当作数据分析的对象并被不断整合进推荐算法之中[21]。应当说,算法推荐是注意力经济的催化剂、助推器。在這种经济模式中,用户的每一次阅读分享、每一个点赞评论都能够让算法对你的画像更加精准、让算法对你的了解更加深入。看似免费的信息获取其实早已在暗中标好了价格:用户即商品。但是我们的身份,应当是网络平台的消费者,是拥有独立判断能力、思辨能力、完整人格的自然人,是网络空间的公民。我们怀抱着新知、交流的愿景融入网络空间,却在无意识的情况下进入了自我意识形态的回音室。对各平台而言,其设立的初衷是帮助用户“随时随地发现新鲜事”,致力于实现“文明、理性、友善、高质量的意见交流”①,塑造一种成长型的文化生活方式②,其既应在主流意识形态传播引领上有所作为,更应在多元信息环境的构建上发力。

第一,用户应享有算法推荐、算法编辑的知情权。知情权关乎合同自由、关乎公平正义。哈耶克认为,“自由是指一个人在多大程度上能够自行其是,在多大程度上能够自由确定其行为方式,以及在多大程度上可根据自己所执着追求的目标,而不是根据别人为实现其意图所设定的强制条件去行动”[22]。对用户与网络平台间的关系稍加审视便会发现,用户对平台服务协议的“同意”是其接收信息服务的前置条件,用户协议并未经双方协商缔结,而是平台方单边规制的结果。从经济、信息、知识等方面看双方间均存在着巨大鸿沟,这种不平等使用户极易因错误或令人误解的信息内容而作出非理性的选择判断。基于双方合意“瑕疵”订立的合同并不能够在实质上满足合同成立中“意思表示真实”这一要件,这在一定程度上是对合同自由原则的背离和违反。在合同的履行阶段双方地位上的不平等同样在延续,用户协议条款内容的改变、信息分发底层技术逻辑的更换等并未对用户的知情权予以足够保障,处于信息劣势的用户方的行为自由和意思自治并未得到充分尊重。在这个层面上,有必要赋予消费者即用户一方以知情权,让消费者在对相关内容充分理解、知悉的情况下自由判断、自由选择是否同意或接受信息服务,从而实现实质意义上的合同自由。

具体而言,其一,前述平台信息披露义务中关于算法推荐的信息获取、运作逻辑等内容应在用户协议中以简明、易懂的方式体现并获得用户的知情同意。其二,除用户自主订阅的偏好信息外,网络平台基于算法进行的个性化推荐内容应当逐条进行醒目提示,如在信息顶端或底部增加“本条内容由算法推荐”标签,并设置关闭推荐、减少同类推荐按钮,避免用户陷入信息茧房而不自知。其三,如果某些信息内容中含有偏见、歧视、极端内容并经网络平台清除、编辑后向用户呈现,也应逐条对用户进行明确告知,如通过设置“本条内容经编辑后呈现”标签对用户进行提示。

第二,用户应享有算法解释权。算法解释权是通过增加算法决策的透明度以提高用户对算法的可理解性和问责性的一种请求权[23]。在算法推荐的法律规制中引入算法解释权,是基于合同意思自治原则所必然衍生的权利,是对平台和用户之间巨大身份鸿沟、信息不对称的有效纠偏,其作用在于实现信息从优势一方向劣势一方的流动而达到相对平衡的状态。

其一,算法解释权的主体和对象。在个性化新闻推送场景下,算法解释权的权利主体是认为受到算法推荐不利影响的相对人,其往往在网络平台用户中产生。算法解释权的义务主体为推荐算法的使用者即网络平台,或在推荐算法使用者无法提供解释时的推荐算法开发者。其二,关于算法解释权的内容,不同学者拥有不同见解。张恩典聚焦于算法决策的形成过程,从算法决策的建模阶段、自动决策阶段的动态视角出发将算法解释权区分为以算法系统功能为中心的解释权模式和以具体决策为中心的解释权模式两种类型[24]。张凌寒则聚焦于信息披露和算法决策的事后救济,认为算法解释只能由算法决策的相对人在受到不利影响后提起,并认为算法解释权的权利内容应当包括针对算法决策的具体解释和事后的更新解释两个层次[25]。我们在此无意深究算法解释权的一般内容设定,仅在前述观点的启发下结合信息个性化推荐场景下的算法解释权利内容展开思考。具体而言,用户有权知道其在使用网络平台期间的身份标签、身份画像等内容。画像作为算法推荐的前置程序,用户可以申请平台解释个人画像形成的逻辑和进行画像的依据,如平台会抓取的数据类型、展开画像的具体维度,各项数据的特征、类型和权重占比,以及不同维度数据的改变对可能接收信息内容的影响等,让用户对自己处于或将要处于的内容环境拥有合理预期。此外,如果用户认为自己因为网络平台的算法推荐已经或正在遭受不利影响,有权要求网络平台针对该算法的具体决策过程如数据处理逻辑、信息推送逻辑等作出解释,网络平台应及时予以答复。

(三)算法监管:建设“可信任”的算法

当前我国并未确立对算法的直接监管机制,现有的监管路径更侧重于对结果的审查,通过将算法产生的不利后果和法律责任分配给算法使用平台以实现对算法的监管。在技术批判理论者看来,这种“基于终端责任原则的规制技术,寄望通过终端责任威慑以防止技术研究与应用所造成的损害,只是对风险转化为现实的一种事后补救路径,它显然与风险社会理论所指引的事先预防理论相悖”[26]。作为风险治理的重要手段,法律应对技术研究及技术应用的效用予以必要关注,对算法技术规制、算法责任等的探索仍任重道远。“技术规制是风险治理的重要措施。”[27]对算法推荐引发意识形态风险的防范亦不应仅停留在对平台的治理和监管上,更应将监管的触角延伸到“算法”这一底层技术层面。算法作为网络平台运行的底层技术逻辑,应当被纳入监管范围。

首先,可通过建立算法审计制度纠正用户长期偏好性阅读带来的观念极化。审计作为一种经济监督机制长期存在,我们通过对公司的财务管理、经济效益等进行审查以维护金融市场稳定和其他利益相关人的利益。这是因为对外界投资者而言公司的内部运营就像一个“黑箱”,给公司内部人员带来巨大信息优势的同时也存在着被滥用的风险。这与算法的作用机理相类似。算法审计旨在通过建设“可信任”的算法并通过其合理利用为用户构建开放、多元的信息空间。《个人信息保护法(草案)》第53条初步确立了网络平台的定期自我审计和必要时的第三方审计制度,标志着监管部门穿透了网络平台的法人外壳,将监管之手直接指向平台的内部运营活动,将监管对象扩大至平台的算法运行层面[28]。这一监管思路契合了风险社会的预防性监管理念,平台的自我审计有助于提前发现和预防算法可能产生的负面影响及风险,第三方专业机构审计又因其中立性对平台产生一定的约束作用。这意味着平台自我审计将构成监督和问责的基础性依据。以此为基础,其一,网络平台的自我审计可以内部进行,采取法律法规和伦理规范相结合的审计模式,通过综合考察平台使用推荐算法的设计目的、理念、设计规则、技术原理、合法合规性、价值偏向性等内容形成审计报告,并报相关监管部门备案。平台应针对其使用算法可能产生的意识形态偏向及对用户的价值观念影响提供可行的解决方案。其二,政府部门可结合个性化新闻推荐的具体场景制定平台使用推荐算法的技术标准作为推荐算法的市场准入要求,以打造政府监管、平台自我审计、第三方审计相结合的贯通性、多元化治理体系。其三,审计报告作为政府部门的监督依据,一旦发现网络平台违背审计报告相关内容,恶意利用或未合理使用算法造成相关信息异常呈现的,或者存在虚假审计、违规审计情形的,可要求网络平台立即整改或介入平台运营。

其次,可通过限制算法推荐在信息推送过程中的适用范围以打破信息窄化。一方面,有必要对信息分发场域算法推荐的事实“垄断地位”进行干预。政府对市场竞争机制的介入是为了应对市场机制的不完善、失灵等导致的资源配置无效率现象。算法推荐借助网络平台发达的基础设施在信息传播市场占据事实上的支配地位,其所引发的信息茧房、群体极化、价值迷失等意识形态风险已经表露出来,在这种情况下,不能完全放任信息传播市场的自由竞争,让政府管制和市场竞争作为两种手段协同发挥作用才能更好地发挥算法推荐对意识形态传播的正向影响,实现经济效益和社会效果的协同。另一方面,主流意识形态急需更加广阔的传播空间。国家层面,信息窄化最本质的危害在于其阻塞了主流意识形态传播的上通下达,存在着巨大的政治安全隐患。对用户而言,算法推荐广泛适用的危害在于,用户所接收到的信息看似经过了自由选择,其实仅是由传统主流意识形态传播者的把控、筛选替换成了网络平台更劣质的精心挑选而已。当我们被剥夺了接触异质信息的机会,我们的思想自由就丧失了。从这个角度来看,网络平台应当发挥公共论坛属性并为公众提供一个开放自由的讨论空间,让人们在意外获取的信息中不断反思完善自我,因为“慎思明辨的力量胜过独断专行”[29]。因此,有必要对算法推荐的适用范围予以合理的限制。其一,以主流意识形态为主要内容的信息推送应当排除在算法推荐的适用范围之外,确保主流意识形态传播路径畅通。实践中监管部门已尝试实施这一举措。例如,新浪微博曾因持续传播炒作导向错误等违法违规有害信息被网信部门约谈,其问题突出的热搜榜、热门话题榜等板块被下线。整改后的热搜榜新增“新时代”板块及置顶功能,着重突出展示正向传播导向内容①。其二,各网络平台除以用户偏好为中心进行资讯推送外,以主流意识形态为主要内容的信息推送在用户的有效接收内容中应当占有一定比例。网络平台可设定合理范围(如5%~20%)并赋予用户选择权,确保主流意识形态传播的广泛性和有效性。

四、结语

算法推荐对个体、对社会、对国家的影响是全方位、多方面的,对其引发意识形态风险的防范也并非仅通过法律应对就能够达致理想状态。除法律途径外,还迫切需要主流意识形态传播理念、叙事方式、传播方法的进一步转变,迫切需要算法开发者及网络平台的伦理自律,迫切需要用户的算法素养培育等多手段共同发力。我们身处数字社会的深度变革之中,算法经济、平台经济的发展也在对社会治理方式产生着影响,社会治理效果的提升需要“软硬协同”的共同治理模式,期待“政府与民间的相互赋权和相互塑造”[30]。期待本文的部分思考能够在新发展阶段为社会主义意识形态建设提供些微助益。

参考文献

[1]  中共中央文献研究室.十八大以来重要文献选编(中)[G].北京:中央文献出版社,2016:301.

[2]  沈江平.人工智能:一种意识形态视角[J].东南学术,2019(2):65-74+247.

[3]  赫伯特·马尔库塞.单向度的人——发达工业社会意识形态研究[M].刘继,译.上海:上海译文出版社,2006.

[4]  田海舰.互联网的意识形态属性与我国社会主义意识形态建设研究[M].北京:人民出版社,2019:70.

[5]  尤尔根·哈贝马斯.作为“意识形态”的技术与科学[M].李黎,郭官义,译.上海:学林出版社,1999.

[6]  俞吾金.从科学技术的双重功能看历史唯物主义叙述方式的改变[J].中国社会科学,2004(1):132-143+208.

[7]  喻国明,韩婷.算法型信息分发:技术原理、机制创新与未来发展[J].新闻爱好者,2018(4):8-13.

[8]  張萌.算法推荐的伦理困境:技术逻辑基础上的社会价值规范[J].今日科苑,2019(10):43-51.

[9]  张林.智能算法推荐的意识形态风险及其治理[J].探索,2021(1):176-188.

[10]  佟英.个人信息保护与风险治理[J].人工智能法学研究,2019(1):167-183+212-213.

[11]  李凌凌.网络民粹主义:风险与治理[M].郑州:郑州大学出版社,2020:91-93.

[12]  廖小平,周泽宇.价值观的分化探析——以改革开放以来中国社会为背景[J].北京大学学报(哲学社会科学版),2013(3):15-21.

[13]  凯斯·R.桑斯坦.极端的人群:群体行为的心理学[M].尹宏毅,郭彬彬,译.北京:新华出版社,2010:103.

[14]  卢增智,高翔.社交媒体平台群体极化的形成机理与引导策略研究.情报理论与实践.[EB/OL].https://kns.cnki.net/kcms/detail/11.1762.g3.20210225.1827.004.html.

[15]  薛永龙,汝倩倩.遮蔽与解蔽:算法推荐场域中的意识形态危局[J].自然辩证法研究,2020(1):50-55.

[16]  ADAM D. I. KRAMER, JAMIE E. GUILLORY & JEFFREY T. HANCOCK: Experimental evidence of massive-scale emotional contagion through social networks[J]. Proceedings of the National Academy of Sciences, Jun 2014, 111(24): 8788-8790.

[17]  烏尔里希·贝克.风险社会:新的现代性之路[M].张文杰,何博闻,译.南京:译林出版社,2018:7.

[18]  刘刚.风险规制:德国的理论与实践[M].北京:法律出版社,2012:78-91.

[19]  杨乐.网络平台法律责任探究[M].北京:电子工业出版社,2020:28.

[20]  张凌寒.风险防范下算法的监管路径研究[J].交大法学,2018(4):49-62.

[21]  马俊峰,王斌.数字时代注意力经济的逻辑运演及其批判[J].社会科学,2020(11):111-120.

[22]  弗雷德里希·奥古斯特·哈耶克.自由宪章[M].杨玉生,冯兴元,陈荣,等译.北京:中国社会科学出版社,1999:30-31.

[23]  解正山.算法决策规制——以算法“解释权”为中心[J].现代法学,2020(1):179-193.

[24]  张恩典.大数据时代的算法解释权:背景、逻辑与构造[J].法学论坛,2019(4):152-160.

[25]  张凌寒.商业自动化决策的算法解释权研究[J].法律科学(西北政法大学学报),2018(3):65-74.

[26]  刘铁光.风险社会中技术规制基础的范式转换[J].现代法学,2011(4):68-78.

[27]  吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017(5):128-136.

[28]  张凌寒.《个人信息保护法(草案)》中的算法问责制及其完善[J].经贸法律评论,2021(1):36-46.

[29]  凯斯·桑斯坦.网络共和国:网络社会中的民主问题[M].黄维明,译.上海:上海人民出版社,2003:28-31.

[30]  马长山.迈向数字社会的法律[M].北京:法律出版社,2021:271-301.

(责任编辑:易晓艳)

猜你喜欢

风险防范
新形势下航空安全管理面临的风险及防范策略
在股权收购中的常见法律问题与风险防范分析
关于伊通满族县中小企业服务中心财务管理风险防范的调查报告
工程造价咨询管理风险防范措施
银行金融理财风险研究与对策
信用证软条款的成因及风险防范措施探讨
中国企业海外投资风险的防范及化解
融资融券业务对券商盈利及风险的影响研究
企业财务风险分析及防范对策研究
内部风险影响跨国企业国际竞争力的一般机制