APP下载

算法时代社交平台的权力扩张与应对

2024-10-16刘文渊罗宁

新闻爱好者 2024年9期

【摘要】算法改变了网络社会的权力分配。社交平台在算法的作用下将散落于虚拟空间的权力予以集中,通过用户的数据与话语权的掌控形成场域控制,并以平台规则法律化、操纵算法运行规则的方式形成制度控制,由此造成社交平台权力的扩张。传统应对性的治理模式不足以解决社交平台权力的扩张以及算法自身的失控风险,对此需要以敏捷治理的模式将更多的利益关联方纳入流程中,构建多方协作的算法解释机制,明确算法解释的程序,疏解算法失控的风险。

【关键词】社交平台;权力扩张;敏捷治理;算法解释

权力产生于生产与经验之上,通过显性与隐性的暴力将某些主体的意志强加于他人。[1]传统观念中的权力无外乎统治者的统治权、政府的行政权等有形权力实体,具有专属性与刚性的特点;互联网时代则有所不同,构建互联网的初衷在于去中心化,理想状态下的网络空间内没有或鲜有特权与偏见。然而这一去中心化的理想状态随着算法技术的运用被打破,算法在影响互联网参与方式的同时也改变着网络场域的权力分配。社交平台的权力产生于不同主体之间的技术失衡,互联网中平等表达的权利并不意味着技术资源的平等享有,社交平台在算法的加持下可以影响和控制数字资源的流向。在此背景下,如何合理控制社交平台的权力,如何通过技术、法律或政策的指引,在算法技术的创新与规范化运行间保持平衡将成为人们关注重点。

一、权力扩张:算法加持下社交平台权力的走向

算法在形式上表现为技术工具,但透过算法工具运用的表象,信息的传播力和影响力在媒体时代与流u7V3SkfOBQ1OpraXC1hxVg==量直接相关,承载信息交互、媒体新闻功能的社交平台在算法的赋能下成为吞噬、更新与输出流量的庞大机器,权力也在此过程中随着流量被层层叠加,最终汇集至社交平台并由其所掌控,具体表现在场域控制和规则控制两个方面。

(一)社交平台的场域控制

1.用户数据信息的掌控

在Web3.0时代,任何社会成员均可以接入互联网,互联网入口的开放性和受众的广泛性在网络场域自下而上地形成兼具深度与广度的信息力量,同时信息传播起点的弥散改变了不同群体之间信息资源和话语权的不对称性。基于此,参与互联网的社会成员可以借助社交平台获得知识、评价等信息,并可将这些信息作为资源提供给其他社会成员而生成价值,以巩固社会间的关系。[2]因此在Web3.0时代,信息的生产、传递均遵循着去中心化的逻辑,围绕用户本身所展开。然而这种去中心化的信息分配逻辑在技术失衡背景下随时可被打破。一方面在数字化时代背景下,互联网领域的分工逐渐细化,社交平台作为互联网时代的产物需要不断拓展其应用边界。作为信息生成与互动的主要媒介,社交平台功能的拓展在一定程度上意味着用户需要暴露出不同面向的数据信息,形成用户数据的全景化收集。另一方面,社交平台通过收集注册用户的信息掌握了互联网时代最为关键的生产要素——数据资源并以此作为核心竞争力。社交平台在充分收集注册用户的信息后,可以实现多次零成本的使用,并可利用算法对现有数据进行分析与聚合以产生新的数据,从而不断对平台所掌握的数据予以优化。在已有的数据优势下,社交平台可以从容地将业务延伸至其他领域,最终以滚雪球的方式形成“赢者通吃”的局面。

2.用户话语权的掌控

互联网中的公众参与成为信息传播的全新内核,但传播话语权并未转移至公众而被汇集至社交平台手中。由于技术背景的不对称,社交平台通过算法技术将分散的非结构性数据以结合和分类的方式形成结构性数据,据此进行分析并掌握数据背后的规律。[3]社交平台与媒体市场深度融合背景下的用户所感知的信息实际上已被算法所筛选,并在算法的操纵下围绕着用户的喜好形成信息茧房,社交平台随之掌握了传播话语权。一方面,融合传媒功能的社交平台成为信息传播的发起点,具有独立的信息来源与广泛的影响力,已经具备影响公共舆论的能力。另一方面,随着人工智能技术的发展与应用,审核与编辑权力被交由算法,掌握算法技术的社交平台以此增强了对传播话语权的控制。同时,数字社会与社交平台的联系日益紧密,用户生活的全貌实际已被记录于社交平台之中,算法借助数字社会与社交平台的紧密联系而渗透至用户生活的每个角落,用户的任何行为均可成为算法的分析对象并依据不同目的具象化为不同的待解决问题。

(二)社交平台的规则控制

1.平台规则的“法律”性

社交平台改变了信息互动的方式,将信息的主要传播空间从物理场域移转至数字场域。随着互联网的普及与社交平台商业化程度的加深,作为交流媒介的社交平台在技术垄断与财产排他性的作用下逐步形成了自身的权威法则。在社交平台所塑造的信息领域中,平台不仅拥有制定和修正信息传播规则的权力,还可对不符合规定的行为予以裁判。例如,脸书平台的用户准则及服务协议虽有协议之名,但无协议之实,其中充斥着大量的免责条款与用户权益减损的条款,并对广大的社交平台产生了辐射效应。[4]大数据、人工智能等技术的综合运用塑造了个人的信息生态[5],数字化生存方式早已使公民习惯于用点赞数量、运动记录等数字化标准衡量价值的实现,作为数字领域最为关键的功能,网络社交也已成为每位公民难以割舍的一部分。在网络社交客观环境与寻求社交主观需求的共同驱使下,用户不得不融入社交平台所塑造的信息领域中。作为数字社会不同个体、群体间交流的必备媒介,社交平台将接受规则作为使用平台的前提条件,以隐形的强制性迫使用户接受平台所预设的规则。

2.算法规则的操控性

算法是否成熟取决于算法训练是否充分、全面,不同的算法有其独特的数据参照系,能够满足特定目的的算法模型需要以多样化的数据为基础,吸收海量、客观的数据进行训练。例如,生成式人工智能的信息输出能力主要来源于模型的训练,通过生成式预训练的变换器,从海量的数据中学习隐含的语言模式。[6]对于社交平台而言,数据化和算法创造了新的商机,其固有的商业盈利属性会使算法训练围绕商业利益最大化的实现而进行。当算法主导者基于利益目的将筛选后的异质性信息作为训练参照时,算法的运行方向会因训练缺陷逐步偏向社交平台的需求中,看似客观中立的算法规则预设实际已被改变。此外,算法“黑箱”也表现出社交平台对算法规则的操控性。“黑箱”是对不透明的隐喻,指只能得到输入值与输出值,其内部结构却无从得知的系统。[7]算法的“黑箱”使诸多算法的流程处于不透明的状态,社交平台究竟如何将用户分类、对信息筛选等问题均无法通过外部视角直接观察和验证。由此,掌握算法的社交平台实际上在网络社会运行的秩序中排除了外部监管,在企业发展的趋利性作用下以最有利于平台发展的逻辑构建算法规则。

二、治理困境:治理模式与算法失控的双重考验

社交平台的商业模式在取得耀眼产业绩效的同时也引发了治理困境,包括传统治理模式难以匹配算法技术的发展以及算法技术自身所蕴含的失控风险。

(一)传统治理模式难以匹配

第一,应对性的治理模式难以匹配算法技术发展的灵活性。应对性的治理模式是指只有当问题发展至一定程度时,才会制定专门性的规范或程序予以解决[8],通常以法律规范的方式进行。法律制度发展与变革过程中的路径选择与规制设计,综合着客观的事实分析与主观的价值判断。在技术无孔不入的数字社会,基于技术事实形成的社会规范必然透露着技术的特点,其高速率的迭代特性和技术发展的不确定性意味着需要充分的发展空间,这对片面依赖于法律规范的规制方式提出了挑战。一方面,面对高频的技术迭代,稳定、滞后的法律规范的缺位已无法避免,这为社交平台的权力扩张留下了风险空间。另一方面,技术的突飞猛进使得技术发展路径有着很大的不确定性。关键技术的发展、商业的竞争环境、价值观念等方面均随着环境的不同而难以捉摸,社交平台所使用算法的走向由此充满不确定性。正如社交平台最初仅仅作为连接器将用户与新闻媒体相连接,并不需要同新闻媒体一样对其所发布的新闻负责并承担责任,而如今社交平台的业务范围拓展至全景化的数字信息互动场域,此时仅以法律假设作为规制前提已无法匹配算法的应用与发展。

第二,管制型立法会扼杀技术创新的动力。在技术应用与技术规制之间实际存在着博弈关系:监管者会尽可能全面地构建规则来控制技术应用所引发的风险;而在趋利性的影响下,技术的掌控者则会在规则中寻找漏洞以追求更多的利益,两者交替发展并保持着相对平衡。在算法的发展中,滞后的法律规范已经无力应对技术迭代的速度和技术权力的影响,两者间的博弈与制衡关系逐渐式微,滞后的治理模式甚至会阻碍技术的应用与创新。实际上,技术的发展呈现出不同的阶段性,规制方式与规制目标需要根据技术发展的阶段予以动态调整,如何解决这些问题并没有一蹴而就的确定方案,仅依靠法律并非最终的治理答案。

(二)算法自身蕴含失控风险

首先,算法所蕴含的技术权力难以被社交平台完全掌握。权力来源于资源的稀缺性,以此在社会关系中对他人产生影响,知识作为社会的关键资源自然成为权力的重要来源。在前数字时代,工具作为知识运用的成果产生于客观需求并辅助需求的实现,即便发明创造出的工具具有知识的底色,其价值仅局限于依附或助力于权力的需要。而在数字时代,现代社会与数字技术高度捆绑,技术与知识间的互动也越发频繁,技术成为知识的表现形式,这也促使技术脱离了工具属性形成以知识为内核的技术权力。从技术权力的内在运行看,技术权力在作用的过程中不断产生知识并将其权力化,这种权力化过程也影响和重塑着技术权力。[9]在这种权力循环中,技术与客观条件相互作用,形成了一种独立的控制和改造世界的方法体系。[10]也正是由于技术的专业性与封闭性,外部因素难以透过技术壁垒对体系内部施加影响,反而依赖于技术。

其次,算法蕴含了归责风险。责任的本质在于应答,而应答即为对行为的自我答责,以自由意志和自我决定为前提[11]。如前所述,算法会选择自认为最优的分析路径且无法被知晓,当算法决策的逻辑无从知晓时,因此造成的不利后果究竟归于何方无从得知。现代社会中各组织间的联系十分紧密,甚至以难以察觉的方式相互作用,现实化的危害后果已经无法由单一的因果关系来解释[12],在社交平台的算法应用中更是如此:算法的预设可能存在偏见、算法的运行过程可能无法解释等问题均可导致危害结果的发生。在发展至生成式人工智能阶段后,同一算法可能会因运算对象和环境的不同作出截然不同的决策,究竟何种因素产生的风险更难以确定。

三、多元共治:社交平台权力扩张的综合应对

社交平台权力扩张的治理困境根源于治理模式与技术发展的不匹配,面对算法作用下的社交平台权力扩张,需要通过治理理念的更新与技术规制的制度设计对社交平台与算法发展予以引导。

(一)理念更新:以敏捷治理应对治理模式的挑战

面对新技术应用下的治理难题,2018年世界经济论坛提出了敏捷治理的概念。相较于传统的治理模式,敏捷治理具有灵活性、适应性的特点,是一种自适应、以人为本以及具有可持续性的决策过程。[13]敏捷治理避免仅关注显露已久的突出问题,对治理目标进行持续性观测,在无既往治理经验的情况下不依赖滞后的法律手段,强调发掘治理工具和治理方法的灵活性。敏捷治理与传统治理的核心差异在于灵敏度,为了与技术发展速度相匹配,敏捷治理需要主动或者被动接受技术的发展并从中学习,减少政策制定与技术更迭间的时间差。在敏捷治理的框架下,需要尽可能将更多的利益关联方纳入流程中,通过持续的监控和联系来及时更新新技术的政策,从而维持各方的需求平衡。

首先,敏捷治理要求政府监管的逻辑与方式发生改变。从监管逻辑看,传统应对性监管中一般将强硬的惩罚作为治理手段,具有“过程慢、力度大”的特点[14],不仅企业有很高的沉默成本,而且会直接影响到众多利益方。面对多方利益受损的局面,政府的监管逻辑应从惩罚转变至引导,以指向性政策为社交平台的算法运用指引方向。从监管方式看,敏捷治理要求政府与企业从对立走向协作。政府需要认识到算法的技术壁垒,作为使用者与开发者的社交平台对算法的创新速度和潜在影响最为了解。作为监管者需要与社交平台建立相互依赖的信任关系,由此才可深入了解技术和行业的发展动向,以协作的方式弥补技术短板从而合理地制定规制措施。

其次,敏捷治理要求社会参与至社交平台权力的治理中。作为社交平台权力作用的对象,公民和社会组织深刻和直接地感受到社交平台权力的影响,理应在国家权力之外对侵犯公民权利、市场秩序、社会秩序的社交平台权力进行监督。社会组织有着天然的监督优势。2021年1月,中国消费者协会就召开了“网络消费领域算法规制与消费者保护座谈会”,以督促企业对自身的算法规制进行调整。由于算法本身的技术属性对专业提出了较高的要求,因此在未来的监管中可以组成具备专业知识的社会组织,以代表公众进行专业化的监督,并在领域内部形成行业标准,以促进行业自律。

(二)多方协作:以算法解释机制共同应对失控风险

1.算法解释机制的主体组成

首先,社交平台作为算法解释的义务主体。在算法决策中,人类所能解释的算法的准确性往往低于难以理解的算法,随着技术的发展,是否能够打破算法的“黑箱”而洞悉其运行过程的全貌似乎难以实现。[15]但在笔者看来,算法“黑箱”难以破解的这一客观考量并非意味着对算法解释的放弃。作为技术进步的驱动者与算法使用的获利者,拥有技术实力的社交平台具备探索算法解释的基础。关于算法解释的探索实际上也正在进行,虽然目前尚未形成统一的解释机制与标准,但拥有技术实力与使用者的社交平台应当成为算法解释的主体。

其次,第三方算法监督委员会为常态化的监督主体。面对拥有强大技术实力与商业资本的社交平台,仅依靠用户个人难以有效抗衡。同时,作为日常生活的必备工具,社交平台所运用的算法透过应用软件无时无刻不在影响着用户的切身利益,对此需要存在常态化的维权机构为用户与社交平台间的抗衡增添砝码。针对脸书的权力滥用行为,2019年成立的独立内容监督委员会旨在控制社交平台的不当行为,脸书CEO扎克伯格也认为,对脸书某项决定的否认可以先向脸书提出,之后就会上诉至第三方的独立委员会,该委员会的决定对脸书具有约束力。我国可在此基础上针对算法解释的监督进行本土化改造,由独立的第三方机构吸纳社会力量进行常态化监管,并作为规制与自治的衔接与缓冲区为多方搭建沟通平台[16],将用户、社交平台以及政府的意见进行综合与协调,从而灵活管控。

最后,政府作为算法解释“安全环境”的构建主体。社交平台作为算法的使用者需要落实平台责任,具有算法解释的义务,同时对算法解释的验证需要具备相当的专业性,审查者需要了解行业的发展以及知识能力。仅从技术水平来看,将算法解释交由技术实力更强的同行审议似乎更符合技术要求,然而算法解释涉及算法的源代码以及参数的公布,若无安全的解释环境可能会造成商业秘密或技术秘密的泄露。对此,为了保护商业秘密与竞争法益,由政府承担起算法解释“安全环境”的构建者更为恰当。

2.算法解释机制的程序构造

首先,应明确算法解释的申请路径。作为算法最直接的作用对象,用户最能切身感受到算法所带来的影响,当用户受到算法影响时可以直接向社交平台提出算法解释的申请。但在实际生活中,用户的意见通常受制于技术实力和表达途径的限制而被隔绝,当用户的申请被社交平台拒绝或社交平台未做出合理解释时,可向第三方算法监督委员会提出申请。第三方算法监督委员会在接到用户的申请后先进行初步审查,对符合条件的用户申请应及时要求社交平台作出相应的解释并对社交平台的解释予以验证。同时基于第三方算法监督委员会的专业性和行业感知力,对社交平台涉及重大公共利益的算法应进行常态化监督,发现问题应及时向政府部门报告以协同处理。

其次,社交平台的算法解释程度依据解释对象的不同而有所区分。为了避免不当使用算法后马上修改算法而使算法解释失去意义,算法解释的首要任务是将持续变动的代码和参数进行固定。社交平台应当留存系统操作的记录,若侵害性算法处于使用中应立即停止。作为义务性要求,不论社交平台有无做出合理解释或对算法进行修改,均应承担相应的法律责任。在此基础上完全保证用户理解算法并非首要任务,当用户提出解释申请时,社交平台并不需要十分详细地解释算法的运行细节,仅需要针对用户的疑问进行解答,提供与用户利益相关的内容;当根据政府的要求对重大公共利益进行解释时,则需要围绕相关问题尽可能全面、详细地展开。

参考文献:

[1]曼纽尔·卡斯特.网络社会的崛起[M].夏铸久,王志弘,等译.北京:社会科学文献出版社,2006:14.

[2]陈全真.生成式人工智能与平台权力的再中心化[J].东方法学,2023(3):67.

[3]闫宇晨.社交平台私权力的滥用及其治理[J].公共管理与政策评论,2023(4):144.

[4]Lee A.Bygrave.Interent Governance by Contract[M].Oxford University Press,2015:117.

[5]李凌,陈昌凤.信息个人化转向:算法传播的范式革命和价值风险[J].南京社会科学,2020(10):104.

[6]郑永和,丁雨楠,郑一,等.ChatGPT类人工智能催生的多领域变革与挑战(笔谈)[J].天津师范大学学报(人文社会科学版),2023(3):55.

[7]王雨田.控制论、信息论、系统科学与哲学[M].北京:中国人民大学出版社,1986:93.

[8]杨博文,孙永军.理性赋能与向善赋权:科技伦理风险预警与敏捷治理体系的建构进路[J].科学技术哲学研究,2023(4):125.

[9]米歇尔·福柯.知识考古学[M].董树宝,译.北京:生活·读书·新知三联书店,2021:29.

[10]陈文化,沈健,胡桂香.关于技术哲学研究的再思考:从美国哲学界围绕技术问题的一场争论谈起[J].哲学研究,2001(8):64.

[11]刘艳红.人工智能的可解释性与AI的法律责任问题研究[J].法制与社会发展,2022(1):87.

[12]劳东燕.风险社会与功能主义的刑法立法观[J].法学评论,2017(6):21.

[13]薛澜,赵静.走向敏捷治理:新兴产业发展与监管模式探究[J].中国行政管理,2019(8):31.

[14]薛澜,赵静.走向敏捷治理:新兴产业发展与监管模式探究[J].中国行政管理,2019(8):32.

[15]魏远山.算法透明的迷失与回归:功能定位与实现路径[J].北方法学,2021(1):156.

[16]陈伟.作为规范的技术标准及其与法律的关系[J].法学研究,2022(5):86-87.

作者简介:刘文渊,中国人民公安大学法学院博士生(北京 100091);罗宁,中国人民公安大学侦查学院博士生(北京 100091),河南警察学院副教授(郑州 450046)。

编校:王 谦