算法社会公共领域的风险生发与规避
2023-10-14苏衡
【摘要】随着媒介社会化程度的加深,人类社会进入“算法社会”新阶段,并在算法操控、算法偏见以及算法黑箱等因素影响下引发新的社会风险,这在公共领域主要表现为主体异化、价值理性迷失以及公共性消解等问题引发的结构性失衡。针对上述问题,本文从政策规制、人机协同以及算法设计理念角度入手,探索了算法社会规避公共领域风险的治理路径,以期为现实问题的解决提供借鉴。
【关键词】算法社会;公共领域;风险规避;算法治理
一、引言
随着社会媒介化程度不断加深,人类生产生活与社会交往在智能技术的高度赋权下呈现出新特点,特别是算法作为一种新型决策机制正在重构信息生产传播的底层运行逻辑,成为我们感知、理解多元意义世界的重要桥梁。有学者指出,算法环境俨然成为与自然环境、社会环境具有同等意义的人类生产生活新空间,并可能推动人类社会进入算法社会的新阶段。[1]算法社会是数字技术嵌入人类社会并与之相互影响的新体系,昭示算法逻辑支配下的社会交往、社会秩序乃至公共文化生活的权力关系转移。由于算法囿于设计主体的主观能动性,注定了权力关系转移的过程难以规避社会资本、商业利益以及价值观的影响,使其呈现出“决策过程客观、决策意图主观”的双面特质,从而将算法社会中的人、事、物置于“被操控”的风险之中,这在公共领域信息传播营造出的拟态环境中格外凸显,并引发学术界的关注与思考。
二、风险生发:算法引发的公共领域结构性失衡
随着社会文明的演进,早期的以文化批判为特征、由受过教育的市民组成的文学公共领域已然向大众传媒和大众文化主导的现代公共领域转型。在智能技术的赋权下,呈现出低门槛、去中心化和强交互性的场域特征。然而,当人们沉浸于算法投喂的快感及其营造出的看似“平权”的信息环境中,从算法带来的“二手非经验”中形成对社会现象的理解时,便逐渐丧失了基于理性、客观、思辨的深度思考能力。而与智能推荐技术伴生而来的“过滤泡”和“信息茧房”也将群体认知固化,科学理性和社会理性囿于技术的操纵和情感化、集群化的传播策略被不断消解,从根本上动摇了公共领域赖以存在的基石,使其公共性面临事实与规范的背离,[2]从而引发公共领域的结构性失衡的风险。
(一)“主体异化”的生产传播弱化公共领域的公众参与
“异化”即主体活动及其产物脱离和否定主体自身,并作为一种异己的力量与主体处于对抗性关系之中,以扭曲或否定的方式来呈现人的本质。[3]算法已渗透到信息内容生产、审核和传播的各个环节之中,逐步以算法逻辑取代了“人”的逻辑,这虽然提升了信息生产传播的整体效率,但也直接导致了信息传播各环节的主体异化,间接导致公众主体性的弱化,特别是在公众感知、理性批判及自主选择权方面,技术对人主体性的取代加剧了公共领域理性基础的瓦解。
从内容生产者的角度看,智能机器人成为内容信息生产主体,如OpenAI研发的ChatGPT聊天机器人,可以通过模型训练实现对人类语言的理解与对话,并完成视频脚本、文案、绘画等高阶信息文本。机器写作内容的价值理性与算法设计和语料库高度关联,如果算法失当抑或语料库遭到污染,智能机器人生产的内容将无法实现人文性和思想性的提升,还可能造成主体误读,间接将更多真实的公众观点排除在网络公共领域之外,造成理性交流的主体性弱化。
从内容审核者的角度看,算法逐渐成为内容分发的决策者和操控者。资本企图通过对算法的技术控制,创建有利于自身利益的信息供需流动新秩序——由原有的“选择机制”变为“选择分配机制”,对有流量的信息分配何种程度的媒介资源成为重点。[4]在此前提下,迎合受众的个性化、同质化、娱乐化信息更易于获得分配权重,大大挤占了涉及公共利益与公共价值的信息传播空间。算法把关看似扩充了公众参与公共领域的信息资源,增加了信息推荐的精准度,实则在商业逻辑的支配下将不具备公共价值的私人话题、煽动性信息推送至公共领域,剥夺了公众的信息选择与获取权,蚕食着公众珍贵的注意力资源和理性认知。
(二)“流量至上”的运营逻辑加剧公共领域的价值理性迷失
资本逐利性决定了“流量至上”的运营逻辑已成为多数互联网信息企业的潜在规则,并建构起包含点击率、播放量、转发量等流量指标的综合评价体系,其实质是以“算法■数据”的纯粹技术逻辑对内容进行评判,它忽略了价值性、道德性和公共性维度的判断。在全民娱乐化、碎片化的传播环境中,严肃性和价值性内容的让渡构成了公众价值理性迷失的第一层意涵。
公众理性迷失的第二层意涵在于价值认知的对冲错位。相较于市场化媒体基于流量的“商业-技术”逻辑,主流媒体也力图通过算法实现“调整-控制”逻辑,[5]强化公共信息的传播对公域价值理性及时规正。但随着媒体生态的变化,特别是移动客户端传播的趋同化,公众难以清晰辨别“主流媒体”和“商业媒体”,信源差异化传递造成公众认知与价值观的对冲错位,直接体现为公共舆论场的纷争与博弈,算法设计标准的偏差间接诱发公众的理性迷失与群体极化。
(三)“信息茧房”的固化与沉浸消解公共领域的公共性
“信息繭房”对个人化议题的关注进一步造成公众之间、公众与公共事务之间的隔绝与背离,影响了社会传播场域公共性的形成与发挥。一方面,算法“黑箱”遮蔽了内在推荐机制的运行机理,将大量有价值的公共信息抽离于“信息茧房”之外;另一方面,信息茧房内的信息趋同和公众认知固化,使得个体难以客观理性地审视自身和评判他人,且在情绪的煽动影响下形成不理性的观点对立与表达冲突,观点弱势的群体在网络环境中逐渐失声,差异共在性在网络公共领域亦被消解。
此外,为了累积注意力资源,商业主体甚至会利用算法营造出高度沉浸的“茧房”环境,并不断加固茧壁厚度,以获取经济效益。公众沉浸于个人私域,抽离了公共交往的可能性和必需性,逐渐丧失对公域的关注与参与,公共性进一步被消解稀释。
三、风险规避:面向算法的公共领域治理路径
在前算法时代,媒体治理主要是对“人”的行为进行规范。而在后算法时代,“人”在传播环节中的位置后移,“算法”成为内容信息和公众间的新中介,登上前台成为传播的赋能者和塑造者。[6]在此前提下,我们有必要思考如何有效规范算法及重塑标准,以达到平衡工具理性和价值理性、回归人的主体性以及网络公共领域公共性的目的。
(一)遵循算法政策规制,实现工具理性和价值理性的平衡
政策规制是面向算法治理路径的制度保障。《互联网平台落实主体责任指南(征求意见稿)》、《互联网信息服务算法推荐管理规定》等文件的出台,都明确了国内对人工智能的算法治理主要是基于主体的治理范式,[7]政府主管部门、商业平台媒体及新闻机构等算法关涉主体需要共同参与,协同完善算法监管评估机制和落实问责制,以推进算法的工具理性和媒体的价值理性有机融合。
首先,需要进一步完善由新闻主管部门或第三方机构主导的算法监管审查机制,加强对算法风险评估、数据真实性等的审查。以确保企业使用全面、可靠的数据进行算法训练,在保护企业商业机密的同时履行算法告知义务,规避算法“黑箱”,发现潜在的算法歧视现象并及时纠偏,从而达成算法工具理性与信息传播价值理性的平衡。
其次,应进一步完善落实算法问责制。对于算法决策的问责呈现为一种特定的、多主体参与和互动的社会关系,其焦点在于公共理性的达成,以确保决策者能够根据所有理性人都可接受的认知和规范标准来解释其系统的输出,从而限制其算法决策的权力。同时还应探索构建一套凸显“算法正义”的法律问责框架,实现算法决策“事前规制”与“事后问责”的治理闭环。
(二)完善算法人機协同生产,呼唤公众的主体性回归
首先,要加强对算法生成内容层面的人工干预,对算法决策结果进行适当的修正、调整和优化,确保内容信息合乎社会伦理和价值规范。包括加大算法对优质账号以及官方权威账号的推送权重,常态化展示具有较高公共价值的信息;对严肃内容加权,对娱乐内容适度降权;对有思想深度的长视频、长文章加权,对短而空、同质化的视频适度降权等。通过这些干预策略可以激发公众创作优质内容的积极性,发挥新媒介内容对价值理性和公共性的社会建构功能。
其次,构建公共价值取向的行动者网络,发挥算法社会内容创作主体的能动性,实现多元主体的协同配合。一方面,算法平台的内容管理者应牵头建设内部协同的“职责共识网络”,将技术和运营管理者纳入其中,共同实现内容标准的算法化以及激励措施的合理化;另一方面,也需算法平台外部的内容创作者协同建立“规律共识网络”,使有公共价值的内容生产策略成为大多数内容创作者的共识。[8]
公众主体性回归的核心在于人机关系的慎思与重塑。算法应聚焦于服务人,而不是驾驭人。只有正确处理信息内容的注意力数据与价值共识的关系,才能改善算法技术逻辑对公众主体性的操控与侵蚀,将算法蕴含的社会效益放大且合理变现,并最终外化为公共领域的治理效能,形成协同发起、协同感知和协同创造的驱动力,为构建网络传播有序化的媒介共同体提供可能。[9]
(三)优化算法设计理念,重塑公共领域的公共性
关于公共信息的边缘化、公共话语的割裂化以及公共交往的抽离化使得算法社会的公共性被消解稀释的问题,可从参与式算法设计理念及介入式算法干预进行有效平衡。
参与式算法设计理念旨在改变当前算法设计中技术逻辑与商业逻辑主导的态势,将其转向社会主导或公共价值主导。[10]在处理算法公共性异化风险方面,应当将治理重点从算法设计开发的前端开始防范,以应对算法作为主体产生的“非预期后果”。这需要算法利益主体共同协商,以算法“社会契约”的方式奠定算法运行的价值基础。由此,所有关涉主体的算法认知、算法想象、算法体验及算法情境需求得到综合考量,并为投入运行后的算法监管提供重要依据,助力公共领域公共性的实质性提升。如麻省理工学院媒体实验室、世界经济论坛等多个机构倡导者共同发起设立了“开放算法”(Open Algorithms)工程项目,意在增强算法设计中的公民主体参与,以更好地提升算法的公共价值。[11]
介入式算法干预主要指在了解算法运行逻辑的基础上,通过人的行为对算法偏见进行干预式纠正与平衡。一方面,可以引入发布者“资格准入”机制,仅允许经过平台认证的、具有新闻/资讯发布资质的主体发布权威公共信息,并进行置顶提示和全用户推送。另一方面,应加强公民智媒素养的涵化培训,以最广大公众均能理解的方式推广算法投喂的作用机理,提供“训练算法”的方式方法,帮助公众“破茧”,获得进入公域空间的通道,参与公共事务的讨论。
四、结语
乌尔里希·贝克在其论著中说道:“在现代化进程中出现的自主化,也并不必然会别无选择地走向失范的单行道。”[12]这对算法社会公共领域的风险防范依然适用。我们必须承认,算法重构了我们的公共生活与交往,提供便利性、高效性的同时也伴生出新的问题。本文通过对算法社会公共领域的风险、成因进行分析阐述,试图探索一条围绕算法展开的治理路径,以平衡工具理性与价值理性,呼吁人的主体性回归及社会公共性的重塑,以期为当下的现实问题提供可借鉴的解决思路。
[本文为上海市哲学社科基金项目“城市数字化转型背景下的新媒体数字化治理研究”(2021BXW008)阶段性成果]
参考文献:
[1]邱泽奇.技术化社会治理的异步困境[J].社会发展研究,2018( 5):2-26.
[2]许鑫.媒介公共性与公共领域研究:议题、进路与出路——基于文献回顾和研究现状的反思[J].深圳大学学报(人文社会科学版),2014,31(3):141-148.
[3]孔明安,刘婵婵.从“异化劳动”到“拜物教”批判的内在逻辑:兼及马克思异化理论的重新审视[J].厦门大学学报(哲学社会科学版),2023,73(3):21-28.
[4]刘志杰.算法把关失灵与编辑价值重塑[J].中国编辑,2020,125(5):18-22.
[5]叶妮.虚实共生:数据驱动时代的算法主体性、中介关系与治理逻辑[J].编辑之友,2023,321(5):59-65.
[6]喻国明,耿晓梦.算法即媒介:算法范式对媒介逻辑的重构[J].编辑之友,2020(7):45-51.
[7]张欣.生成式人工智能的算法治理挑战与治理型监管[J].现代法学,2023,45(3):108-123.
[8]胡泳,年欣.自由与驯化:流量、算法与资本控制下的短视频创作[J].社会科学战线,2022,324(6):144-165+282.
[9]叶妮.虚实共生:数据驱动时代的算法主体性、中介关系与治理逻辑[J].编辑之友,2023,321(5):59-65.
[10]张海柱.算法治理中的算法公共性及其实现[J].自然辩证法通讯,2023,45(6):18-27.
[11]Lepri,B.,Oliver,N.,Letouze,E.,et al.’Fair,Transparent,and A
ccountable Algorithmic Decision-making Processes’[J].Philosophy & Technology,2018,31:611-627.
[12]乌尔里希·贝克.风险社会:新的现代性之路[M].张文杰,何博闻,译.南京:译林出版社,2018:296.
作者简介:苏衡,新闻学博士,上海工程技术大学外国语学院讲师(上海 201620)。
编校:郑 艳