数字社会建设中的算法安全风险及其化解策略
2024-05-11张龙辉
张龙辉
(1.东北师范大学 政法学院,吉林 长春 130117; 2.南开大学 周恩来政府管理学院,天津 300350)
为了适应数字技术逐渐全面融入社会交往和人们日常生活的新趋势,我国“十四五”规划和《“十四五”国家信息化规划》指出,要抢抓信息革命机遇,构筑国家竞争新优势,加快数字社会建设步伐,以促进公共服务和社会运行方式创新,构筑全民畅享的数字生活。2023年2月出台的《数字中国建设整体布局规划》也强调,要构建普惠便捷的数字社会,普及数字生活智能化,推进数字社会治理精准化。数字社会建设能够有效增强社会运行效率,变革社会生产关系,增进社会智能化、数字化水平。数字社会的运行依赖于智能技术及其内在的算法,去中心化、合逻辑性、非道德性等是算法的主要特征,以最为便捷的路径取得最大的算法效益是其本质逻辑。但受算法模型不完备、算法运行社会场景变化等因素影响,在数字社会建设过程中不可避免地会遭遇算法安全问题。算法安全是一种伴随算法技术平台化应用而出现的技术安全,是一种新兴的社会安全类型,是我国总体国家安全观的重要组成部分。对算法安全及其产生的社会风险的研究关乎我国数字社会建设质量和水平,影响中国式现代化进程。因此,需要强化对数字社会建设过程中算法安全问题的研究,探讨数字社会运行的底层逻辑,分析数字社会建设过程中存在的算法安全风险,寻求算法安全风险的化解策略。
一、算法安全风险:数字社会建设不可回避的技术风险
随着数字技术的发展,尤其是智能数字技术社会化应用场景的增多,数字技术逐渐全面融入社会交往和人们的日常生活之中,建设数字社会成为我国数字化建设目标。数字社会的建设和运行依赖于人工智能、区块链以及虚拟现实(VR)等算法技术平台,它们的运行离不开完备的算法支撑。算法的平台化应用能够为数字社会运行提供强大算力,增进社会运行的数字化和智能化水平。与此同时,受算法模型完备性、算法内在逻辑等因素影响,数字社会还存在不可避免的算法安全问题。
(一)算法:支撑数字社会运行的底层逻辑
过去的40年是人类社会向数字社会转型的40年,也是数字技术加速向社会扩散的40年。数字技术的扩散将人类带进了数字时代(1)邱泽奇:《数字社会与计算社会学的演进》,《江苏社会科学》2022年第1期。,形成了与工业社会具有本质区别的数字技术社会形态。数字社会是一个以现代数字技术,尤其是智能数字技术为基础的社会系统,人工智能、区块链、云计算以及虚拟现实(VR)等数字技术是推动数字社会运行、影响人们社会交往、促进生产变革的技术基础。元宇宙等虚拟算法空间的建构使现实世界的伦理秩序向算法空间延伸(2)蓝江:《云秩序、物体间性和虚体——数字空间中的伦理秩序奠基》,《道德与文明》2022年第6期。,运用数字技术建造数字化场景,将整个社会规则和社会场景数字化,借助数据赋予现实的人以虚拟的身份(3)Harcourt Bernard E.,Exposed:Desire and Disobedience in the Digital Age,Cambridge:Harvard University Press,2015,p.1.,甚至能够通过算法迭代打造数字生命。这就赋予“人”新的内涵,并拓展了人类活动空间,使人类活动空间由传统的物理空间向数字技术应用场景下的算法空间延伸。因此,数字技术的社会化应用变革了社会生产组织方式,改变了传统的社会关系场域,数字社会的建设沟通了算法世界和物理世界,促进了虚拟算法世界和现实物理世界的融合。借助数字技术载体将原本属于虚拟算法世界的运行规则、技术伦理和数字化秩序映射进现实世界,对现实世界的运行规则、道德伦理和社会秩序产生影响,数字技术成为沟通算法空间和物理空间、算法世界和物理世界的中介(见图1)。
图1 数字技术在数字社会中的桥梁作用示意图
数字技术的社会化应用推动了社会数字革命,实现了算法的平台化应用。算法、数据和算力成为数字革命中重要的社会要素(4)高奇琦:《国家数字能力:数字革命中的国家治理能力建设》,《中国社会科学》2023年第1期。。人工智能、区块链等数字技术都围绕这些要素运行,并对人类社会产生影响。这些数字技术是支撑数字社会建构和运行的技术基础,算法和数据则是智能数字技术的基石(5)张龙辉、肖克、王寒:《人工智能应用下的特大城市边缘城区治理:技术变革、价值隐忧与技术路径》,《电子政务》2020年第9期。。数字技术是数字社会形成的技术载体,是算法的平台化应用。算法是支撑数字技术运行的逻辑基础,也是算力形成的根本所在。算法的平台化应用催生了算法推荐、算法分析、算法决策和算法权力,形成了信息传播新范式,重构了公众认知与生活逻辑,变革了决策模式,提升了决策效率,改变了传统的权力运行逻辑。例如,算法可以借助深度嵌入社会的数字化平台搜集信息和数据,建构社会数据化特征和数据化场景,并据此进行算法决策(6)Berk Richard A.,Kuchibhotla Arun Kumar,Tchetgen Eric Tchetgen,“Fair Risk Algorithms”,Annual Review of Statistics and Its Application,Vol.10,2023,pp.165-187.;算法的精准性和公平性直接关乎算法决策的结果,并与算法平台的普及和嵌入社会的程度息息相关。因此,“算法技术的平台化运用使得算法成为联结社会的基础座架”(7)张涛甫:《算法“失算”与社会的结构性“失能”》,《上海交通大学学报(哲学社会科学版)》2023年第3期。。算法模型及其内在的数理逻辑规定着数字社会的运行规则、数字伦理规范、权力运行逻辑、社会交往关系以及社会结构。它不仅影响社会资源的配置,变革社会生产组织方式,还能够介入政府政治过程,影响社会格局的塑造。算法成为影响数字社会运行的底层逻辑。
算法的平台化应用对社会产生了结构性影响。借助人工智能(包括生成式AI,如ChatGPT)、区块链、元宇宙等技术平台,算法及算法服务逐渐嵌入社会诸多领域,推动了数字经济发展,赋予了算法权力公共性,使其成为一种社会公共权力,并催生了数据、信息等新的社会生产要素。在当代社会生活中,“算法无处不在”(8)刘河庆、梁玉成:《透视算法黑箱:数字平台的算法规制与信息推送异质性》,《社会学研究》2023年第2期。。现实社会的运行和人们的行为越来越多地受到算法及其伦理规则影响:算法推荐、算法决策、算法权力、算法分析极大地改变了社会运行规则,左右了人们的思维和行动逻辑。算法推荐技术的研发催生了信息传播新范式,变革了商业营销模式,在提升信息匹配效率、降低用户信息选择成本、有效满足公众个性化需求的同时(9)吴锋、杨晓萍:《算法推荐背景下用户媒介使用对“回音室”效应的影响研究——兼论媒介素养的调节作用》,《西南民族大学学报(人文社会科学版)》2022年第5期。,使公众基于庞大的数据分析社会运行态势、经济生产趋势等,从而谋求个性化生活服务和针对性商业营销。算法权力的建构则改变了传统的权力运行逻辑,改变了传统的社会主体权力权重(10)张爱军、孙玉寻:《算法权力及其国家能力形塑的主体透视》,《学术月刊》2021年第12期。,打破了传统资本逻辑对公共权力的控制,在权力运行的资本逻辑之外出现了基于算法的数理逻辑,在传统的科层制权力结构之外形成了去中心化的技术权力结构,从而改变了社会权力结构,催生了新的权力主体。
算法对社会生产生活的深度嵌入催生了新的社会经济生产主体,变革了人类社会生产关系。算法及算法服务的普及推动了数字经济发展,智能机器人、智能化生产设备等成为新的经济活动参与者。智能化经济活动主体的出现在一定程度上解放了人类劳动,改变了社会生产关系,社会生产由传统的人的劳动向类人智能机器的劳动拓展,并催生了基于人与智能机器的新的社会生产关系类型。同时,借助数字生产平台能够实现市场要素的一体化,提升市场的全要素生产率,形成数字经济的规模效应(11)Stephanie Arnold,“Drivers and Barriers of Digital Market Integration in East Africa: A Case Study of Rwanda and Tanzania”,Politics and Governance,Vol.10,No.2,2022,pp.106-115.,转变社会经济发展模式。但智能机器人等智能化生产设备的普及衍生了“AI失业问题”,机器取代人成为数字社会中的劳动者,这在减少劳动者劳动时间的同时,也会带来社会经济制度的根本性变革,并引起人们对传统社会剥削制度的反思。元宇宙等虚拟算法空间的建构则拓展了人类社会活动空间,重组了人类社会活动的时空要素,使人类活动空间向时空要素可变的虚拟算法空间延伸,并在这一空间中建构基于算法规则的虚拟社会关系网络,从而推动了人类社会关系网络的重组。且随着算法逐渐成为驱动社会进步和社会运行的重要力量,算法得以借助技术平台重塑个人与社会面貌(12)张敏:《算法治理:21世纪的公共管理现代化与范式变革》,《政治学研究》2022年第4期。,成为支配社会运转的一种潜在权力,并借助深嵌于社会各领域的数字技术平台和算法逻辑重新组织社会。算法的平台化应用以及社会数字化转型对数字技术的依赖还催生了智能精英主义,赋予技术专家强势权力地位(13)刘永谋:《智能治理的哲学反思》,《中国人民大学学报》2022年第3期。。技术精英阶层成为数字社会中的强势阶层,他们凭借对算法资源的掌握实现了对社会治理的技术操控。
(二)算法安全风险:算法平台化应用的负向效应
算法的平台化应用在给社会运行和生产带来变革的同时,也引发了一定的负向效应,使数字社会建设面临风险和挑战。算法平台化应用引发的第一个问题是伦理问题,主要是算法伦理对现实世界的入侵以及算法正义与社会正义的冲突问题。数字社会的伦理问题主要源于算法模型漏洞、网络技术的缺陷以及法律法规不完善等(14)朱银全:《数字社会的伦理问题解析》,《现代情报》2006年第1期。,它主要体现在算法伦理对现实世界的入侵,是算法伦理与人类社会伦理交互作用的结果。算法平台化应用丰富了人类社会伦理内涵和类型,产生了算法伦理等新的技术伦理,推动人类社会伦理由碳基伦理向硅基伦理延伸。算法伦理借助算法技术平台映射进现实世界,进而引发数字社会建设中的数据信息安全伦理风险、劳动伦理侵蚀风险以及人际关系伦理风险等伦理问题(15)田旭明:《数字社会的主要伦理风险及其应对》,《中州学刊》2022年第2期。。而数字社会中存在的全方位、无死角性和非遗忘性的算法监控又改变了传统舆论伦理,使现实社会的舆论伦理发生新的变化。算法平台化应用中的不确定性还会造成歧视、运行不透明等道德问题(16)Kathrin Hartmann,Georg Wenzelburger,“Uncertainty,Risk and the Use of Algorithms in Policy Decisions:A Case Study on Criminal Justice in the USA”,Policy Sciences,Vol.54,2021,pp.269-287.,对数字弱势群体的忽视容易带来新的社会不平等,引发社会公平正义危机。
算法平台化应用引发的第二个问题是权力的来源、形成和运行问题。算法技术平台的广泛应用、智能算法的深度嵌入推动了权力机制的重构,影响了权力的来源,变革了权力的生产。数字化的规则和秩序在一定程度上改写了社会中权力与权利的关系,使国家与社会的控制权之争从传统物理空间拓展到虚拟算法空间(17)周尚君:《数字社会对权力机制的重新构造》,《华东政法大学学报》2021年第5期。,并借助数字技术实现“自我赋权”,进而形成既能够采集政治权力声望,也能够获得巨大经济利益的“第五权力”(18)马克·格雷厄姆、威廉·H.达顿:《另一个地球:互联网+社会》,胡泳等译,北京:电子工业出版社,2015年,第222页。。同时,权力组织的分化与冲突成为数字社会最突出的问题。数字社会的去中心化既促进了政府权力的弥散化,也产生了权力再中心化风险,推动了数字社会权力结构的变化,使数字社会的权力结构呈现权力形态扁平化、权力体系弥散化、权力虚实交叠等特征(19)王勇:《论数字社会的治权结构失衡及其补正》,《学术交流》2021年第6期。,其结果是导致数字社会治理权威失衡。
算法平台化应用引发的第三个问题是隐私权和信息安全的维护问题。算法技术平台的有效运行除去需要尽可能完善的算法模型外,还需要庞大的数据。受此影响,算法技术平台需要一个强大的数据搜集和分析系统,以动态、实时感知社会及个人的数据信息。这在有效提升决策效率和质量的同时,会使人类活动产生的数据被算法技术平台持续不断地记录、存储、分析(20)马修·萨尔加尼克:《计算社会学:数据时代的社会研究》,赵红梅等译,北京:中信出版社,2019年,第5页。,最终导致人类自身的被透明化。同时,算法技术平台能够借助强大的算法建构算法消费者的数据画像,以对其进行精准的信息推送和商业营销(21)Christoph Busch,“Implementing Personalized Law:Personalized Disclosures in Consumer Law and Privacy Law”,The University of Chicago Law Review,Vol.86,No.2,2019,pp.309-331.。一些算法技术平台出于经济利益等因素考量,通过技术手段使算法产品使用者被动地或被默认地成为算法消费者,以搜集用户数据和信息,从而侵犯个人隐私信息。此外,算法技术平台及其对社会及个体的算法监控,使以数字化、智能化为核心的社会数字化进程中的个人隐私受侵犯问题日益突出(22)王俊秀:《数字社会中的隐私重塑——以“人脸识别”为例》,《探索与争鸣》2020年第2期。,并愈益使人处在一个无所不在的监控和完整“事实真相”数据库的自动化社会之中(23)Kim Jin,“Algorithmic Intimacy,Prosthetic Memory,and Gamification in Black Mirror”,Journal of Popular Film and Television,Vol.49,No.2,2021,pp.109-118.,从而催生普遍的隐私焦虑,遭遇数字信任危机,消解了公众的安全感,还存在因数字化记忆兴起引发的数据流通与数据安全兼容程度低等困境(24)张媛媛:《论数字社会的个人隐私数据保护——基于技术向善的价值导向》,《中国特色社会主义研究》2022年第1期。。
整体而言,作为影响数字社会运行的底层逻辑,算法是人工智能、区块链、大数据等数字化技术运行的基础,这些数字技术的社会化应用增加了算法的平台化应用场景。数字技术运行过程是否顺畅,数字技术运行结果是否合理,都与算法模型的完备性和算法运行过程的合理性有着密切关系。所以说,数字社会中存在的个体隐私保护困境、算法伦理问题、算法权力扩张风险等,表面上看是由数字技术的扩散和社会化应用引起的,但在本质上都是算法及其运行的结果,是算法平台化应用过程中因算法缺陷、算法遭受外部攻击以及算法的数理逻辑运行而产生的技术风险,是算法在数字社会建设过程中引发的算法安全问题,是数字社会建设过程中不可回避的技术风险。
二、数字社会算法安全风险的类型呈现
算法安全风险主要指因算法模型自身缺陷或算法运行所引发的社会问题,是因算法平台化应用以及对社会深度嵌入所带来的安全风险。算法安全风险在本质上是算法世界的算法缺陷及其运行在现实世界的映射,是算法世界的算法规则与现实世界的人类社会规则相互融合、彼此影响的结果。我国于2021年9月印发的《关于加强互联网信息服务算法综合治理的指导意见》明确提出,在算法应用过程中存在意识形态、社会公平公正、网民合法权益维护、道德伦理等安全风险以及因监管模式落后导致的算法安全风险。引发算法安全风险的原因主要有两个:一是因算法模型不健全及算法遭受外部攻击引发的风险;二是在算法运行过程中因受数理逻辑和外部数据影响而导致的算法失灵引发的风险(见表1)。这两个原因不是彼此独立的,而是在大多时候共同造成算法安全风险。由此而言,算法安全的实现既要使算法免受外部攻击以保障其可靠运行(25)杨蓉:《从信息安全、数据安全到算法安全——总体国家安全观视角下的网络法律治理》,《法学评论》2021年第1期。,还要避免算法对现实世界的入侵和技术支配。
表1 数字社会建设中的算法安全风险
(一)数字社会建设中的原生性算法安全风险
有限、确定和有效是算法的三大特点,这说明一种算法并不能解决所有问题,而是需要对其进行不断的更新、优化(26)胡键:《算法治理及其伦理》,《行政论坛》2021年第4期。,以解决算法运行过程中不断出现的新问题,使其适应新的算法运行场景。算法有限性对算法运行和算法结果的影响会引发一系列算法安全风险,这一安全风险源于算法模型的缺陷或算法模型更新的滞后。受算法有限性特征制约,算法的内在逻辑难以适应运行的应用场景,或者算法模型的不完备招致外部算法应用主体的攻击,最终影响算法运行的有效性和结果的确定性,引发算法安全风险。这一类算法安全风险是伴随算法的研发而出现的,是一种原生性的算法安全风险。
算法是影响数字社会运行的底层逻辑,数字社会中的技术权力、技术伦理以及影响社会运行的算法推荐、算法分析和算法决策等都离不开算法的基础性支撑。由此而言,如果算法模型不完备、算法存在明显的技术伦理倾向,尤其是算法功利主义伦理倾向,就会违背其技术向善的初衷,导致算法的研发不是基于技术普惠性的社会向善目标,而是将之视为谋取利益的工具。同时,算法模型及其源代码的缺陷还会导致算法失灵、算法运行过程受阻或算法运行结果存在显著的价值导向或伦理问题,其结果就是算法及算法技术平台不仅没有解决想要解决的现实问题,反而因算法模型的缺陷引发新的技术风险和社会安全问题。如2022年1月22日,上海地铁15号线祁安路站内一名乘客被地铁屏蔽门夹住,而拥有全自动驾驶系统的地铁在屏蔽门关闭后无视乘客被夹住的事实,仍正常启动行驶,最终导致该乘客不治身亡(27)参见《上海女子被地铁屏蔽门夹住身亡》,《新晚报》2022年1月26日,第9版。。造成这一结果的一个重要原因就是系统对智能算法的机械执行,自动驾驶系统只遵从算法的逻辑及指令,而无视外部运行环境的变化。因此,算法模型的不完备或无视客观社会环境而对算法逻辑的机械执行会导致算法及其载体在运行过程中出现有悖于算法设计初衷的问题,严重的甚至会导致技术系统瘫痪,引发系统性、全局性技术灾难。
由算法模型不完备引发的第二个算法安全风险是外部算法主体对算法的攻击问题。在数字社会中,算法的运行环境并不是一个理想化的实验室,而是一个复杂的社会系统,在这一复杂的社会系统中不只存在一个算法模型。数字社会的建设是多个算法彼此互动、共同作用的结果,一个算法在运行过程中可能会受到其他算法的干扰或者攻击,从而影响算法运行的精准性。因此,算法存在的模型漏洞或逻辑缺陷会使其容易招致其他算法使用主体的攻击,从而放大算法模型缺陷,甚至操控算法的运行,导致算法安全问题。如2017年5月12日在英国、美国、中国和俄罗斯等全球多个国家爆发的WannaCry勒索病毒事件,就是计算机黑客对计算机系统的攻击造成的,它直接导致多个国家的政府部门、教育、企业、公共交通、科研等计算机系统受到攻击,我国多个城市的计算机网络也受到多次攻击(28)参见中共中央网络安全和信息化委员会办公室、中华人民共和国国家互联网信息办公室:《构建端到端联动机制,敏捷应对国家级网络威胁》,2017年6月2日,http://www.cac.gov.cn/2017-06/02/c_1121073387.htm,2023年7月1日。,从而引发了广泛的计算机安全风险。
(二)数字社会建设中的衍生性算法安全风险
除去原生性算法安全风险外,算法在运行过程中还会因内在数理逻辑影响、运行社会场景的变化、算法伦理对物理世界的入侵等问题引发衍生性的算法安全风险,这是算法运行产生的衍生结果,是算法平台化应用带来的负面效应。这一安全风险既可能是算法缺陷在现实世界的放大,也可能是因为算法本身并没有问题,但是在运行过程中受到外部数据的结构性影响导致算法运行结果出现偏差,或者算法的运行对社会伦理、权力结构以及公众权利产生冲击,影响权力正常运行、侵犯公众合法权利实现,进而给社会运行、人们生活带来安全风险。
数字技术的社会化应用使基于算法逻辑的算法权力具备了公共性,进而成为一种社会权力(29)David Beer,“The Social Power of Algorithms”,Information Communication &Society,Vol.20,No.1,2017,pp.1-13.,但算法权力的去中心化特征使原本掌握在政府手中的公共权力向社会扩散。一些掌握算法和数据的科技公司、数字技术平台以及技术精英分享了原本集中于政府的公共权力。这使政府不再是社会中唯一的权力主体,政府的公共权力中心角色受到冲击,从而引发公共权力去中心化危机。同时,算法权力对传统公共权力的冲击以及对社会的深度嵌入会不断强化社会、政府以及公众对算法的依赖。基于算法的分析、决策成为影响个体决策、政府行政和社会运行的重要依据,算法成为一种影响个体行为选择、政府决策的隐性权力。对算法及算法平台的依赖使算法权力对传统公共权力的制约和影响逐渐加深,算法及算法平台对现实世界的嵌入逐渐深入,从而强化了算法对整个现实世界的监控。人工智能、区块链等算法技术平台凭借算法建构外部世界的数据特征和数字化秩序,制约国家的治理、社会的运行和人们的生活,诱发技术专制风险和数据独裁隐忧,并催生数字社会建设中的“技术利维坦”现象。
同时,合逻辑性而非合道德性是算法的本质特征,它的运行只遵循既定的数理逻辑,而无视人类社会的道德伦理。在算法看来,逻辑即正义,它追求的是既定逻辑下运行效果的最优化,至于因算法运行给社会带来何种结果则不在算法的考量范围之内,并基于此形成了算法世界的伦理,即算法伦理。算法伦理是算法世界的一种价值排序规则,其本质是“最大期望即正义”(30)柳亦博:《“湖心岛”隐喻:人工智能时代的算法伦理入侵》,《行政论坛》2019年第6期。。这一逻辑类似于康德的目的论伦理和边沁、密尔的功利主义伦理,而非亚里士多德式的道德论伦理。随着算法世界和物理世界融合的加深,算法伦理逐渐影响现实社会的运行和伦理准则,甚至在一定程度上将算法伦理映射进现实世界之中,从而导致算法伦理入侵问题。与此同时,数字社会的运行需要庞大的数据,算法技术平台对物理世界监控的范围越广,获得的数据越精准,越能够建构接近物理世界真相的数据特征和数字化秩序,基于此做出的算法分析和算法决策越能够为人类活动和社会运行提供支持。但算法技术平台对物理世界的监控具有全方位、非遗忘性等特征,这一监控突破了时间和空间限制,以此获得社会及公众实时性、动态化的数据信息,以支撑数字社会的运行。算法技术平台对物理世界的监控导致“数字全景敞视主义”(31)“全景敞视主义”是福柯在其《规训与惩罚》一书中提出的观点,其灵感来源于边沁设计的“全景敞视监狱”,即“圆形监狱”。在这个监狱中,所有囚室都对着中心瞭望塔,身处瞭望塔的人能够监视囚室中犯人的一举一动,而犯人则看不到瞭望塔中的警卫。福柯以此来描绘社会中无处不在的监控。随着数字技术的社会化应用,算法对社会及个人隐私信息的攫取和窥探日益严重,算法监控社会成为数字社会中新的“环形监狱”。“数字全景敞视主义”即以福柯的“全景敞视主义”为蓝本,以表达在数字社会中算法对整个社会的监控和人们隐私的窥探。的数字社会生态,公众所有的活动和信息都在算法的监控和计算之下。这就进一步压缩了公众隐私空间,模糊了公共数据和私人信息之间的边界。
此外,智能算法还会凭借对社会及个体活动信息的搜集,将其转化为可计算的数据,进而建构用户数据特征和数据画像,向其推送符合其兴趣爱好的信息。算法的精准推荐会使数字技术在进行信息分发过程中自动过滤掉多元的、不符合用户信息爱好的信息,从而窄化公众获取信息的渠道和类型,引发“过滤气泡效应”和“回音壁效应”,逐渐将公众置于“信息茧房”之中,从而固化公众既有价值和偏见,加剧不同群体的情感区隔和价值分化(32)张志安、汤敏:《论算法推荐对主流意识形态传播的影响》,《社会科学战线》2018年第10期。,导致公众认知的冲突。同时,算法的平台化应用和全球性算法技术平台的建构推动了意识形态、社会思潮和价值观的跨境传播。借助智能传播技术,一种意识形态和思潮能够快速跨越国家边界向其他国家蔓延。加之智能传播技术的发展推动了信息生产的智能化和大众化,原本单纯的信息传播受众逐渐成为兼具信息生产者和信息消费者双重角色的智能传播参与者,从而冲击了政府对信息传播的控制权和社会舆论的主导权。这在一定程度上会导致社会思潮多元,引发社会思想和价值观混乱,而深度伪造技术的发展又会加剧虚假信息、误导信息在社会中的传播和扩散,加剧意识形态安全风险。
三、数字社会建设中算法安全风险造成的后果
数字社会建设中的算法安全风险是数字技术嵌入社会、推动社会结构变革和社会运行模式变迁所引发的负向效应。它既会给算法本身的运行带来一系列不利后果,也会削弱政府治理权威,催生算法功利主义危机,引发普遍的个人隐私安全问题。而算法的精准推荐和意识形态的跨境传播还会导致意识形态的冲突和对立。
(一)招致逆向算法攻击
算法模型的效力是有限的,随着算法运行环境,尤其是算法运行社会环境的变化,原本在实验室环境中长期有效的算法模型可能在新的社会环境中显得过时或不适用,从而使原本完备的算法模型出现漏洞,严重的还会导致原本行之有效的算法规则出现相反的运行结果。因此,算法漏洞的存在不完全是算法源代码在研发之初出现的问题,也可能是算法运行社会环境的变化使算法模型不再适用。它可能在实验室环境下的运行一直有效,但在不断变化的社会环境下却漏洞百出。加之在数字社会建设进程不断深入的今天,影响社会运行和人们生活的算法模型不止一个,而是存在多个。这些算法模型可能存在同一个系统之中,也可能存在不同的系统中。这些系统彼此融合、互动、冲突,共同作用于社会结构建构、人类伦理变迁、人们生活交往之中,共同影响数字社会的运行。在此过程中,如果一个算法存在漏洞或者算法模型滞后于社会运行环境的现实样态,其运行结果就会偏离既定研发目标,严重的还会使算法运行受到其他算法模型的干扰或控制,招致逆向的算法攻击。
算法模型遭受的干扰、控制或逆向攻击既有人为的因素,也包括算法世界的主动行为。其人为因素体现在社会中的技术精英借助算法对其他算法模型及其支撑的算法技术平台进行主动攻击,如黑客对网络的攻击、人为制造的电脑病毒对金融系统的攻击等。而算法世界的主动行为则是不同算法模型间存在逻辑冲突或算法优先级别差异导致的结果。当两个存在冲突的算法模型相遇时,它们只会按照自身的逻辑运行下去。在此过程中,算法会去攻击与自身逻辑相悖的其他算法模型,其结果可能是不同算法模型的融合,也可能是一个算法压制了另一个算法,更可能会导致算法的崩溃。此外,在算法研发过程中,算法研发人员可能会设计不同算法模型的运行级别,当次级算法模型遇到高级算法模型时,则优先运行高等级算法模型,次级算法模型只在特定环境或条件下才能够被触发。从某种意义上而言,这种情形中也存在高等级算法对次级算法的压制和攻击问题。
(二)削弱政府治理权威
算法的平台化应用建构了算法权力。算法权力具有去中心化特征,它不像政府公共权力具有一个明确的权威核心,而是呈现弥散性。只要掌握了算法及其数字技术,人人都可成为算法权力的所有者(33)谭九生、范晓韵:《算法权力的社会负效应及其行政规制》,《中国行政管理》2021年第10期。,并主导算法权力的运行。因此,算法权力的建构推动了公共权力的弥散化:政府不再是掌握公共权力的唯一主体,掌握算法资源的大众、技术精英和科技公司也可以分享社会公共权力。更为重要的是,随着算法在社会运行中主导权的日益增强,算法权力在一些领域的资源配置、规则制定、社会关系网络建构中逐渐占据了主导地位。“技术利维坦”的形成和技术专制的出现更使得算法权力在一些领域中超越政府权力,甚至主导政府权力运行。算法权力的普及瓦解了政府在社会运行和规则制定中的权威。
同时,算法权力之所以成为一种公共权力就在于其内在的公共性,但在算法建构和运行过程中也存在算法研发者和算法使用者的私人利益诉求。他们凭借掌握的算法资源影响物理世界中的公共权力运行,推动社会权力结构变迁、社会权力分配和社会控制权调整。可以说,智能算法与私人资本、技术精英的结合强化了新兴算法权力对传统公共权力的冲击,增强了社会私人资本在社会公共权力建构和运行中的话语权,而这会冲击政府治理权威。此外,智能算法在现实社会之外建构了一个虚拟社会,形成了基于算法及算法伦理的算法世界,使人们的活动空间由现实的物理空间向虚拟的算法空间延伸。人类社会逐渐呈现现实与虚拟融合、交叠的特征。活动空间的延伸重塑了人们的社会关系网络,使人们的社会交往和日常生活突破了物理空间的束缚。算法世界是一个类似于“无政府状态”的虚拟世界,它既没有物理世界中严密的政府组织体系,也没有类似于诺奇克口中的在自然状态下具有支配地位的保护性社团的存在,而是一个去中心化的虚拟社会。政府只能通过规范算法研发活动、约束算法技术服务等外在行为来约束算法世界的伦理规则和活动开展,从而使人们在算法世界的活动较少受到政府的直接控制。
(三)引发社会运行风险
算法平台社会化应用场景的增多使支撑社会运行的基础由传统的硬件资源向软件资源扩展。科技研发系统、智能运行平台等成为支撑社会运行的新的数字资源,并对城市建筑、公共设施、政治制度以及市场规则等传统资源的生成和运行产生革命性影响。算法的平台化应用在凸显对数字社会运行基础性支撑作用的同时,也强化了算法安全风险对社会运行的冲击,引发一定的社会运行风险。如算法空间的建构在极大拓展人类活动空间的同时,也引发了算法空间对物理空间的“倒灌”:算法空间的规则、伦理、秩序不断外溢至物理空间,影响物理空间的规则变迁、伦理重塑和秩序变动,出现了算法伦理对物理世界的入侵。算法伦理作为一种技术伦理,寻求算法逻辑的自洽和算法正义的实现,其运行只注重逻辑的自洽而忽视因算法运行导致的现实社会效果和社会正义实现,从而导致算法正义与社会正义的冲突、算法伦理和人类道德伦理的冲突。在这一伦理准则影响下,算法可能会将社会作为算法验证的实验室,将人类社会实验室化,无视算法运行过程中人的获得感、幸福感和安全感,忽视对人的尊严、个体自由以及人类整体福祉的维护和实现。
此外,“数字全景敞视主义”成为对数字社会中技术窥探社会信息和个体隐私的生动描绘。它旨在表达通过对社会运行数据和个体隐私信息的不断挖掘、探索、窥探,提升算法决策的精准度和适用性,从而导致算法平台化应用中的算法监控问题。与现实世界的监控不同,算法监控借助算法技术平台打造一个能够全时段、全方位监控全社会的“圆形监狱”,以尽可能将个体的隐私信息和社会的运行数据转化为可获得经济效益、政治效益或治理效能的算法资源,通过实现资本与技术的合谋,打造“经济—技术相互协调的新型极权主义”,并推动算法监控由虚拟的算法世界向现实的物理世界延伸(34)李宏伟、郝喜:《算法监控的“行为剩余”资本谋划及其社会治理》,《河南师范大学学报(哲学社会科学版)》2022年第2期。。算法监控的存在、数字全景敞视主义的盛行使算法技术平台掌握了大量个体隐私信息,冲击着个体隐私空间,模糊了个体隐私和社会公共信息边界。传统社会中属于个体隐私范畴的数据和信息,如个人的行踪、消费浏览记录在数字社会中可能成为社会公共数据,服务于数字社会建设和公共安全维护,也可能成为商业化算法技术平台谋求经济利益的资源。这就会导致个体隐私空间不断收缩,甚至坍塌,引发普遍的隐私焦虑,催生一系列社会隐私安全问题。
(四)导致国家安全危机
随着算法平台化应用的普及,在社会的数字化转型中形成了数字边疆、智能传播以及数字国防等新的领域,这些领域的算法安全风险会诱发新的国家安全危机,使我国社会的数字化转型面临新的安全格局。如数字技术的社会化应用在传统的国家边疆之外形成了新的数字边疆,数字边疆安全对于维护社会数据安全、信息安全具有重要意义。但算法开源的滞后、算法模型的不完备以及算法运行环境的变化会影响数字边疆建构,尤其是算法开源的滞后会使我国社会的数字化转型失去竞争优势。一些西方国家凭借先发优势,借助算法冲击我国数字边疆,给我国信息安全、数据安全造成威胁,在一定程度上影响我国的经济安全、基因安全和网络安全。同时,算法对智能武器的研发和应用也至关重要。智能算法在国防领域的应用催生了智能化国防装备,能够有效增强维护国家安全的能力。而算法开源的滞后、算法先进性不足则会导致智能国防装备的代差问题。一些国家将算法武器化,借算法代差危及我国国防安全。
此外,算法安全风险还会引发意识形态安全危机。依托数字传播技术,意识形态跨境传播的速度得到前所未有的提升,跨境传播渠道更加丰富多元,传播样态也发生了颠覆性变革。算法空间的意识形态塑造和传播成为数字社会意识形态建设的重要内容。信息传播模式的变革冲击了传统的信息传播结构和传播模式,削弱了政府对意识形态传播的主导权和控制权,侵蚀着主流价值观和主流意识形态的传播阵地和作用空间,其结果是导致社会中意识形态、价值观的多元和冲突。同时,算法推荐技术的发展推动了信息分发方式的变革,实现了信息的精准推送。这一信息分发模式会导致“信息茧房效应”“过滤气泡效应”等,促成网络集群的聚合。与此同时,“算法的个性化定制也为组织化政治操纵提供便利渠道”(35)全燕:《西方社交网络的政治极化与算法传播的角色反思》,《社会科学》2018年第10期。,推动意见孤岛的形成,导致危害性信息的扩散,甚至能够借助算法控制社会舆论(36)夏梦颖:《算法推荐可能引致的公共风险及综合治理路径》,《天府新论》2022年第2期。,从而造成社会思想和意识形态的混乱,不利于社会冲突的弥合和意识形态冲突的化解,引发国家意识形态安全风险。
四、数字社会建设中算法安全风险的化解策略
数字社会建设中的算法安全风险给算法运行、社会结构调整、公共权力运行、意识形态塑造以及公民权利实现等带来严重冲击,一些算法安全风险甚至可能会危及国家安全。这就需要我们寻求化解数字社会算法安全风险的策略,以有效提升数字社会建设质量和水平,推动中国式现代化的实现。
(一)持续完善算法模型
算法漏洞、算法模型的滞后以及其他算法使用主体的攻击是引发算法安全风险的重要原因。算法漏洞主要体现在两个层面,即代码层面和逻辑层面(37)贾珍珍、刘杨钺:《总体国家安全观视域下的算法安全与治理》,《理论与改革》2021年第2期。。其中,代码层面的漏洞指的是用于支撑算法运行的源代码存在漏洞、缺失或恶意植入其他代码,它与算法运行的逻辑关联性不大;而逻辑层面的漏洞则指的是算法数理逻辑体系的不完备。因此,在数字社会建设过程中,破解算法安全风险需要首先从算法模型本身入手,既要不断加强对算法模型的研发,消除算法漏洞,使其适应不断变化的社会环境,以防止算法模型与运行社会环境脱节;还要持续进行算法开源,保持算法的先进性,有效应对其他国家借助算法研发的先发优势对我国社会数字化转型的冲击和压制,抵制西方国家数字霸权。
基于此,在算法模型编制时既要着眼于算法逻辑体系的完备,还需要重视算法源代码的完整,防止因代码缺失或逻辑体系缺陷引发的算法漏洞,尽可能确保算法模型的完备。在算法运行过程中,要动态看待算法运行的社会环境,摆脱算法研发与实验环境的依赖,将算法的研发和运行置于不断变化的社会环境之中,明晰社会环境中算法主体的多元性和潜在排斥性,使算法的研发和模型的建构以物理世界的社会现实环境为背景和作用空间,以不断强化算法与其所运行的社会环境的契合度,有效应对其他算法主体的潜在攻击。同时,要根据算法运行情况不断完善算法,克服算法有限性弊端,使算法模型不断适应变化着的社会环境,防止原本有效的算法模型因与社会环境脱节而出现算法漏洞,引发算法安全风险。如我国《互联网信息服务深度合成管理规定》明确强调要对深度合成服务进行算法机制机理审核和科技伦理审查,定期审核、验证生成合成类算法机制机理,以确保算法运行安全。此外,还要加强算法开源,强化对算法资源的开发,打造算法代差优势。通过算法开源不断研发更为先进的算法,推动算法的升级换代,缩小、赶超与具有算法先发优势国家之间的差距,抢抓数字化、信息化新阶段的算法竞争优势。在算法开源的同时,要强化算法的现实转化,研发基于先进算法的数字产品,将算法充分应用于社会运行的各个方面,在提升算法安全性的同时,有效增进社会的数字化质量,确保社会运行的安全。
(二)强化政府数字权威
基于算法平台化应用形成的算法权力具有明显的去中心化特征。算法权力的建构使原本由政府垄断的公共权力向社会扩散,而私人资本与算法技术平台的结合更是强化了私人资本、算法研发者、技术精英以及科技公司对公共权力的分享。他们凭借掌握的算法资本和技术资源得以拥有影响政治议程进程的权力,从而使政府的社会治理权威不断受到算法权力冲击,政府的公共权力权威中心角色受到削弱。因此,要想克服因算法权力引发的公共权力去中心化危机,需要重塑政府在数字社会中的数字权威,强化政府对数字技术以及算法资源的监管,将关键算法纳入政府控制范围之内,防止私人资本、技术精英以及国外主体借助算法重构社会规则、控制社会运行,冲击政府公共权力在社会治理中的权威。并通过这一举措使算法权力成为提升政府治理效能、增进政府职能履行能力、推动中国式现代化进程的助力,而非限制政府权力行使和阻碍政府职能履行的阻力。如我国《关于加强互联网信息服务算法综合治理的指导意见》提出了一个由政府、企业等共同参与的多位一体算法监管体系,强调政府在算法安全治理中的监管职责,打造一个政府监管、企业履责、行业自律、社会监督的算法安全多元共治格局。
同时,还需要克服因算法扩散以及对算法技术平台过度依赖引发的技术专制隐忧,杜绝技术控制社会,避免技术权力垄断现代性现象的发生(38)袁超:《“技术利维坦”的傲慢与偏见——以“社会化技术权力”为中心的讨论》,《人文杂志》2021年第8期。,以防止出现技术控制下的“技术利维坦”和“数字独裁”难题。算法权力有强大算力的支撑,虽然它与资本权力存在的运行逻辑不尽相同,表现的权力形态也有所差异,但通过实现算法权力和资本权力的互嵌,强化权力运行中数理逻辑和资本逻辑的融合,既借助算法权力提升资本权力的运行效率,也依托资本权力限制算法权力的过度扩张。这样能够在消解算法权力对政府社会治理权威冲击的同时,巩固、提升政府社会治理效能,无疑也是克服数字社会建设过程中算法权力削弱政府治理权威弊端的重要途径。
(三)提升算法人文关怀
算法伦理入侵及由算法伦理引发的功利主义危机问题是数字社会中的一个重要问题。算法的合逻辑性而非合道德性特征使其追求的是数理逻辑主导下的运行路径最优,而无视人类社会道德伦理的约束。在这一伦理影响下,算法为了增强运行的准确性和分析结果的科学性,还会尽可能监控个体和社会的运行,窥探个体和社会的隐私,最终引发普遍的个体隐私焦虑。因此,提升数字社会建设质量和水平,消解算法安全风险给数字社会运行带来的技术风险,需要提升算法的人文关怀,消解算法伦理入侵给人类社会运行引发的诸多伦理问题。这需要强化算法模型中的人类道德伦理,在算法逻辑体系建构和源代码编制过程中赋予算法以人类道德伦理基石,以克服算法的工具理性缺陷,提升价值理性在算法运行中的主导性作用,防止算法在运行过程中出现结构性的伦理缺陷。如我国数据安全法明确规定,研发数据新技术、开展数据处理活动应当以增进人民福祉为目的,对数据新技术的开发和运用要符合社会公德和伦理。
研发算法的目的在于提升社会运行效率和质量,改善人类社会的生产生活环境,拓展人类活动空间,进而实现人的价值,促进人的自由而全面发展。这需要在研发算法时从人的视角和人的立场出发,强化算法研发和使用过程中“人的在场”效应,将“以人为本”作为算法研发和使用的底线,使算法成为维护人的尊严、保护个体自由以及增进人类整体福祉的工具(39)陈昌凤、吕宇翔:《算法伦理研究:视角、框架和原则》,《内蒙古社会科学》2022年第3期。,而不是单纯追求算法运行效率和精准度的实验场。还需要明确个人隐私与社会公共信息的边界,厘清个人隐私与社会公共信息交叉领域的信息属性归属,杜绝为了追求经济利益而将属于私人领域的数据信息公共化,以防止算法平台化应用场景扩散下对个体隐私空间的进一步压缩,强化对公民隐私的保护,规制“全景式数字监狱”对公民隐私的窥探,防止商业化算法使用主体借助算法压榨社会和个体的“数据剩余价值”。同时,还要促进技术向善。这里所说的“善”,是人类社会语境中的道德善,而非算法场景下的算法伦理善,将算法伦理逻辑下的算法正义置于人类道德伦理逻辑下的社会正义的约束之下,实现算法正义与社会正义的有机融合,以有效防止算法功利主义对现实世界的影响,规制算法世界对物理世界的伦理侵蚀。
(四)加强算法运行制度规制
当前,算法的资源属性日益凸显,算法对意识形态安全、数据安全、信息安全以及经济安全的影响也越来越大,算法推荐、算法监控、个体隐私空间坍塌等成为算法引发社会风险的重要表现。这需要强化对算法运行的监管,建构完善的算法安全监管法律法规体系和综合治理机制,防止因算法失灵导致的意识形态风险和政治合法性危机。为了规范数据处理活动,保障数据安全,保护个人、组织的合法权益,我国于2021年下半年密集出台了数据安全法、个人信息保护法、《关于加强互联网信息服务算法综合治理的指导意见》,并就《网络数据安全管理条例》的制定广泛征求社会意见,以规范算法平台化应用对个体数据和社会信息的搜集、处理活动,保护公民的数据安全和隐私,促进算法的有序应用,“建立健全算法安全治理机制,构建完善算法安全监管体系”(40)参见中共中央网络安全和信息化委员会办公室、中华人民共和国国家互联网信息办公室:《关于印发〈关于加强互联网信息服务算法综合治理的指导意见〉的通知》,2021年9月29日,网址:http://www.cac.gov.cn/2021-09/29/c_1634507915623047.htm,2023年6月25日。。同时,规制算法黑箱的“暗箱”操作,促进算法运行透明化,防止因算法黑箱造成的程序不透明、决策过程不公开等而加剧公众对政府的不信任,有效消解由此引发的政治合法性危机。
在意识形态安全方面,克服数字社会建设过程中的算法推荐安全问题,加强对算法推荐的监管,防止算法资本化运作、智能化传播对信息传播和社会经济活动的控制,规范算法推荐的经济、社会行为。这需要克服算法推荐引发的“过滤气泡效应”和“信息茧房效应”弊端,增加公众获得多样化信息的机会(41)刘河庆、梁玉成:《透视算法黑箱:数字平台的算法规制与信息推送异质性》,《社会学研究》2023年第2期。,并弱化资本对算法的控制,防止社会资本和智能传播平台借助算法推荐技术控制社会舆论,侵蚀社会主流意识形态的传播阵地和作用空间。还需要正视算法技术平台,尤其是全球性算法技术平台建构对信息传播带来的变革和风险,化解意识形态跨境传播引发的意识形态多元化危机,规制民粹主义、极端民族主义、宗教极端思想等意识形态和价值观跨境传播对主流意识形态的冲击,削弱意识形态跨境传播引发的价值认知多元化弊端,进而借助智能算法传播平台整合社会意识形态分歧。如2021年12月,我国出台了《互联网信息服务算法推荐管理规定》,明确提出规范算法推荐服务,优化算法推荐服务机制,对于具有舆论属性或社会动员能力的算法推荐服务提供者应按照规定进行必要的安全评估,以防止其从事危害国家安全、扰乱经济秩序的行为。
结 论
随着算法平台化应用场景的增多,算法安全已经成为我国国家安全的重要组成部分。维护算法安全、规制算法安全风险对于统筹维护和塑造国家安全、增强维护国家安全能力具有重要意义。因此,需要探索数字社会建设中算法安全风险的化解策略,不断提升数字社会质量,确保国家安全和社会稳定。需要指出的是,算法的平台化应用增进了数字社会与自然社会的互嵌和融合,拓宽了“人类社会”这一概念的内涵和外延。虚拟算法社会成为人类社会的组成部分,它借助算法技术平台将算法世界的伦理、运行逻辑以及结构形态映射进物理世界之中,并影响物理世界的社会结构、运行规则和道德伦理。在我国,数字社会的建设是一项系统性工程,由社会自发地向数字社会过渡显然不符合我国的社会建设实践。因此,数字社会概念的提出、数字社会外延的界定、数字社会建设目标的确定以及数字社会建设进程的开展都应由党和政府来主导。但数字社会作为技术社会形态的一种,它的建设和演进也有自身的特点。从这个角度而言,我国的数字社会建设是政府政策推动和技术社会形态自我演进共同作用的结果,而政府应当在此过程中起着主导作用。