算法治理的伦理风险及其纾解
2023-04-07王海建
王海建
(华东师范大学当代中国政治发展与战略研究所,上海 200241)
算法治理是随着大数据、人工智能、元宇宙等数字技术发展应用而生成的一种新型社会治理方式。在社会治理过程中,算法在治理数据收集、治理资源分配、治理问题识别、治理方案制定等方面起着重要的作用,被认为是社会治理领域的一种权力, “在一个媒体和代码无处不在的社会,权力越来越存在于算法之中。”[1]算法在治理过程中的权力属性不仅体现为算法在当下社会治理中具有不可替代的作用,更重要的是算法通过社会治理对人们的交往方式、社会结构、人际关系产生深刻影响,进而推动社会形态的变迁。在这一进程中,算法深刻地改变着人类社会,也给人类社会带来了新的伦理问题。即马克思所说的 “每一种事物好像都包含有自己的反面。……技术的胜利,似乎是以道德的败坏为代价换来的”[2](P776)。 因而,我们在享受算法治理带来的便利的同时,必须高度重视其伦理风险,提早进行积极应对,以发挥算法治理的最优功能,更充分地为人类服务。
一、算法治理的功能
算法是包括输入、指令、输出等内容的一个计算过程。为避免日常用语中的歧义,算法常用伪代码、流程图、编程语言等表示一定的意义,以提高输出结果的准确度。算法在社会治理中发挥着重要功能。有学者提出,算法治理可以 “以客观性数据掩盖主观性偏见”[3]。还有学者指出,算法治理的核心在于 “确立并遵循数字时代的正义原则”[4]。西方学者认为算法治理是 “人的控制程度以及赋能程度逐渐降低的治理过程”[5]。总的看来,算法治理是在海量数据、强大算力的支撑下,通过算法技术对社会治理中的疑难复杂问题进行精准识别、风险预判、对策制定,进而为社会治理主体提供治理方案、为治理对象提供精准服务的治理过程。可以说,算法治理是社会治理智能化、现代化发展的重要方向之一,算法治理的功能主要体现在3个方面。
(一)治理议题的精准识别
议题识别是开展社会治理的前提。从某种程度上可以说,精准识别治理议题有时候甚至比解决议题更加困难。而算法在社会治理中的应用,可以有效破解这一难题。社会治理是为了实现一定的治理目标,或者是为了满足特定人群的需求。在这一过程中,治理主体的时间精力、治理资源、治理技术都是有限的,以最快的速度精准识别需要治理的议题,并根据议题进行治理资源调配和治理技术运用,是能否有效开展治理的关键。在传统的社会治理中,识别治理议题一般有两种途径。一种是主动识别。治理主体通过走访群众、召开座谈会、听取汇报等行为过程,对治理议题进行识别。另一种是被动识别。人民群众通过市民热线、写信、投票等渠道,把需求提出来。从治理效果、精力成本上看,无论是主动识别还是被动识别治理议题,治理主体都需要花费大量的人力物力财力成本,有时候还会因为 “沉默的大多数” 而无法准确识别治理需求。显然,传统治理模式下,治理议题被精准识别的难度较大,从而会造成治理效果不佳。
算法治理能够助力治理主体快速精准识别治理议题。算法治理运用的搜索算法能够根据预先设定的关键词、敏感词,对治理对象的数据信息进行实时抓取处理,从中抽取关键词汇、高频词汇,并进一步对这些词汇包含的信息进行分析,从而精准识别出治理对象最关注的议题。如在扶贫工作中,精准识别贫困户是一项极其艰难的工作。村干部往往依据 “关系”[6]而非家庭收入决定哪一户符合贫困户的标准,这使得很多真正的贫困户难以享受到国家的扶贫政策并实现脱贫。国家实施算法精准扶贫后,运用搜索算法,不需要依靠村干部,只需根据村民的农田庄稼长势情况、家庭消费情况、农业之外的收入状况等关键词汇,就可以通过数据库精准地识别出哪些农户是真正的贫困户。一般来说,治理议题的精准识别要遵循以下程序:首先是算法对治理对象需求的精准感知。治理主体通过 “一网通办” “智慧城市” 等平台,可以收集到一定区域内居民的多维度、海量、真实性高的数据信息,这些信息是精准感知的基础。其次是算法对治理对象需求的精准挖掘。算法可以对上述数据进行综合分析,构建知识图谱、人物画像等,从中凝炼分析出治理对象的真实需求。最后是算法对治理对象需求的精准识别。即运用搜索算法、交叉验证算法、匹配算法等,根据治理对象关注的热点词汇、关键词汇,对感知和挖掘的需求信息进行过滤、整合,最终形成符合真实情况的治理议题。
(二)社会矛盾的精准预判
算法治理的另一项重要功能是对社会矛盾的精准预判。习近平总书记指出,当代中国 “改革发展稳定任务之重、矛盾风险挑战之多、治国理政考验之大前所未有”[7]。面对各种不确定的矛盾风险挑战,提升对矛盾风险的预判能力,是化解社会矛盾、确保改革发展稳定的关键。在传统的社会治理中,注重发挥 “人” 的作用化解社会矛盾。如, “枫桥经验” 中关于化解基层社会矛盾的有益经验包括 “干部下访、接访机制;群众参与调解机制;司法部门诉讼服务机制等”[8]。可以说,充分调动社会各界的积极性参与社会矛盾化解,是 “枫桥经验” 成功的重要原因。此外,随着网络技术的发展, “雪亮工程” 被视作社会矛盾治理的重要手段,被全国各地采纳应用。上述化解社会矛盾的方法在维持社会稳定、确保改革开放顺利推进方面发挥了重要作用。然而,随着数字时代的到来、各种不确定因素的增多,以及 “数字霸权、数字垄断、数字安全、数字隐私”[9]等数字风险的加剧,传统的以人为主导、以安装监控摄像头为主要方式的社会矛盾治理路径已经难以适应当前社会的要求,并且这些方法多以事后处理为主,事前预警预防的效果并不明显。
算法治理有效地解决了这一问题。算法治理对社会矛盾的精准预判主要通过两种路径。一是算法筛选研判型。通过筛选算法,对治理区域内的所有数据信息进行实时筛选监控,从中发现高频次词汇,如噪音扰民、欠薪纠纷、网络舆情等。也就是说,算法可以通过数据比对,把一段时间内重复发生的某一类矛盾、某一区域内突然出现的问题频发状况,抑或是某一行业频繁发生的问题(如食品安全问题)等,识别出来供治理主体参考。治理主体可以根据算法识别出的问题进行核对和处理,从而把矛盾化解在萌芽状态。二是算法模型预警型。根据所要治理的矛盾类型和发生演化机制,确立一系列社会治理指数,形成指数指标体系,从而构建起矛盾预警模型。在运行过程中,预警模型一旦发现某些指数超出标准,就会发出警告。如,广州市在进行算法矛盾预判时,通过 “红棉指数” ,从8个维度检测社会治理中的矛盾,搭建起 “5+1” 评测指标体系[10],实现了社会矛盾的精准预判和提前处理。
(三)多元需求的精准满足
算法治理能够扩大治理主体的公共产品供给,满足数字时代治理对象多元化的需求。相较于传统治理方式,算法治理不仅能够在很短的时间内识别出治理对象的需求,而且能够迅速做出反应,制定出科学合理的治理方案予以满足。当前,算法治理满足治理对象多元需求的应用主要有3种类型。
一是 “供-需” 匹配型。 “智慧城市” “一网通办” “数字化平台” 等是典型的 “供-需” 匹配型算法治理应用。政府通过构建数字化平台,把域内治理对象的各种信息纳入平台管理,在制定实施相关政策时,运用算法对政策与治理对象需求进行匹配,把符合治理对象需要的、最优化的政策推送给治理对象。如,上海某高新区政府工作人员在实施企业奖励补助政策时,运用 “一网通办” 的算法平台,分析奖补政策与哪些企业的匹配度高,进而 “一企一策” 地精准推送政策到企业,使企业直接在网上就可以申领奖补资金。这样的政策实施方式不仅使得企业申领的成功率大大提高,且政府接收的材料都是符合条件的企业上报的,工作人员的工作量、工作压力大大减少,治理效率显著提升。
二是 “供-需” 判断型。所谓 “供-需” 判断型治理,就是运用算法在海量用户数据中 “寻找” 治理对象的需求,然后判断是否有必要满足这一需求。在数字时代,社会治理因技术发展和时代变迁,呈现出不确定性、复杂性、多样性等特点[11],加之社会主要矛盾的转化、人们对高品质生活的追求等,促使社会治理由 “政府管理走向以公民为中心的治理转型”[12]。政府要时刻倾听人民的呼声,根据人民的需求开展治理,满足人民群众多样化的需要。算法治理在满足治理对象需求时,不仅能向政府赋权,提升政府治理能力的现代化水平;还能向公众赋权,使公众的个性化需求被政府感知,纳入政府治理的范畴。因而, “供-需” 判断型算法治理可以推动政府根据治理对象的需求进行政策调整、公共产品供给等,推动社会治理朝着智能化方向发展。
三是 “供-需” 预测型。根据已知需求,预测未来需求,是算法治理的一项重要功能。算法可以通过对大样本治理对象数据的计算赋值,从中找出治理对象需求的一般规律;还可以通过引入随机性因素,更加精确地预测治理对象未来的需求。如,决策树算法即是依据家庭收入、身份背景、兴趣爱好、社会关系等标准把治理对象进行分类,每一类别抓取大量的样本数据进行建模。当需要对治理对象未来的需求进行预测时,通过模型进行计算得出一个预测结果,再把每个模型的预测结果进行平均,并加入随机性因素,即可得出较为准确的治理对象的未来需求。当前, “供-需” 预测型算法已经在居民房价趋势、网购习惯、居住环境评价等多个治理领域使用,在协助治理主体制定长期治理计划、精准满足治理对象需求等方面发挥着重要作用。
二、算法治理的社会伦理风险
从直接的治理效果看,算法治理在降低社会治理成本、提升社会治理效能、满足人们高品质生活需要等方面发挥着重要作用,在很大程度上提升了国家治理体系和治理能力现代化的水平。然而,算法治理在社会治理领域中重要功能的发挥,并不意味着算法治理是一种完美的现代化治理方式。从实践来看,由于算法技术本身的局限性,以及算法技术在社会治理中的误用,导致算法治理冲击了现有的社会伦理秩序、社会道德规范和社会价值准则,给社会带来了巨大的伦理风险。
(一)算法治理过程的不透明酿成社会信任危机
在算法治理中,由于 “算法黑箱” 的存在,人们很难真正了解算法治理的过程,这就会造成因治理过程不透明而酿成社会信任危机的伦理问题。从表征上看,这种社会信任危机主要有两种情况。
一是 “人-机” 信任危机。人们之所以信任和使用算法技术,是因为算法可以公平、高效地处理很多人们难以应对的问题,如对海量数据信息的处理。算法可以依据一定的程序,客观、公正地处理这些数据信息并得出相关结论。在这个过程中,人们 “对人工物(算法)的信任中显然已经蕴含程序透明度、合法性等问题”[13]。然而,算法杀熟、算法误用等各种 “算法黑箱” 问题的出现,以及相较于传统治理模式,算法治理对治理对象知情权的剥夺,使得治理过程中的人完全处于被蒙蔽、被支配的地位,这显然违背了人们使用算法的本意,使得人们对算法的信任出现裂痕, “人-机” 关系逐渐趋于紧张。随着强算法的开发及其在治理中的运用,算法自身的功能更加强大,具有了自主意识,能够形成 “自我偏好” ,这会进一步打破 “人-机” 之间的平衡关系,把人类置于更加弱势的地位,由此人类会对算法产生畏惧心理,不信任感也会进一步增强。
二是 “人-政府” 信任危机。习近平总书记指出: “我们党之所以能够在近代以后各种政治力量反复较量中脱颖而出、赢得人民信任、取得重大成就,根本原因在于……为中国人民谋幸福、为中华民族谋复兴。”[14]也就是说,政府要想赢得人民的信任,政策的制定和实施就必须以满足人民的需求为目标。具体来说,就是在政策制定实施过程中,要倾听群众的呼声、吸纳群众的参与、满足群众的意愿。从现实表现看,算法治理的实施使算法成为政府进行管理的工具,却未能同时成为吸纳公众参与治理的平台。算法治理之下,政府政策是在算法的主导下形成的,政府的决策、监管、服务等都处于 “算法黑箱” 之中,公众既难以知晓真实情况,更难以参与治理,且算法对海量数据的使用还会侵害公众的隐私权。因此,算法治理过程的不透明降低了政府的公信力,使 “人-政府” 之间关系趋于紧张。
尤其需要注意的是,算法治理所直接造成的 “人-机” 信任危机和 “人-政府” 信任危机,已经延伸到社会生活领域,削弱了人与人之间的信任关系,引发了更为严重的社会信任危机。其原因在于,算法治理的高效率是以数据为基础的,遵循技术至上的逻辑,这种基于数据的信任关系及其危机延伸到社会领域,解构了社会中原本以亲情、友情等为基础的信任关系,破坏了社会赖以维护个体之间良好关系的原有秩序,造成了人与人之间的信任缺失。
(二)算法治理行为的不确定引发社会正义问题
在算法治理中,由于算法只能依据已有数据进行决策,无法涵盖社会治理过程中复杂的社会因素,加之算法得出结论依据的是关系逻辑而非因果逻辑,这就会导致依据算法决策而做出的治理行为有时候是不确定的,这种不确定性会引发社会正义问题。算法治理行为的不确定主要体现为两种情况,一是算法把人 “格式化” 为数据,并没有把 “整体的人” 纳入考量范围,造成治理行为的不确定;二是算法依据关系逻辑进行决策,由此产生的治理行为也难以是确定性的。因此,算法治理行为引发了两种突出的社会正义问题。
一是治理对象的正义问题。在社会治理中,治理的核心是治理对象,治理是围绕治理对象展开的,是以解决治理对象的需求为目标的。可以说,社会治理的效果是否达标,根本的判定依据是治理对象是否满意。然而在算法治理中,治理对象及其部分需求可能会被遮蔽,变成没有情感、没有意识、没有差别的 “数据” 。算法治理的行为决策来自于治理对象相关数据的输入,这些数据会被算法 “格式化” 为统一、标准的符号,也即 “人格的数据化” ,治理对象成为可计算的数据,而不是马克思所说的 “感性的人” “一切社会关系的总和”[2](P133-135)。 算法依据被格式化的治理对象的数据所决策的行为难以真正反映治理对象的需求,尤其是算法无法识别和把握人类的情感、情绪等感性因素的变化规律,因而这样的治理行为是不确定的。而在这一过程中发生的无视治理对象的人格与尊严的治理行为并没有使得 “每一个人得到恰当的对待”[15],显然难以称之为是正义的。
二是治理行为的正义问题。除了人的因素之外,算法依据一定的计算程序做出的治理行为为什么还是不确定的呢?这是由算法所依据的计算逻辑所造成的。算法所依据的计算逻辑是一种基于数据之间关系分析得出结果的逻辑。算法通过统计数据、分析数据之间的关系,进行结果判断,得出结论。在这一过程中,算法所得出的结论只能揭示所处理数据之间的相关关系,而不能揭示因果关系。这种依据事物之间相关关系而做出的治理行为,显然不能称之为确定性的行为。治理主体依靠算法进行决策而不顾实际情况,其依照不确定的决策实施的治理行为难以体现出社会的正义性。尤其是在处理人际交往、价值评价、利益分配等直接关涉人与人之间关系的治理事务时,算法决策会被认为比人类决策更不公正、更不可靠[16]。
(三)算法治理方案的不精准诱发社会公平问题
在社会治理实践中,社会治理主体可能会不考虑具体情况,完全依赖算法技术生成的治理方案展开治理行动。由于输入数据存在误导性以及其他外部因素的影响,由此形成的治理方案并不精准,容易诱发社会公平问题。
一是误导性数据引发的公平问题。在算法治理过程中,算法处理的数据必须是真实可靠的,如此才能输出精准的治理方案。然而在现实中,获取真实可靠的数据往往是非常困难的。算法对输入数据的质量是没有标准要求的,只会根据一定的程序对数据进行处理,即使输入的数据是错误的,也会依据错误的数据得出结论。在算法治理中,数据与算法需求之间会形成一定的张力,如果输入算法的数据并非完全真实可靠,就会造成 “垃圾数据输入、垃圾结论输出” ,最终由算法作出的治理决策也很难是公平合理的。
二是算法歧视造成的公平问题。由于算法自身的设计问题、算法具有持续学习能力以及存在社会歧视因素,会导致算法治理过程中产生算法歧视问题。也就是说,就算输入的数据真实可靠,算法也会得出歧视性的结论, “信息茧房” 问题就是算法歧视的表现之一。推荐算法的研发原本是为了满足用户的个性化需求,然而,在实际操作中,推荐算法只把符合治理对象兴趣爱好的信息推送给对方,而把其它信息屏蔽掉,使治理对象 “桎梏于像蚕茧一般的‘茧房’中”[17]。算法通过 “信息茧房” 可以引导和左右治理对象的兴趣爱好,使治理对象跟着算法的推荐工作学习生活。常被人们诟病的 “大数据(算法)杀熟” ,也是一种典型的算法歧视现象。算法歧视的存在会使得算法治理的方案失去公平性,违背了算法治理追求公平、平等的最初目标。
三是无数据输入造成的公平问题。算法治理的前提是治理对象相关数据的输入,如果某一部分群体没有数据输入,那么这类群体就不会被算法所关注,也不会产生针对该群体的治理决策、治理方案。2022年的两会上,李克强总理宣布中国要实施电子身份证化,同时指出要保留实体身份证和政府现场办理事务的窗口,为不会使用智能手机的群体提供便利,这实际上就体现了中国政府追求的是公平的社会治理目标。根据《第50次中国互联网络发展状况统计报告》数据显示,截至2022年6月,中国网民规模为10.51亿,手机网民规模为10.47亿。按照中国14亿人口测算,仍有3.5亿左右的民众是不使用互联网、不使用智能手机的,这也就意味着他们在网络空间是没有数据信息的。所以,如果所有社会事务都使用算法治理方式,这部分人就无法被纳入到治理范围之内,这显然是不公平的。
(四)算法治理准则的不恰当造成社会价值问题
社会治理的根本追求是社会稳定有序,即通过社会治理凝聚社会价值共识,使社会运转得更理性、更合理。然而实践中,算法治理把利益最大化、机械逻辑等商业、技术领域的准则引入社会领域,消弭了社会价值共识,制造出了更多的社会矛盾。
一是算法的利润最大化准则造成了治理过程中公共价值的 “缺位” 。算法的开发和使用是一种商业行为,科技企业开发算法的根本目的是让算法帮助企业获取更多利润。因此,算法具有创收性功能,遵循利润最大化准则。一旦算法的这种特性被应用到社会治理领域而不加限制,其后果是非常严重的。当政府以利润最大化准则进行社会治理时,治理的目标就不再是为治理对象提供更多、更优质的公共产品和服务,其关注点将转变为能否从某一治理行为中获取最大收益。显然,这样的算法治理目标与设立政府的目的是相悖的。马克思在谈论为何设立政府时指出, “社会创设一个机关来保护自己的共同利益,免遭内部和外部的侵犯。”[18]除了保护共同利益,政府还肩负着凝聚社会价值共识、进行社会价值判断的责任。当政府单纯以GDP增长、财政收入增加等作为目标时,实际上就是把利润最大化作为治理目标,这会带来民众福祉降低、社会公共价值缺失、价值规范和价值共识受损、不利于社会和谐稳定等严重后果。
二是算法的机械化技术逻辑造成了治理过程的程序化 “冷漠” 。算法本身是一种近乎机械化的程序,即使强算法的开发和应用也必须遵循一定的机械化程序。如,强算法可以根据 “自己的判断” 进行数据处理,而这种 “自己的判断” 实际上也是开发人员赋予算法的程序,而不是算法自动开发出来的新程序。算法的机械化程序固然可以规避算法治理过程中的人为因素,使治理决策和行为保持客观公正。然而,算法的这种机械化理念如果延伸到政府治理过程中,则会对社会公共价值造成伤害。如在新冠疫情期间,多地出现社区工作人员只管合不合程序而不顾社区居民紧急需求,最后造成严重后果的事件,这实际上是算法治理的机械化、程序化准则延伸到治理领域的具体体现。概言之,如果政府治理只追求程序合法而忽视了更为重要的社会公共价值,就会违背社会治理的 “初心” 。
三、算法治理社会伦理风险的纾解
面对算法治理给社会带来的诸多伦理风险,我们需要直面问题并积极纾解。目前算法治理尚处在起步阶段,其带来的许多伦理问题也还处在萌芽阶段,及早解决不仅十分必要,而且还能消除算法治理的负面影响,进一步发挥算法治理的强大功能,推动国家治理体系和治理能力的现代化。应对算法治理带来的社会伦理风险,就是要通过一定的政策措施,使人们了解算法的优势和局限性,在算法治理过程中规避算法本身的缺陷。同时,要提升人们的算法素养,避免社会治理中算法的误用。
(一)观念层面:涵养符合算法时代要求的观念和价值
在分析社会为什么能够进步时,哈贝马斯提出,人类在 “对于相互作用的结构具有决定性作用的道德-实践意识的领域中进行学习”[19]。在这里,哈贝马斯认为观念、意识、价值取向在社会良性发展中具有决定性作用。因此,为有效应对算法治理带来的社会伦理问题,首要和根本的解决之道,就是对人们的观念、价值取向进行更新,使人们树立起符合算法时代要求的观念和价值取向。
一是进行算法知识的普及。人们之所以害怕算法、恐惧算法,最后被算法所 “控制” ,很大程度上是由于对算法的了解程度不够,不理解算法的工作原理。因此,要进行算法知识的科学普及工作,让人们了解、掌握算法的技术逻辑,扭转人们对算法的错误观念和认识。可以预见,如果大部分民众都能掌握算法的基本知识,那么在算法治理过程中就可以发挥人的主观能动性,有效规避诸如算法的机械逻辑、利润最大化等带来的负面影响。
二是进行理性思维的教育。算法治理所造成的政府追求利益最大化等社会价值问题,是算法的技术至上价值理念、利润最大化逻辑以及算法黑箱、算法歧视等误导人们的观念意识、消解人们的理性思维所导致的消极后果。要消除算法治理带来的这些 “后遗症” ,需要对上述社会治理过程中的错误行为进行坚决地批判和抵制。同时,通过教育实践、网络引导、媒体宣传、政府立法、行业规制等多流程、多环节的工作,使人们养成理性思维观念。尤其是要让社会治理主体树立正确的数字观,理性看待算法、人工智能、大数据、元宇宙等数字技术工具在治理中的作用和局限性,以开放包容、批判接受的态度迎接算法时代的到来。
(二)技术层面:开发合乎社会伦理规范的算法新技术
马克思认为,技术创新是人类 “社会地控制自然力,从而节约地利用自然力”[20]的一种重要手段,人类历史的进步正是在技术不断革新的情况下进行的。技术无论怎样发展,始终是人类 “控制自然力,节约地利用自然力” 的一种手段。因此,面对算法治理带来的社会伦理问题,从技术层面看,可以在两个方面进行努力。
一是突破算法技术的瓶颈问题。算法治理过程中出现的正义问题、信任问题、公平问题,在某种程度上是由于算法技术还未突破一些瓶颈问题所造成的,如脑机接口技术。目前算法还无法识别人的大脑神经网络系统,人们也无法通过脑机接口技术识别算法运作的逻辑。这是算法治理产生信任问题的重要技术原因。一旦脑机接口技术取得突破性进展,人们就可以通过这项技术掌握算法运作的全过程;算法也可以读取人的脑神经网络活动情况,那么,算法黑箱、算法歧视等问题就会大大减少甚至消失。此外,算法治理需要突破的核心技术还包括算法对数据真伪的识别技术、算法的关键数据抓取技术等。
二是算法开发的伦理规范嵌入问题。如何把社会伦理规范嵌入算法治理的全过程是一个技术难题,也是一个伦理难题。因为,如果能够把真善美的伦理规范轻易嵌入算法技术,那么,错误的伦理规范也可以轻易地嵌入其中,对嵌入的伦理规范的好坏进行识别是不小的挑战。因此,要结合算法技术开发和伦理建设的双重路径,进行伦理规范嵌入。目前较为成熟的观点认为,可以在算法技术开发过程中运用伦理调节器、伦理评估工具、人机接口、伦理督导者[21],进行伦理规范的嵌入和调节,以规制算法治理中的 “不道德现象” 。
(三)文化层面:构建与算法治理相适应的文化新样态
算法治理之下的社会文化可能会形成这样的后果: “以技术为中介,文化、政治和经济融合成一个无所不在的体系,这个体系吞没或抵制一切替代产品。”[22]即算法技术通过整合社会文化和政治经济,使人类成为技术的奴隶,这也正是算法治理引发社会公平、正义、信任问题的原因所在。要解决这一问题,就要对社会文化进行 “创造性转化、创新性发展”[23],使之适应算法治理的技术发展需求。
首先,运用算法技术赋能社会文化创新发展。托夫勒认为, “第三次浪潮正在冲击着这些工业结构,创造了打开社会和政治革命大门的良机。”[24]算法技术的应用亦是如此,可以在很多方面对社会文化创新进行赋能。如,算法技术可以塑造出新的文化样态。当前,社会上流行的外卖文化、直播文化、网红文化等,就是在算法技术的赋能下形成的。此外,算法技术还能对社会文化进行整合,使文化发展更加制度化、体系化、信息化、数字化,更加符合算法治理之下的社会发展需要。
其次,塑造新型社会文化引领算法治理的发展。即要发挥社会文化的塑造功能,把社会文化深入到算法技术开发应用的过程中,塑造算法技术的发展,从而优化算法治理的功能。具体路径包括:第一,以文化需求推动算法技术革新。在生产力发展的基础上,以人们新的文化需求、文化价值目标为导向,引导算法技术不断开发出新的应用。第二,以文化评价影响算法技术的选择。发挥文化的社会评价功能,在设计构思算法治理的应用方案时,进行积极的文化论证、评价、评估,实现社会文化对算法治理方案的修改或者选择。第三,以文化价值准则干预算法治理中的技术应用。算法治理中技术的应用是在一定的社会文化场景中进行的,要以正确的文化价值取向对算法技术的具体社会治理应用进行干预,使其符合社会文化的基本价值准则。
(四)制度层面:制定符合算法治理需要的法律和规范
要应对算法治理带来的社会伦理问题,关于算法技术及其在社会治理中具体应用的相关制度规范建设至关重要,具体包括3个方面。
一是进行前瞻性立法并严格落实。算法、人工智能、元宇宙等技术运用对人类社会的影响之大绝不逊色于食品安全、环境安全等,甚至在一定程度上其影响力还要超过这些领域。因此,要参照关于食品安全、环境安全方面的法律进行算法技术应用的立法,严格限制算法在社会治理中的滥用。此外,还要进一步提高算法、人工智能等技术的使用门槛,通过立法工作,使真正有良心、有社会责任心的企业使用这些新技术,从而规避算法治理中的诸多社会伦理风险。
二是建立行业规范并积极落实。近年来,我国先后出台了《新一代人工智能伦理规范》《国家新一代人工智能标准体系建设指南》《人工智能智能字符识别技术规范》等一系列规范性文件,欧盟、美国、日本等也先后制定了关于算法、人工智能的行业规范,这些规范性文件为算法技术在社会治理领域的应用划定了边界。在积极建立行业规范的同时,要注重把行业规范落实到具体的技术开发、应用的实践过程中,使其真正发挥对算法技术的规制作用,引导技术为社会造福。
三是要加强具体管理规定措施的制定和实施。各地政府要根据本地区的需要和特点,有针对性地制定算法治理、人工智能技术应用等方面的具体管理措施,不能不加选择地接受所有的技术应用。即要通过法律规制、行业规范和具体管理措施,消解新技术应用对人类社会造成的不良后果,真正把技术关进 “制度的牢笼” ,驯服技术,使其成为推动人类实现美好未来的有益工具。
四、结 语
丹尼尔·贝尔在《资本主义文化矛盾》中写道: “这个世界变得技术化、理性化了。机器主宰着一切,生活的节奏由机器来调节……这是一个调度和编排程序的世界,部件准时汇总,加以组装。”[25]算法治理给予人类社会的影响亦是如此。人类社会在算法治理的作用下已经呈现出社会算法化的某些特征,即算法治理既让人们的生活更加便利,解放了人们的手和脚,并进一步解放了人们的大脑,为人们安排好了各种事项;又给人们带来了巨大的风险,冲击了现有的社会秩序,潜移默化地改变了人们的思维和价值观,使人们服从于、臣服于算法的控制,成为算法治理之下缺乏情感性和主体性的 “数字符号” 。如果人们因此而陷入算法治理的技术狂欢中不能自拔,不能意识到算法治理对社会交往方式的改变、对社会结构的冲击、对人际关系的重构等后果,那么,算法治理将会给人类社会带来巨大的社会伦理风险,影响社会的稳定和进步,甚至会改变人类社会的发展方向。
目前,关于算法技术应用、算法治理的社会伦理风险等相关问题的研究尚处在起始阶段。学术界已经关注到算法技术应用的相关问题,对算法技术应用所产生的算法黑箱、算法歧视、大数据(算法)杀熟等问题进行了研究分析。然而,算法技术应用与人们最密切、最重要的互动关系体现于社会治理领域。算法技术在社会治理中的应用是通过与人们学习、工作、生活息息相关的日常行为和实践活动来实现的,即算法技术在开展社会治理时,会潜移默化、悄无声息地把商业观念、技术逻辑嵌入其中,改变人们的思维方式、价值观念,进而改变人际关系、社会关系,这也正是算法治理带给人类社会伦理风险的根本原因所在。因此,在算法治理兴起之初,要抓紧对其引发的社会伦理问题进行研究,以进一步优化提升算法治理的功能,推动社会治理体系和治理能力现代化的发展。