人工智能参与决策对行政伦理的影响及其治理之道*
2022-03-02柳亦博李轶倩
柳亦博 高 洁 李轶倩
从目前信息技术的发展趋势看,人类将生活在一个充满人造智慧体的世界,这些智慧体未必以人形机器的物理形态显现,而是以智能助手的形象出现在手机、汽车、各类家电的信息推送中。当前,对人工智能的研究是以大学和科研院所为主力,这使它作为一门计算机科学分支的属性更加凸显,但事实上,人工智能开发不仅需要技术的进步,更需要相应的哲学和人文社会科学同步发展。2017 年国务院印发了《新一代人工智能发展规划》,旨在抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,为建设创新型国家和世界科技强国指明方向。同时,该规划预示着人工智能将与政府治理进行深度融合,行政部门将借助人工智能辅助决策来应对高度复杂、高度不确定的后工业社会公共问题。基于此,我们应对人工智能参与行政决策可能产生的诸种问题进行深入探讨,以便更公开透明地展示公共政策的逻辑,而非利用算法的复杂性和行政权力运行的非公开性[1],将行政决策变成难以监督的“黑箱”。算法对人的控制比传统权威对人的控制更隐蔽、更细密,人工智能借助全面覆盖社会各个领域的信息优势,通过高效的推送潜移默化地改变行政伦理的价值排序,进而逐步取消传统人类社会的伦理多样性,将人统摄在算法编织的巨网中。本文的核心关切即从行政哲学角度讨论人工智能参与公共决策可能产生的伦理风险,并针对这些风险提出应对之道。
一、作为一种笼罩性治理术的人工智能
随着大数据、云计算、认知科学和机器学习的深度发展,人工智能技术的社会适应性场域随之扩大[2],以一种笼罩性的方式悬在社会之上。人类通过强调自身存在论的主权,即强调每个人都是自己的逻辑起点,不再需要历史的起点,不再被历史说明也不再被社会条件或他人的观点说明[3](P7),迂回地宣示人工智能在存在论意义上的从属地位。但人越强调自身存在论的主权,强调每个人不再被历史、社会和自然定义,所有人可以为自己选择“最优的”人的概念,反而令人工智能越有可能全面介入社会生活、获取人类信息进而帮助人成为兼具一切优越功能的“超人”。智能设备源源不断地向云端上传着数据,对这些数据的清洗和分析帮助人工智能全面覆盖国家和社会的各个领域,最终算法的逻辑将取代人类传统的集体行动逻辑。即便人们能够察觉这个逻辑转向,也很难阻止算法主导和控制社会,同时,听从算法的建议去行动意味着,一切存在不再只是“我思”的对象,人不再是决策时唯一的主体,随即人们会发现放弃自主选择、听从智能建议将成为一种新的理性,基于这一理性的人类认知模式和组织模式将彻底改变。
(一)人工智能的理性与非理性
西蒙将管理的实质视为决策[4](P5),决策活动是现代行政组织的一项核心活动,行政组织的大量职能也是围绕决策活动展开的。从效能合法性与权力合法性,即政府是否实现了有效的管理及是否具有管理社会的权力两个角度考察行政决策。在传统行政决策模式中,行政组织借助择优而任的选聘制度、依靠官员自身的管理才能,通过个人的直觉判断和主观经验提出决策方案,实现决策的效能合法性;当个人的伦理判断和经验抉择受限而难以确保有效决策时,行政组织往往通过集体决策这种程序正义来试图保证结果正义。然而,随着人类社会进入充满风险和不确定性的后工业社会,人类掌握的信息和科学决策所需要的信息差越来越大,“有限理性”问题凸显。政治学和管理学发现依靠直觉作出的判断时常失灵,在伦理学中,直觉主义因稳定性较差而饱受批评。可以说,现代性基本宣告了直觉在决策领域等同于愚昧,将仅靠直觉和经验的决策传统及生产感性知识的相似性思维一并贴上了非理性的标签,而与之相对的分析性思维被赋予了一种代表理性的“光环”[5]。
算法受到这一影响,人工智能的五种主要算法流派中,主张所有信息都可简化为操作符号和方程的符号学派、主张用计算模仿自然选择的进化学派和主张运用概率推理解决不确定性问题的贝叶斯学派,因更接近分析性思维的特征而被行政组织承认和接纳。与之相反,主张学习人脑神经元连接的联结学派和主张在不同场景中找寻相似性的类推学派,则因更接近相似性思维而遭到抛弃[6](P66)。符号学派、进化学派和贝叶斯学派三种算法的一个共有问题是,它们在帮助行政组织追求理性选择时会表现出强烈的功利主义倾向。当功利主义被应用于整个社会层面的幸福计算时,就需要计算不同人之间不同性质的快乐与痛苦,并执行能使众人的快乐总量减去痛苦总量所得到的数值最大的选项,这对算力的要求已经远远超出了人脑的极限,只能由大数据和行政权力双重加持下的人工智能去实现。
随着人工智能与行政组织的深度嵌合,人工智能的发展恰好为传统的行政决策模式的改进提供了技术支持。当前人工智能发展较好的国家,都已在公共决策中将其智能建议吸纳进来——人工智能不仅可以提升现代公共行政的服务效率和质量,同时算法能在很大程度上重塑公共价值。首先,人工智能借助大数据和机器学习,能够精准识别某一群体甚至个体的需求,成为预判和矫正“理性无知”的可行机制,这是以牺牲部分隐私为代价获得的社会秩序的稳定和政府公共责任的实现。其次,人工智能以大数据为基础,在复杂的环境和海量的数据场景中寻找数据之间的相关性,连续为决策制定提供支持,确实能够加强政府回应公共需求的能力。算法的计算本质使其在面对复杂公共事务时,能够稳定地借助功利主义伦理避免陷入多元价值冲突,这在提高行政决策效率方面效果显著。然而,更快就意味着更好吗?在普遍对效率崇拜的时代,这是一个需要反思的大问题。“效率”仅仅是行政组织追求的众多公共价值之一,它在优先性排序上并不突出,在政府决策的多数情境中,“公平”“自由”等价值都要优于“效率”。行政组织追求的效率原指尽可能地利用稀缺资源以实现有价值的公共目标,但在人工智能介入公共决策后,算法的效率追求偏离了原本的理性目标,效率不再是实现有价值目的之方式,而是成为人们的目的和崇拜对象,这意味着效率本身被算法赋予了新价值,成为一种被价值化的大写的“效率”。
(二)算法决策与伦理两难
从契约理论的视角看,政府代行公权力的基础之一是社会共同体拥有足够的基本共识,进而使政治权力获得构建制度的力量[7]。但是,社会存在基本共识并不等于社会价值的一致性,也不等于价值排序的同一性,因为某一价值的重要程度是因人而异且随着时间变化的。一个人的价值观念总是难以跳出他所处的那个时代的局限性,社会主流价值观的变化很大程度上会令一个人的价值观念同步变化。价值排序存在差异,意味着人们在面对相同情境时,对各种价值理念按照优先次序进行排列选择的结果大相径庭。对于政府而言,由于大量公共价值难以公度或化约,在面对价值和原则冲突时就难以确定何者优先,甚至很难从过去的经验中快速筛选出相关信息以资参考,这就难免会令政府陷入诸如“平等”与“自由”、“效率”与“公平”、“尊重个体”与“关注集体”等各种各样的决策困境,这些困境的本质是“伦理两难”。行政组织需要在几乎同样重要的多种价值中作出选择,人们不仅希望这个选择能够实现好的结果,同时要有教化社会的积极意义。基于此,政府在充满奇特问题的风险社会选择更多地依靠人工智能技术进行公共决策,减少因价值分歧导致的行动迟滞,就是一种明智之举而非懒政之举。至少对于政府而言,事后为政策寻找解释的难度远小于在两难决策中快速作出判断的难度。
行政伦理作为公共组织内部的道德规范体系、行政人员应遵循的原则性规范,主要用于指导行政组织的内部成员的行为,同时进行道德判断。虽然理论上说,行政组织是在行政伦理的规束下开展行动的,但组织内部的决策者依然拥有灵活的自由裁量空间,可以通过自身的价值排序和伦理判断进行抉择。在人工智能技术全面介入公共决策后,对于算法伦理来说的“最优选择”未必与行政人员的“最善选择”重合,不会陷入“伦理两难”之中的算法可能对传统行政伦理观念形成挑战。随着技术的发展,当人工智能逐渐进入通用人工智能阶段,即人造智慧体拥有可完成任何认知任务且完成的至少和人类一样好的能力时[8](P61),我们将无法保证行政人员依然拥有灵活的自由裁量空间,依然不被算法的无形规则所控制,更难以断言彼时社会的主流伦理是一种朝向人与人平等共处的伦理。因此,我们有必要对人工智能介入行政决策可能引发的伦理危机及对行政伦理的影响进行审慎反思。
行政组织是在反复遭遇“伦理两难”的过程中渐进把握、调整和改良自身价值观念的,在面对各种两难的决策中,行政伦理的指向是对相互冲突的价值进行优先排序的关键依据。行政决策是在行政伦理指导下的行为选择,行政伦理的价值判断是行政决策的基础和前提,即表层行政决策的变化反映了深层以价值排序为核心的行政伦理的变化。由于人工智能在政府决策领域应用十分广泛,并且数字治理准则的更新速度较快、周期较短,直接讨论人工智能对行政组织价值排序的影响可能导致研究内容泛而不精、研究问题舍本逐末,因此,我们将研究聚焦在人工智能的“数据”“算法”和“算力”这三个最核心的基本要素上[9]。
二、人工智能参与行政决策的隐忧
人工智能不仅是一种覆盖面广、嵌入社会生活深的治理工具,同时在不断通过机器学习进行自我迭代,不断接近一种具有行动能力的治理主体,这种类主体为行政部门提供的“智慧建议”也在不断接近治理术,而非仅仅是一种智库式的政策参考。在海量数据面前,人类不得不借助人工智能处理大数据,人工智能对行政决策确实起到了优化的作用,但算法的逻辑因此蔓延到“计算领域”之外的公共空间,这是否会导致行政组织内的工具理性被过度放大而价值理性遭到过度抑制?在借助人工智能改善行政决策的同时,我们应当关注哪些方面以考察那些可能出现的伦理危机?为此本研究将按照人工智能治理的基本要素,从数据、算法、算力三个方面讨论“人工智能+行政决策”的行政伦理风险。
(一) 数据筛选与歧视性决策
随着人工智能技术的不断发展,以机器学习为核心的新一代人工智能以数据为驱动要素,进行自我训练,实现算法的自我生成,并且成为现阶段与将来人工智能的应用与发展的主要模式[10]。机器获得智能的唯一方式是掌握数据,人工智能技术的发展对大数据的依赖性很强,数据的结构化程度、自身的可靠性及开放程度都会影响到未来人工智能的走向和进展速度。基于这一前提,各国政府为了让自身在智能时代不落人后,会尽可能地向人工智能开放数据源以训练其预测的精度。掌握了海量公民数据的人工智能,基于社会计算的效率与效用最大化逻辑,将为每个社会行动者(既包括公民个人也包括社会组织)量身打造一套政策组合方案。在这套个性化的方案中,行动者无疑是被算法精准地区别对待了,换言之,即每个行动者被给予一套很难察觉到的歧视性方案。相比人类的偏见而言,算法的偏见更容易引发大规模的负面效应。
人工智能对“数据流量”价值的关注,一定程度上转移了决策者对其他不可量化的公共诉求的注意力,使那些数据流量低但关系民生的重大社会问题被忽视。比如,没有智能手机的老年群体或低收入群体,可能在数据生产量上远远落后于深谙互联网社交的“Z世代”,但数字化程度低绝不意味着就应当被忽视。如果决策者将人工智能的数据清洗和挖掘结果作为了解公众态度和界定社会问题的唯一依据[11],那么,关切老年和穷困群体的公共议题就难以快速进入政策议程,这将导致那些最需要社会系统支持的人反而在数字治理中被系统性地抛弃了。事实上,人工智能对数据的依赖会引发一系列公共价值的优先级变化,那些能够更快、更多生产数据的“价值”将被人工智能赋予更多权重,这意味着城乡差异、东西差异、代际差异、行业差异等本已存在的不平等现象将在人工智能参与公共决策之后进一步恶化[12],而非得到改善。
数据自身的可靠性存疑,还体现在供人工智能训练的数据本身的公平性问题上。数据集很可能是人类行政决策的大量案例,但由于人类的道德判断方式天然地带有歧视[13],加之机器学习对数据集的归纳更多依据相关关系,而不重视长逻辑链条和对深层本质原因的探求[14],那么,以人类为主要学习对象的人工智能几乎不可避免地习得并保留那些歧视性的理由。这不是耸人听闻的想象,而是已经出现的实情:美国部分法院使用犯罪风险评估系统预测犯罪风险和法庭对犯罪嫌疑人进行保释和量刑决策时,人工智能基于过去的数据学习会作出“黑人比白人再次犯罪的概率更高”的判断,并据此拒绝对有色人种的假释申请[8](P143)。毫无疑问,这种带有种族歧视的人工智能决策的生成反映了美国社会深层的种族不平等,人工智能在学习和训练时没有办法剔除这种深植在美国社会和政治系统中的“痼疾”,最终的决策结果必然带有对少数、边缘群体的歧视。
(二)算法黑箱与循环论证
“算法”因其自身在事实上的模糊性与复杂性而尚未在学界形成具体的定义,我们可以将它分为两大类:一类是传统算法,即逻辑严密的运行程序被提前输入机器中,使其能够在特定条件下作出既定决策;另一类是机器通过学习获得的新算法,即算法的自我迭代,根据已有的数据进行自我训练、自我学习,最终能在新情境下作出预设之外的判断[14]。这两种分类其实代表了实现人工智能介入行政决策的两种思路,传统算法对应的就是一种借助提前输入的算法对所有情况的全预测使人工智能实现道德判断的被动、机械的方法,但现实世界中的特殊情况和例外情况无法被穷尽,算法难免遭遇失灵;另一种就是让人工智能模仿人类道德判断,形成对基本价值观的“主观”理解,从而主动、自发地完成行政决策,但相应地,这种方法带来更多的伦理风险。此时,人工智能的“学习”具有不可控的特征,并以此为基础进行自我调整与自我生产,生成难以理解的机器思维。通过大量底层简单的“激活单元”相互交织,可在高层自发涌现出复杂的智能行为并呈现涌现性和自主性的特点,即智能是一种由算法底层的简单规则生成的复杂行为,它并不由预定的算法前提所决定,但机器学习一旦涉及多层神经网络,问题就变成了非线性数学,不同变量之间的关系就纠缠不清[15]。同时,算法伦理最有可能依照结果导向的、价值中立的、遵循数学逻辑的、完美匹配功利主义价值观的“最大期望集正义”原则[16],而只用“0”和“1”来计算的智能算法难以定义公平与正义,更可能导致人工智能在压缩个人隐私空间的基础上为个人赋值、将个人量化,带来生命权的不平等[17],这种将人类道德简化的决策逻辑必然会削弱行政组织的合法性基础。
算法的稳定性、安全性、可解释性与公平性是信息时代的政府维持社会稳定的主要目标,但由于机器学习多轮之后的算法实际上是一个“黑箱”,要令算法符合上述伦理要求往往带有很强的随机性。我们可以将“双层功利主义”视为打开算法黑箱的钥匙,即认为算法基于一种双层判断体系来实现公共利益:一般情况下,应用便利的规则功利主义作为决策依据,仅当出现新的变量、原则冲突或者需要自我证成时,才使用行为功利主义原则并用“模仿人类”作为终极解释。但随着算法工程师对人工智能决策树的深入了解,人们发现这种判断过于复杂。事实上,算法并不对所谓“好”或“坏”的行动,或者“善”或“恶”的结果进行道德区分,算法只是统计过去人们在面对相似问题时所作出的决策,分析这些决策与最终人们期望结果的相关性(如何判断结果是否满足人们的期望,是可以从事后文本中出现的积极或消极词汇频率这个指标得出结论的),最终生成一个在概率上最可能满足多数人的方案。而对于这个方案的道德判断和解释,其实都是人类赋予的,很容易陷入用论题来证明论据真实性、用论据再去证明论题成立的循环论证之中。人们很难在这种循环论证中发现算法内含的问题。
(三)算力竞赛与行政集权
“算力”是处理数据的能力。在信息时代的国际竞争大环境下,算力不仅是国家竞争能力高低的核心指标之一,同时是识别并抵御境外网络袭击的“防火墙”基石——那些算力不足的国家甚至无法建构学习模型来标出网络中的“异常行为”。同时,网络战争是一种典型的“不对称战争”,即一方的算力也许不及另一方,但依旧有能力给对手造成严重的伤害。在这场没有硝烟的战争中,有能力建设自己算法的大国政府都陷入了“剧场效应”——当剧场前排观众站起来后,坐在后面的观众也不得不起身。恐惧令大国被迫卷入这场算力竞赛,没有政府敢将人工智能开发作为可外包的公共产品,而是将其作为国家发展战略由政府统管。所以,算力竞赛将导致大国不仅在信息技术上展开竞争,同时会在制造芯片等核心设备的资源上进行争夺,在国际贸易中相互角力,这种竞争的后果就是大国的行政扩权。对于信息时代而言,掌握了数据也就掌握了最大的资源和权力,此时的政府已很难把握行政扩权与行政集权之间的度,往往是在技术飞速发展带来的红利中未遭遇多少阻力就实现了行政集权。事实上,行政集权并非必然导致社会活力降低或者交易成本高昂,但集权与智能监控的组合,难免会引发人们对“环形敞视监狱”的担忧。所以,参与算力竞赛的大国政府在出现行政集权之前可能民调的支持率颇高,但在集权之后,可能遭遇来自国内的质疑和抗议。
在算力的竞赛中,人工智能技术的发展带来的广泛且棘手的问题还表现在央地关系之间、政社关系、政企关系三方面关系的变化。第一,算力的提升将造成信息的倒流,使目前地方对于中央的信息优势倒置,凭借大数据和舆情监测机制,中央的信息处理能力显著优于地方,带来权力向国家的重新集中[18],形成中心对边缘优质资源的虹吸,并向边缘转移自身风险。第二,算力的提升将弥补政府对社会治理的空隙,实现政府对社会各个治理领域的全覆盖,使社会自组织缺乏足够的孵化空间,进而排斥社会主体参与治理决策和监督[12]。第三,算力的提升可能造成技术龙头企业和政府的合谋,使国家治理变成一种专家治国和智能极权的结合体[5],此时作为民主宿敌的“护卫者统治”就跃上了政治舞台。一种更灰暗的世界想象是,随着智能技术的成熟,人工智能将成为可以设计自身软件和硬件的更高阶的智慧体,这会使世界不再需要力量制衡,而是出现绝对强者的绝对控制,人类社会的法律、制度、伦理等文明结晶都将不再被需要,进而也宣告人类文明的灭亡[13]。这种观点过于悲观,人工智能如果在可预见的未来不会发展成为强人工智能,也就不会出现科幻作品中人工智能毁灭人类文明的一幕。无论人工智能会不会成为人类世界的终结者,在算力上展开竞争的大国将大概率拖拽着全世界走向霍布斯式的“自然状态”,在这种状态下没有哪个国家是赢家。
三、行政伦理如何与算法逻辑共生?
人工智能模型设计、建立、运行的透明度和合理性的呈现及这些算法建议在人类决策和行动中作用的发挥是相互关联的两个阶段[19],共同作用于算法实践和结果。政府作为数字治理中最关键的行动者,必须积极回应人工智能参与行政决策可能引发的伦理风险问题。当前,人工智能参与政府决策尚处在初级阶段,算法治理的应用领域多属于数据量巨大、操作重复性较高、任务多线程同步的行政场景,如交通拥堵管理、道路维护、公共场所安全监控、程序性行政审批、逃漏税的识别与处罚等[20]。但随着数据的积累,即便技术没有获得飞跃式的提升,人工智能也可以根据以往的历史数据建立多个近似模型来不断逼近真实情况。通过这种方式训练出来的人工智能将拓展到更多、更复杂的应用场景中,如流行病预警、极端气象预测,并与行政组织更深度地嵌合在一起,同时算法的逻辑会对行政伦理,尤其是功利主义之外的行政伦理思想(如道义伦理、契约伦理、德性伦理等)形成强烈冲击。一个负责任的政府必须找到行政伦理与算法逻辑能够“互利共生”的合作之道,而非任由人工智能摆置行政决策。
(一)加强政府主导的伦理审查
虽然人工智能能够将行政组织中的许多人从多数日常的劳动中解放出来,但这并不意味着一部分公务人员将面临失业,事实相反,人工智能参与公共决策非但没有使政府编制缩小,反而让各级政府纷纷成立数字治理的专业化部门,最终使政府规模上升。人工智能决策的数据历史和判断逻辑可能会延续并强化人类社会现有的歧视现象。这是因为,针对这个问题行政组织需要在决策生成阶段对人工智能的结果进行伦理审查,并根据审查的结论逆向演绎算法的“问题根源”。虽然当前人工智能在政府中的应用还处于初级阶段,但由于人工智能学习的对象是人类,算法已经习得了歧视性的数据,其决策无疑将带有某些“偏见”。个体在一定程度上保留“偏见”是化简复杂外部世界的一种策略,但如果行政组织保留同等程度的“偏见”,对于整个社会而言也是灾难性的——人们对公义的要求普遍高于对私德的要求,他们无法接受一个无法平等对待公民的政府。要确认人工智能是否真的存在偏见,以及存在何种程度的偏见,必须由政府组织专业的伦理审查机构进行评判,所有评判的过程和理由都需要向社会公布。
虽然人类尚未对行政伦理的应然形态形成共识,但在更一般的意义上,多数行政组织还是可以接受一些普适性的基本原则。政府对人工智能的伦理审查,应当基于这些普适性的基本原则,而非基于意识形态或者诉诸情感的判断。这些基本原则包括四个重要的特征:第一,保存生命原则,即任何情况下都不以人的生命为代价换取更好的结果,哪怕是牺牲少数拯救多数;第二,平等原则,即在面对不得不令部分人受益、其他人受损的情境时,不总是以受益和受损的人数差值为决策依据;第三,自由原则,即不会为了实现整体目标而抑制或阻碍个体追寻自己目标的自由,除非该目标本身不正当;第四,多样性原则,即尽可能确保人有多元化的体验,而非只向其展示他所惯习的那些可能,即便后者在所有可能性中被认为是最积极的体验。所有伦理审查都应围绕四个基本特征进行逐一核查和分析,确保人工智能在保存生命和文化多样性、保护人的平等和自由方面始终在进行积极的学习和探索。
对于行政组织而言,它不仅需要将行政伦理具象化为对组织内部公务人员的职业要求,还应将其扩展至深层的意识形态与行政文化建设层面,使行政系统的各层级人员树立正确的行政伦理观,内化为具有普遍认同的自觉思维。在决策准备中以审慎的态度看待人工智能的数据收集分析结果及人工智能作出的备选方案;在决策过程中对危及原则性价值的人工智能决策结果进行制止;在决策反馈中对数据和算法进行伦理审查,重点针对人工智能决策结果与主流价值观念之间出现的矛盾,反向核查其机制与过程中不自觉的不公正之处,促使其修正和改进[21]。在整个决策前、决策中、决策后的过程中,应始终保持一种随时可以将人工智能程序从行政决策中抽离的“悬隔机制”,一旦出现紧急问题可以立刻叫停算法决策,并迅速由应急行政团队接手和处置。对人工智能的伦理审查不仅要制度化、周期化,更重要的是,审查过程需要政府全程主导把控,而非以该领域的专业性为托词将这项工作外包出去,因为这涉及国家安全、政府能力、民生保障等诸多重要领域,必须由政府设立专门化的组织去处理。
(二)完善公共价值治理
人类要以一种共同体的形式生活在一起,就离不开一个社会成员共有的“公共价值池”,伦理可以说是在这个池中不同的价值出现冲突时判断何者更重要的依据。在信息技术的飞速发展中,算法伦理同时侵入公共伦理和私人伦理领域,由于信息的不对称性、算法的抗解性、关键技术的保密性,加之公共问题本身的高度复杂性,使整个决策过程的责任链条很难被清晰指出。这就意味着,一旦行政组织听从人工智能的建议导致某种伦理危机,是很难厘清整个事件中各主体的责任边界的,甚至我们无法确定在这个过程中官僚制本身是否需要承担一定的责任。有观点认为,人工智能介入下的行政决策出现责任困境,究其根本,是主体模糊的问题[22]。行政学强调行政决策是一个连续的过程,是多方合力的结果,但人工智能介入行政决策将导致政府作为单一的责任主体的局面彻底改变。对此有学者建议诉诸政府、人工智能、技术企业的联合道德责任[23],然而,行政哲学对是否可以赋予人工智能主体性这个大问题持审慎怀疑的态度。即使有学者认为,对人工智能自由意志的质疑并不能否认其具有道德责任能力[24],我们也无法使用目前人类社会的互动方式与它和谐相处。比如,人类社会现行的惩罚方式(如训斥、罚款或监禁、劳教等)在面对人工智能时都失效了。基于上述原因,政府更需要作为一个积极的行动者开展公共价值治理,否则,政府将在一系列人工智能可能引发的公共价值失序或行政决策犹豫中疲于解释,落入循环论证之中。
算法的逻辑一旦成为行政决策的主导逻辑,人工智能的建议就会成为行政决策的主要依据,在多大程度上按照人工智能的建议去行动将成为考核一个政府治理水平的核心指标。不难想象,一种新的“没有政府的治理”即将出现,政府的大部分决策职能会被算法取代。为了避免这种情况出现,政府会牢牢抓住那些可以塑造公共价值的政策工具,如教育系统、新闻媒体、社交网络等,但政府这种近乎本能的反应恰恰会进一步强化人工智能重塑公共价值的能力。在有效利用智能设备的无缝隙信息推送方面,人工智能塑造“信息茧房”的能力远超人类的行政组织,在信息茧房中的人们甚至很难察觉自己的价值观念已经被潜移默化地改变了。对于数字时代的政府而言,首先应当转变的是公共价值治理的思路,从“道义”的或者“德性”的角度去创造人们的共识,而不是与人工智能抢夺“效率”维度的价值高地,因为德性和道义这一类美德是人工智能无法通过一层层的“算法进化树”习得的。政府应尽快完善行政法规,同时推动立法机构开展针对人工智能参与公共决策的立法工作,对算法的公开范围和程度作出明确规定并保障公民的知情权,以制度建构加强政府对信息社会公共价值塑造和监督的基础能力。此外,对人工智能的立法应关注它在每一个细分领域里表现出的特殊性,对人工智能的规制需要具体化和场景化[25],不能用“一刀切”的方式去简单应对这个新生事物。
(三)廓清技治边界
人工智能技术介入行政决策,不可避免地会把人数据化、抽象化、标签化,这对人类的社会结构和组织形态将产生何种影响我们尚未可知,但目前掌握前沿人工智能技术的组织都或多或少出现了组织形态科层化和集权化的趋势。公权力与人工智能技术的结合很可能会出现行政集权现象。虽然人类社会的进步离不开技术的发展,但并不是每种技术都能与人类社会兼容。对于人工智能技术而言,目前最重要的是如何在将其作为治国的重要工具时不落入技治主义的陷阱。技治主义的主旨是社会运行的理性化,尤指政治运作的科学化,主张借助专家治国的实践形式实施科学管理。从本质上说,技治主义是一种建基于进步主义和技术治理原则之上的系统的技术治理理论[26]。在思考现代性本质时,政治哲学家揭示了技治主义潜藏的危机,可能让遵奉它的公共部门面临公信力的崩解,也可能出现与平等主义和公民参与的紧张,或者遭遇对作为其基础的科学知识有效性的质疑[27]。
对于来自他者的算力竞赛压力,更需要明确技术的边界,尤其应明确人工智能不可以在哪些公共领域应用。唯此才能根据实践不断调整人与技术的关系,而非不假思索地将人工智能技术抛入公共问题的所有场景。如果算法使用这些不加拣选的数据“野蛮生长”,这个过程极易出现无法预期的偏差[28]。为了避免这种情况发生,即使我们无法将算法与权力彻底分开,也必须通过规范智能技术的适用边界来限制算法与权力的组合。一旦我们将视角转向约束权力,就会看到人工智能技术需要的是一种跨学科的发展,这不仅需要计算机科学的进步,同时需要相应的哲学、伦理学及政治学、行政学、法学和管理学的发展。唯有通过人文与社会科学的发展来完成一次对社会的再启蒙,才能实现人与人工智能的和谐共生,也只有通过再启蒙,才能让人保持审慎的清醒,理性地辨识自身的需求和算法的期望,尽力不以算法的逻辑作为道德判断的唯一标准。在启蒙完成之前,人工智能技术应该被限制在拯救人类免于苦难的公共领域,如公共卫生、医疗急救、公共安全监控等,而不应当作控制社会或发动进攻的工具,如操弄选举、分析股市、发动网络战争或者操纵无人机远程刺杀等。
概言之,在可预见的未来,人工智能参与行政决策是时代的大势所趋,但在借助人工智能技术提高决策效率的同时,应当看到数据、算法、算力三方面可能存在的伦理危机隐患。人工智能对行政决策的控制越深,越有可能引发决策歧视、循环论证、行政集权及行政自利,这将打破以人类传统伦理观念为根基的公共价值排序逻辑,让行政部门频繁陷入伦理两难之中。为保证行政伦理对最大“善”的决策结果促成,我们强调应当从加强伦理审查、突出公共价值治理、明确技治边界三方面积极回应决策伦理风险,促进人工智能与政府治理的协调发展。从当前的人工智能技术的发展方向来看,无论是弱人工智能还是未来可能出现的强人工智能,都很难自行演化成为人工道德体,因而政府必须积极承担起在人工智能参与决策时加以必要引导和干预的责任,打破算法为个体量身定做的“过滤气泡”“信息茧房”和“回音室”[29],通过行政哲学区分算法给出的“对的决策”和我们需要的“善的决策”,引导人类朝向一种良善的可能世界前行。