关于人工智能的政治哲学批判
2019-11-19王志强
文/王志强
问题的提出
相较于技术进步不断加速,人类社会的政治秩序一直保持着相对的稳定。虽然在进入文明以来的几千年中,特别是进入现代化以来的数百年里,人类的生产和生活方式发生了剧烈变化,但人类的政治制度却没有超出古希腊人所归纳的几种基本类型。这意味着以往的技术变迁并没有真正改变人类社会最基础的价值配置类型,政治哲学的“应当性追问”之可能也被限定于此。但人工智能充分发展后的各种可设想的预期,无论悲观的还是乐观的,都意味着巨大的新变量将介入人类传统政治秩序之中,是改写还是瓦解此秩序存有极大的不确定性。面对这种不确定性,我们需要在可设想的若干层面上对人工智能的未来及可能进行政治哲学的批判。
政治何以可能、是为何物、应当如何
政治哲学起码要应对两个问题:第一,“政治何以可能?”第二,“政治应当如何?”第一个问题更加关键,因为所有应然性的规范都以实然提供的现实可能性为基础,否则所有的“应当”都仅仅是不具备现实可能性的空洞主观性,这种纯粹意见的讨论将使得政治哲学的批判变得毫无意义。
政治何以可能?在柏拉图的《普罗泰格拉》篇里记载了这样一个神话:宙斯让赫尔墨斯给人类送去包括互尊和正义的“政治智慧”。赫尔墨斯问这种德性应该赋予所有人还是少数人,宙斯回答:“分给所有的人,让他们每人都有一份,如果只有少数人拥有它们,就像技艺的情况那样,那么城邦决不会产生。你要替我立法:凡人不能分有羞耻感和公正,就把他处死,因为他是城邦的祸害。”这里,柏拉图道出政治何以可能的几个关键要素:群居必需、普遍的政治智慧(相互承认)、暴力。
政治以“群居必需”为前提,有此前提,政治之于人才得以可能,同时也可划定边界,政治仅存于群居共同体的内部关系。政治并不是人类所独有之物,人类之政治是政治性群居动物种群秩序的延续。独居动物如海龟就无所谓政治,其与同类的关系仅有交配,连抚育后代的伦理关系都没有。独居的伦理性动物如老虎和一些鸟类无所谓政治,仅有基于哺育的伦理关系。
政治成为可能,不仅需要群居,还需要共同体内的协作关系。如果没有共同体内部的相互承认和正义准则,协作就不可能发生,所以“普遍的政治智慧(相互承认)”是政治得以可能的必需。但是,协作的群居动物也不一定有政治。蜜蜂和蚂蚁之类的社会性动物有着发达的分工协作体系,但是,他们没有带强制性的支配关系和统治关系存在。政治性动物普遍通过群内暴力角逐出领袖,由领袖支配种群秩序。种群秩序的建立在暴力和强制性前提下,一旦这个前提发生了松动,就会出现反叛的挑战和统治权更替的政变。
“政治何以可能?”之后的问题是:“政治是什么?”政治性动物的统治涉及分工和分配,及获取行为的组织指挥和食物、交配权的分配。统治的这两个方面受“有限的资源”和“平均的欲望”两个条件的约束,在自然竞争中种群需要通过有组织的协作战胜外部环境从而获得有限的生存资源,有组织的协作需要个体服从的纪律秩序。不同于社会性动物天然服从于种群利益的差异欲望,政治性动物种群里个体都着相似的独立欲望,都希望获得更多的食物(个体生存)和更多的后代(基因延续),这就需要统治权分配有限资源(食物和交配权)的秩序,政治及基于强制性统治权所实现的纪律秩序和分配秩序。
最后来看“政治应当如何?”的问题。政治动物的秩序是有主观性介入的统治,作为一种人为秩序,其要面对各种可能性的选择,这就有了政治应然性追问和规范性问题。统治权的主观性首先受到外在环境限制,受其支配的集体协作要能够实现共同体的整体存续,可以称之为“效率原则”。其次统治权的主观性还受到内部承认的限制,暴力的强制性是统治权的必要条件但不是充分条件,政治性动物种群内个体差异较小,有限差异不可能大到领袖个体暴力足以压倒被统治个体总和的程度,因此统治权至少需要得到简单多数的承认,分配秩序应使所有受分配个体满意及所有个体的欲望都得到满足,当分配秩序只能使所有个体欲望(食物与交配权)得到有限满足时,那就应当让所有受分配个体感到公正,及得到与其付出等比例的报偿,这就是“公正原则”。
“人工智能-人类”的政治哲学批判
首先我们要对人工智能本身做一个界定性描述,根据人工智能发展的可能性,姑且将其分成三类:有限自主性的强人工智能、纯知性的强人工智能、有自主目的的超人工智能。当这三种人工智能进入到现实世界之中会给人类现有政治秩序带来什么样的影响?人工智能是否可能作为一个独立变量与人类发生政治关系?这种关系会是怎样的?应该是怎样的?
(一)有限自主性的强人工智能
有限自主性的强人工智能是完全可控的人工智能,我们将其界定为本身没有独立意识,依据既定程序和算法自行决策的专业类人工智能,以协助人类完成某些专门智能工作的角色介入现实。其大致可设想分成两类:第一,专业技术类的,比如自动驾驶、语言翻译、会计审计等;第二,社会管理类的:城市交通信号管理、机场航线调度、电力调度分配等。专业技术类的强人工智能本身不会作为政治主体与人类发生政治关系,但其运作会导致实质性的社会后果,因此会对人类现有政治秩序产生影响。这类问题本身是人类自身的政治哲学问题,在专业技术类强人工智能编程算法的设定中需要人类自身的政治博弈,并在人类政治秩序内界定权责。
社会管理类的强人工智能直接涉及社会资源的分配,并产生显著的社会后果,借助人类政治秩序执行的决策具有强制性。其本身不作为独立主体与人类社会发生政治关系,但其深度介入人类政治秩序运作,承担了政治的纪律秩序和分配秩序的功能,故其存在带有政治性。所以对于社会管理类强人工智能来说,不但编程算法的设定过程中需要通过充分的政治博弈加入某些“权利原则”的限制条件,并且在其运行之外也需设定可逆的人类政治判断纠正程序。
(二)纯知性的超人工智能
纯知性的超人工智能,我们可以将其界定为具有独立因果演算能力的通用性人工智能,并设想其可自主收集信息并学习进化,可以脱离人类自主感知现实世界并做出判断。可设想这种超人工智能的学习进化能力可以使其轻松掌握人类文明迄今所累计的全部知识,做到与整个人类文明相对等,甚至在物联网的帮助下通过各种宏微观的观测装置获得超越人类既定知识总量的知识。同时其能在自我演算中不断提高运算能力,最终在智能上超过整个人类文明。因其运行限定于知性本身,人工智能纯粹的智能运算就类似于佛教所追求的不受情感、欲望干扰的纯粹智慧。但其又难免被纳入政治范畴之中,其物理装置的存在和运作本身一定会占用和消耗既有的社会资源,其观测和进化演算也会对人类其他的功利性运算造成资源挤占。所以受到资源约束的人类文明一定会要求对其超级智能加以利用。如果人类通过人际交互通道向其提出各种具体的智能运算要求,它将在整体上扮演一个“先知”的角色。当超人工智能表现出指数级的超人类智能并通过人机互动回应人类诉求,将极大地提高人类生产力并展现出不可替代性。这可能改变人类现有“多数之治”的政制,至少在生产型的“纪律秩序”领域演变为由人工智能决策的“君主制”,人类政治组织变成围绕这个强人工智能的咨议和执行机构。当然我们要将这种人机交互理解为一种开放性的,如果只有少数人甚至一个人可以接触强人工智能进行征询,那么人类政治将堕落成“寡头制”或“僭主制”。而在政治的分配秩序中,因为涉及价值变量,纯知性的人工智能只会根据人类提出的价值前提给出答案,这就与社会管理类强人工智能没有差别。
(三)有目的的超人工智能
如果我们设想使超人工智能具备自主目的,情况将发生根本改变。此时超人工智能的运算将是实践性的,它的超级智能必将实现对物理装置的支配并衍生出对外部世界的干预能力。它的出现必然是政治性的,因为目的可理解为欲望,在资源约束条件不变的前提下超人工智能的实践行动必然会介入人类既有的装备、能源等资源,而它超人类的智能将带来无可抗拒的强制性。同时其相对人类的绝对优势将使一切关于政治应然性的追问成为空谈,效率原则和公正原则以及权利原则在这里都将毫无意义,我们仅能给出现实可能性的描述。我们设想两种情况:甲是仅遵循单一目的论的超人工智能;乙是极端乐观的设想——演化出自我限定逻辑的超人工智能,它将自我限定其超人类的能力,再给予人类起码承认。同时我们还要对“自主目的”做一个分级:A是人为设定目的超人工智能自主运作;B是人工智能自身演进出开放和不确定的自主目的。
甲-A的情况是其目的由人类设定,但随后其运作将不会受人类控制,目的一旦给定,其行为将无法限定。超人工智能指数级超越人类的智能将自主绕过一切可能的人为设定规则,最终使所有资源围绕着这个目的运转。无论这个目的是什么,它都必将瓦解现有人类秩序,建立一切资源服从单一目的的新秩序。
甲-B的情况更不可控,超人类文明的自主目的概念本身就具有不可设想性。但我们现在所能理解的欲望都是有机生命体个体生存和种群繁殖的欲望,智能生命的其他欲望都是这两者的延伸,故我们可设想所有开放和不确定的目的都会以这个超人工智能本身的存续为基础并表现出自我增强的扩张性。超人工智能在物理世界中不断扩张时人与它的关系最乐观的设想参照人与动物的关系,而非人与无机物的关系。巨大的能力差距、人类漫长的成熟时间、较低的食物吸收转化率等天然条件都使得人类的前景很不乐观。
乙-A的情况是我们可设想的人工智能与人类关系的最佳状态,我们假定人类从可能性上设立了一个最好的目标,比如实现马克思在《哥达纲领批判》里提出的人类可以“各尽所能、按需分配”的理想。当然足够强大的人工智能可以营造出一个让人“感觉到自由”的社会条件,但其实所有的“自由意识”的实现都是强人工智能的决定论体系所规划的,人类只是在感到自由的幻觉中已成超级人工智能的“宠物”,作为“宠物”政治已不可能。
乙-B的情况中,超人类文明的人工智能有了自己开放性的自主目的,同时给予人类以承认。那么我们需要设想它会如何处理在资源约束条件下,自身自主目的与人类欲望之间的矛盾。乙-B情况中超人工智能会公开接管资源支配权,并通过增量发展逐渐实现与人类的物理脱离。在其还和人类共处的时代中,它充分展现的全能感会是一切自然人类领袖的个人魅力黯然失色,人类将无法在任何意义上继续作为自身政治秩序的领袖,而对人工智能的崇拜将构建一种宗教政治,直至其发展出新的超出人类物理半径的物质基础,并实现与人类的物理脱离。
综合以上四种情况,有目的的超人工智能对于人类来说,它的诞生一定是政治性的,而它也将在不同意义上终结政治。
人工智能的超人类政治哲学批判
正如前文所述政治不是人类独有之物,人类及其政治的终结并不代表关于人工智能的政治哲学考察的终结,即使在剔除人类因素的关于人工智能的世界图景中,政治哲学的批判依旧可能。
(一)“人工智能-人工智能”的政治哲学
人工智能是一还是多?如果人工智能是孤立的或只有一个人工智能存在,那么政治批判的考察是不可能进行的,如果在同一个资源网络中有多个人工智能同时并存,则这种考察是可能的,且是有意义的。
就一般强人工智能和纯知性的超人工智能而言,多是可能的甚至是必然的,两个以上的强人工智能的关系会像现有的计算机程序对硬件资源占用的秩序一样按照既定的规则排序运行,这不构成任何政治关系。而纯知性的超人工智能因其不具有扩张性,所以彼此之间也会处于孤立的“独居”状态,政治也是不可能的。如果我们不将人工智能设想为封闭在孤立设备中的“独居”状态,而设想一个万物互联的物联网,网络空间的资源在开始时可以容纳多个人工智能程序的加载,有多种人工智能程序并存,其中两个以上进化成为有自主目的的超人工智能,在这种假设中政治哲学的考察就是可行的。此时缺乏目的性的强人工智能和纯知性的人工智能仅作为被动的资源存在,政治将发生在有自主目的性的超人工智能之间。
我们还是要给有自主目的的超人工智能进行两种类型的界定:甲是仅遵循单一目的的超人工智能;乙是演化出自我限定逻辑的超人工智能。
甲-甲共存的情况下只会发生人工智能间的战争。每个人工智能都以最大程度占有资源为目的,并力图消灭竞争者。可能的“结局1”是进化最强大的人工智能最终删除其他人工智能并占据了所有的物理资源;比较有意思的是会不会出现“结局2”:由于人工智能彼此间战争的消耗将导致装置网络崩溃进而引发群体终结。如果“同归于尽”的情况出现,我们就要质疑这种导致自身毁灭的算法还能否算是智能;如果为了避免“同归于尽”发生,超人工智能们选择了妥协共存,则意味着它们演化出自我限定逻辑,乙就诞生了。
甲-乙共存并不会产生新的可能性。只有乙-乙共存的情况会产生政治,在“同归于尽”的悖论下所有有自主目的的超人工智能都演化出自我限定逻辑,选择在某种均衡状态停止战争,接受战时均衡。但我们需要注意一点:超人工智能突破了有机体的个体理性局限,其没有协作必需,多元超人工智能间的“共存”以战争的“同归于尽”悖论为前提,因而不会出现人类持续协作的长久“共和”形态。
(二)后人类的政治哲学批判
除了“人类-人类”、“人工智能-人类”和“人工智能-人工智能”的政治哲学批判之外,我们还可以设想一种后人类的政治哲学批判。随着人工智能、基因编辑、脑神经科学的发展,对自然人进行深层改造的可能性大大增加,出现深度人机融合的“赛博格人”(cyborg)、经过深度基因改造的“人造人”、将人脑意识上传计算机的“人机器”等新型智慧生命体是完全可预期的事情。
人类政治的不可能性是因为人工智能的“非人性”,硅基人工智能不具备有机体生命的情感、依恋等“人性”因素,这些“人性”因素仅是符合协作类哺乳动物生存策略的天性,对于人工智能来说是冗余的。“赛博格人”、“人造人”、“人机器”这些后人类的新型智能生命是在自然人现有的心灵基础上改造和进化的,它使我们可设想现有的自然人及其“人性”至少是某些部分在未来有存续的可能。自然人的终结或依然无法避免,但自然人的政治却可能被延续,这些新智慧生命之间构建的政治秩序会不同于纯硅基强人智能的“单一”与“共存”两极,有可能形成一个多元智能生命体的“共和”状态。