面向未来的治理:人工智能时代的国家治理原则
2022-02-16梅立润
梅立润
(武汉大学马克思主义学院,湖北 武汉 430072)
实现优良的国家治理既是执政施政集体的共通理想,也是普通社会民众的深切期盼。一个国家想要达致优良的治理,既要 “面向过去”,从国家治理的丰富历史实践中提炼经验与教训,并借助历史以更好地理解当前国家治理的形态、结构、方式和价值选择;与此同时,也要 “面向现实”,要对当前国家治理最为棘手与紧迫的问题有所体认,据此确立国家治理的重点工作或中心任务;另外,还要 “面向未来”,基于对时代发展和社会变革大趋势的把握,及时调适指导或统领国家治理的系列原则,以便更好地应对可能出现的新问题、新现象、新情况,毕竟国家治理原则的设计与国家治理理想的实现息息相关。随着人工智能国家战略的密集出台、人工智能企业数量的不断扩增、人工智能行业投融资热情的持续高涨、人工智能应用形式的日益丰富,当前人类社会正在迎来一个全新的时代,即人工智能时代。人工智能时代的到来,为国家治理提供了全新的时代场景。问题在于,在人工智能时代谋求实现优良的国家治理,需要遵循什么样的原则指导或统领?这是 “面向未来的治理”需要自觉思考的重要理论与现实问题。
1 敏捷原则:人工智能时代国家治理的速度期待
现代社会的一个显著特征就是充满不确定性,社会发生变化的概率比以前更高、速度比以前更快、范围比以前更广,变化的社会总是对应着变化的公共问题。能否敏捷地对新兴公共问题作出回应,成为透视一个国家治理水平的重要窗口。在人工智能时代,社会变化的概率、速度以及范围只会有增无减,推进国家治理更加需要具备敏捷性。
1.1 敏捷切换态度基调:“发展为主”抑或 “防范为主”
技术进步是提升国家治理效度的重要手段,人工智能时代的到来为国家治理提供了全新的技术选择。人工智能具备与其他技术一样甚至更强的赋能属性,可以在多向度上为国家治理赋能。实际上,人工智能的赋能话语特别是赋能国家治理的话语直到近几年才逐渐兴起,关键原因就是,当前阶段的人工智能展现出与以往截然不同的面貌。这表明,只有发展到一定段位之后,人工智能为国家治理赋能才慢慢成为现实。换言之,技术段位构成人工智能为国家治理赋能的根本性约束,人工智能为国家治理赋能的范围与程度会随着人工智能技术段位的不断上升而变得更广更深。正因如此,对于任何致力于提升治理效度的国家来说,都有理由和动力去促进人工智能的不断发展升级。虽然人工智能可以通过赋能机制提升国家治理效度,但是人工智能在发展与应用过程中又会催生一些新的棘手问题,这使得许多国家又开始 “警惕”与 “限制”人工智能的发展,或者说开始防范人工智能。
如果只是一味地看到人工智能带来的光明前景,而对其风险、威胁与隐忧视而不见,那么人类社会最终可能会自食苦果。然而,如果因为一些风险、威胁与隐忧的存在,人类社会就变得像 “惊弓之鸟”一样开始防范人工智能,那么也未免过于谨慎,毕竟若以安全问题否定新变化,那么科技领域的任何一点进步和发展都会成为泡影[1]。更为关键的是,在新兴产业发展过程中,市场信心极为重要……一旦政府释放强监管信号,或有影响产业发展的负外部事件发生,新兴产业的创新路径和方向会受到直接影响,甚至将会受到毁灭性打击[2]。毫无疑问,所有人都明白解决这一问题最简单的办法就是既鼓励发展人工智能,又重视对人工智能的防范。问题在于,发展人工智能与防范人工智能在国家眼里并不会时时刻刻都同等重要,有一些时段国家需要以 “发展为主”,还有一些时段则需要以 “防范为主”。国家治理的智慧在于找到那些关键节点,并且在发现关键节点之后敏捷切换基调,避免在该转入以发展为主的阶段仍将主要资源与精力投放于对人工智能的防范上,反之亦然。自2016年3月阿尔法狗在围棋人机大战中取胜从而引发新一轮人工智能关注热潮之后,中国陆续发布了 《“互联网+”人工智能三年行动实施方案》《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划 (2018—2020年)》等重要战略,发展人工智能的决心由此可见一斑,随着人工智能应用广度的逐渐拓展与应用程度的日益加深,又先后制定了 《新一代人工智能治理原则——发展负责任的人工智能》《国家新一代人工智能标准体系建设指南》《人工智能伦理安全风险防范指引》等重要文件,十分注重防范人工智能应用可能引发的风险或问题,充分展现了态度基调调整的敏捷性。
1.2 敏捷调整政策边界:“重点扶持”抑或 “明令禁止”
自阿尔法狗在围棋人机大战中取胜以后,中国、美国、俄罗斯、欧盟、英国、法国、德国、西班牙、丹麦、荷兰、瑞典、加拿大、日本、韩国、新加坡、印度、越南、阿联酋等国家和组织都陆续出台了关于推进人工智能发展的专项战略,其他国家如意大利、沙特阿拉伯、南非、澳大利亚、阿根廷、巴西、新西兰等,虽然未发布人工智能专项战略,但是在其他国家战略文件中均有提及人工智能技术并将之作为重点发展领域之一,人工智能成为新一轮全球科技竞争的聚焦点[3]。这样释放出来的信号是,国家对于发展人工智能持鼓励与肯定态度。虽然国家的支持自始至终都是人工智能发展的根本前提,但是人工智能的发展也不能忽视社会态度和市场态度。不过从新创人工智能企业数量不断增多、人工智能领域投融资热情不减以及人工智能应用场景日益丰富等情况来推断,社会层面和市场层面对于人工智能的发展并不存在明显的抵触或排斥,甚至可以说总体上持友好态度。然而,这并不意味着国家、社会与市场在选择发展人工智能的侧重领域时也总是能够达成共识,有一些领域三方会一致支持或一致反对布局,有一些领域则是支持与反对交织。
由于国家、社会与市场在发展人工智能的侧重领域选择上可能存在分歧,因此国家在设计人工智能发展相关政策时,需要根据不同情况确立不同政策风格。对于三方一致支持发展的领域,国家可以 “重点扶持”,至于一致反对发展的领域,则 “明令禁止”;对于难以达成共识的领域,国家不能仅凭自身的偏好与认知进行政策设计,而是要综合三方的态度,视协商情况而定。毕竟国家、社会与市场的态度不会一成不变,此时就需要国家遵守敏捷原则而行动,即将能在协商过程中达成一致支持或反对的迅速增补到政策 “重点扶持”或 “明令禁止”领域内,如此可以让国家的人工智能发展政策设计呈现出宽严相济、层次分明、敏捷调整的风格。
1.3 敏捷预判可能的影响:“技术天使”抑或 “技术恶魔”
“未雨绸缪”是一个优秀执政施政集体的鲜明特质,也是检验一个执政施政集体治理水平的重要标准。迅猛发展的人工智能技术将在不久的未来动摇甚至颠覆我们对于现代政治的固有认知与既定思维,人类社会的制度框架和关系体系或许也面临调整和重塑,可能再次出现 “大转型”或 “巨变”[4-5]。与其等到人工智能在发展与应用过程中积聚的问题大爆发之后倒逼现行国家治理体系与能力进行仓促调适,还不如提前做好理论预案,敏捷预判人工智能技术段位提升所带来的系列影响,充分做好调整、变革、转型的思想准备和条件准备,以便当实际影响显现时可以从容应对,避免出现此类情况:在发生重大技术变革的每一个时刻,所有人、企业、机构都能察觉到变革的深刻,但他们往往因为对其影响的无知而不知所措[6]。或许有人认为,预判跟空想相差无几,预判人工智能可能产生的系列影响没有现实价值。不可否认,关于人工智能可能产生的系列影响,的确存在一些混淆视听、夸大其词的预判,这使得人们对预判的好感度有所下降,然而并不能因此否定预判本身的必要性,恰如未来学家阿尔文·托夫勒[7]所言:一般人往往研究过去以阐明现在,而我则倒转过来,我深信对未来的合理探索也可以为现在提供许多有价值的借鉴。倘若不把未来当做一种习惯性工具而善加运用,我们将更难把握个人及社会的问题。人工智能作为一种新技术,跟其他众多新技术一样,在早期都充满了有意义的前景,但是其最终结果却有着极大的不确定性……技术发展打开了新世界的大门,而这个新世界的最终轮廓却是未知的[8],预判其系列影响实际上就是在描绘新世界的轮廓。关于人工智能到底是 “技术天使”还是 “技术恶魔”,即使预判或描绘出现失准甚至错误,也不应该遭受过多的非议与指责。毕竟在探讨未来的问题时,运用适当的想象力及洞察力远比预测百分之百确定的事更为重要[7]。当然,对预判失准或错误的包容并不能成为胡乱预判的借口,国家还是要致力于作出更有依据、更精细的预判。
2 合作原则:人工智能时代国家治理的关系构建
在人类社会漫长的演化进程中,合作已经逐渐沉淀为一种基础性的关系原则。作为人类社会有史以来最为复杂的活动,国家治理更离不开不同主体之间的多类型合作。虽然国家治理领域中的合作类型以及各种合作的起因、内容、方式与目标等可能随任务场景的切换而发生变化,但是合作原则永远不会过时,人工智能时代的国家治理同样需要遵循合作原则。
2.1 人机合作:未来国家治理的主流走向
越来越多的事实表明,许多人工智能体已经成为国家治理的重要 “参与者”。可以预期的是,随着人工智能的不断发展升级,人工智能体在国家治理中可以发挥作用的空间会越来越广阔。而且由于在长期以来的政治传统中,政治家常常被塑造成邪恶的阴谋者和剥削者,而人工智能体似乎具有天然的无偏性,因此在普通民众心里,人工智能体将会带来更加公正的社会资源分配,普通民众也似乎更欢迎人工智能体而不是人类政治家或管理者来实施管理行为[9]。由英国一家咨询公司发起的有2000名英国人参与的调查显示,有四分之一的被调查者认为,人工智能体可以成为更好的政客[10]。
不可否认,人工智能体在某些问题上的判断速度和计算能力远远超过人类,将某些国家治理事务的处理权交给人工智能体是可行的。然而由于人工智能体并不是永远都能作出正确的决定,因此将国家治理事务处理的决策权完全交给人工智能体并不稳妥。因为人类与人工智能体各自有各自的优势,比如人有知识,机器长于采集数据;人有经验和常识,机器则长于进行公理推理;人有直觉,而机器长于逻辑[11],所以未来的国家治理很可能走向一种人机合作模式。毕竟在很多复杂场景下,单纯依靠机器替代人去解决问题并不现实,考虑到能力范围、时间效率、成本优化等因素,把人和机器作为整体部署的人机协同模式将成为未来的主流,而且人类智能发展的未来形态以及人工智能发展的趋势本来也都是人机混合智能[12-13],这进一步为人机合作型国家治理模式的形成奠定了技术基础。不过国家治理归根到底是要解决人与人之间的问题,人类应该始终是国家治理的核心主体,即使未来的国家治理走向人机合作模式,人类也应该在其中占据绝对的主导地位。换言之,人工智能时代的国家治理既需要给予人工智能体 “特定自主权”,即只在某些国家治理事务的处理方面给予人工智能体自主决策权,同时又保留人类的 “核心控制权”,即在某些人类不愿意让人工智能体介入的国家治理事务方面,由人类独立而完整地掌握该事务的处理权。另外,在某些人类愿意让人工智能体介入的国家治理事务方面,人工智能体所作出的任何决策,都需要经过人类 “审核与批准”之后才能生效,类似于人工智能体只是给出决策草案,最终的正式决策还是需要人类 “拍板”。
之所以只能给予人工智能体 “特定自主权”,是为了避免如下担心:人工智能可能让每一个人在生活中都达到最佳状态——总是选择正确的伙伴、专业、职业,选择正确的一切……不需要质疑道德窘境、安全地知道我们不会犯错。真是这样我们反而处于危险之中,可能失去了作为人类最为珍视的一部分:我们的人性[14]。之所以又必须保留人类的 “核心控制权”,是因为人是智能机器的服务对象,是 “价值判断”的仲裁者,人类对机器的干预应该贯穿于人工智能发展始终[15];更是因为人机协同的混合智能,就应该是以人为本的人工智能,即人本智能[13]。总而言之,未来国家治理中的人机合作治理模式实际上是一种 “人主机辅”模式,而要确保 “人主机辅”模式的延续性,一是要促使人工智能体 “德才兼备”,防止人工智能体 “有才无德”,只有 “德才兼备”的人工智能体才能获得人类信任;二是要重新定义 AI 研究的目标,不停留于单纯的智能开发上,而是开发能充分对接人类价值观的超级智慧[16];三是要防范人工智能的 “反叛”[17]。
2.2 监管合作:促使技术向善的核心举措
由于在数据与算法方面具备独特的优势,国家治理将在更广的范围和更深的程度依赖人工智能企业提供技术支持。如果人工智能企业能够自觉良善地使用人工智能,那么人工智能就可能成为社会大众眼中 “善的技术”,反之则可能成为 “恶的技术”。问题在于,没有人知道人工智能企业到底会不会自觉良善地使用人工智能,更没有人能够保证。虽然有一些人工智能企业已经确立以技术向善为根本特质的各种人工智能发展与应用原则,比如腾讯联合中国科学院提出人工智能发展应该遵循自由原则、正义原则、福祉原则、伦理原则、安全原则、责任原则这六大原则,微软提出开发和利用人工智能需要坚守公平、可靠与安全、隐私与保密、包容、透明、负责这六项基本原则,百度、旷视科技、谷歌也提出过类似原则,但是还有更多的人工智能企业并没有确立类似的原则,而且将人工智能向善的希望寄托于人工智能企业自律并不可靠,外部的监督制约必不可少。毫无疑问,国家监管是最重要和最主流的外部监督制约方式,然而依赖国家监管促使人工智能企业自觉良善地使用人工智能可能面临的难题是,由于目前各国对待人工智能的态度是以鼓励发展为主,加强监管还处于理念主张阶段,并没有形成成熟的监管机制,加之人工智能的技术门槛高,许多算法细节即使是专业人士都可能很难发现其中的偏差或漏洞,因此国家相关组织在进行监管时有可能成为 “门外汉”,这些都可能进一步导致国家监管的失效。这也表明,推进国家监管需要寻找其他力量的帮助。
一方面,可以考虑从人工智能企业中 “借调”专业技术人才成立专门的行业性算法审查机构,以此作为国家推进算法审查的组织基础。行业性的算法审查机构主要通过 “过滤机制”发挥监督制约作用,即由算法审查机构对为国家治理提供算法支持的人工智能企业进行算法审查,“过滤”掉存有漏洞或偏差的算法。这种方式可以对人工智能企业起到一种威慑作用,使其不敢刻意设计存有漏洞或偏差的算法。或许有人担心,有些人工智能企业根本就不在乎自己所设计的算法能否通过审查,那么 “过滤机制”就无法起到威慑作用。这种情况是可能出现的,解决办法就是国家建立 “红黑榜”名单,通过算法审查的人工智能企业暂时进入 “红榜”,未通过的进入 “黑榜”。对于进入 “黑榜”的人工智能企业,国家要压缩其以后为国家治理提供技术支持的空间和机会,让其付出 “高昂的代价”。相反,对于进入 “红榜”的人工智能企业,国家可以考虑增加与其合作的范围和频率。其实,算法审查机构、过滤机制以及 “红黑榜”的存在,还可以间接发挥促进人工智能企业之间正向竞争的作用。人工智能企业之间的正向竞争在某种意义上也是一种互相监督制约,因为任何人工智能企业想要获得为国家治理提供技术支持的空间和机会,就需要尽可能地设计出更先进、更公平、更负责任的算法,其算法设计就要经得起同行的检验。由于获得国家青睐类似于一种名声认证,而好的名声对于人工智能企业自身发展的价值不言而喻,因此人工智能企业之间可能会为了竞争国家青睐而互相紧盯,想要在竞争中胜出,就要尽可能确保不被别人发现漏洞或偏差,就要在算法设计过程中精益求精。
另一方面,促使人工智能向善不能单靠国家和行业的努力,还需要社会大众形成一种 “全员式努力”。短期来看,人工智能的影响取决于被谁控制;长期来看,则取决于是否能控制得住……所有人都应该思考当下能做些什么,才能让人工智能为我们带来更多益处,同时避免潜在的风险[18]。确实,由于社会大众是智能平台、智能软件或智能程序的使用者,或者说社会大众是人工智能关联影响的直接受众,因此社会大众对人工智能到底是在为善还是在作恶最有发言权。如果社会大众对人工智能作恶睁一只眼闭一只眼,那么技术使用者就会更加有恃无恐,人工智能向恶就少了一点阻力。如果社会大众对人工智能作恶深恶痛绝,那么技术使用者就会有所顾忌,人工智能向善就多了一点希望。实际上,由社会大众发现人工智能作恶并最终促使相关责任方承诺整改或遭受国家力量惩戒的例子颇多。这表明,如果广大社会民众愿意及时向国家或行业机构反馈人工智能作恶的信息,国家或行业机构就能依据更迅捷以及更清晰的信号采取行动,这对试图误用和滥用人工智能的企业就会形成巨大威慑。
2.3 资本合作:避免技术寒冬的关键保障
促使人工智能不断发展升级,不仅具有厚实的经济与社会价值,还具有鲜明的国家治理价值。在一个人工智能与国家治理深度黏合的时代,保持人工智能发展的持续性与稳定性特别重要。人工智能的发展如若陷入寒冬,将对国家治理造成巨大的 “损伤”。到底什么因素可能引发人工智能发展的寒冬?答案是资本投入因素。
人工智能的发展需要海量的数据、强大的计算能力以及优异的算法等作为基础,在一个万物互联的时代想要采集更多的数据所面临的难题不大,而算力的进一步提升以及算法的进一步优化则面临不小的难题。研发更先进的芯片与算法需要投入巨大的资本,虽然国家会主动加大相关投入,但是许多国家和地区越来越重视私人资本的投入。欧盟制定的人工智能战略就曾明确表示,充分的私人投资对于实现人工智能变革极为关键,欧盟将持续吸引私人投资以支持人工智能研发和行业应用[19]。问题在于,当芯片与算法研发越来越依赖于私人资本的投入时,私人资本的撤退或投入热情下降就可能引发人工智能发展的寒冬,故而国家需要思考如何才能更好地保持私人资本投入的持续性与稳定性。而要提高国家资本与私人资本合作的持续性和稳定性,防范 “技术泡沫”非常关键。纽约大学心理学与认知科学教授盖瑞·马库斯就曾撰文批评很多媒体在报道人工智能进展时,常常倾向于将每一个微小的新进展描述为将从根本上改变世界的巨大胜利,认为 “过度的宣传和错误的信息将导致AI寒冬再来”[20]。过度的宣传与承诺堆造出来的终究只是 “技术泡沫”,从历史的经验和教训来看,这种爆发性的现象,要么是爆发性的冷却,要么为未来的发展埋下很多隐患,有时甚至将本可以蓬勃发展的新生事物扼杀于摇篮之中[21]。
虽然爆发性的 “技术泡沫”可能短暂地提高私人资本投入的热情与信心,但是当技术的真相显现时,私人资本的热情与信心就可能迅速被浇灭。当初加大投入时有多么急切与期待,后面撤退时就会有多么快速与坚决。因为资本的撤退很可能引发人工智能发展的寒冬,所以国家需要思考如何才能更好地防范 “技术泡沫”的出现以及过度的 “技术炒作”,如何合适地发出权威的声音以引导社会对人工智能形成理性认知。一个让人稍感安心的现象是,现在已经有越来越多在技术领域深耕细作多年,并且富有强烈社会责任感的科学家开始发声,在积极拥抱这一伟大的技术进步的同时,帮助世人理解到底什么是人工智能,它适合做什么,它不适合做什么,以及如何让人工智能的发展更好地助力人类社会[21]。
3 均衡原则:人工智能时代国家治理的尺度把握
对于任何致力于实现国家优良治理的执政施政集体来说,能否把握好中央与地方、国家与社会、政府与市场在能权责利等方面的均衡是必经的考验。随着人工智能渗透到国家治理中的范围越来越广、程度越来越深,在人工智能时代达致优良的国家治理还需要注重一些新的均衡。
3.1 能责均衡:重视技术赋能与重视技术赋责
借助技术赋能以提升国家治理效度,这种情况在人类社会发展演进的历史长河中屡见不鲜。尽管随着多次重大技术革命的发生,国家治理的技术化色彩越来越浓厚,但是由于国家治理的系统性、复杂性以及变动性,基本上不会有国家认为自己达到了非常满意的治理水平从而不需要再借助技术赋能以提升治理效度。恰恰相反,不断推动技术进步并借助新一轮技术赋能以提升治理效度,似乎成为众多国家无法抑制的追求。人工智能是第四次工业革命的标志性技术,具有更加强大的赋能属性,或许正是看到了人工智能为国家赋能的巨大潜力与光明前景,许多国家才如此热衷于推动人工智能的发展。
国家依持人工智能的赋能不断提升治理效度,人工智能也在为国家赋能的过程中赢得更加广阔的发展空间,这是一件 “两全其美”或者说 “互相成就”的事情。然而万事万物皆有两面性,人工智能在多向度上为国家赋能之后也可能导致 “全能国家”再现,而 “全能国家”再现会侵蚀社会活力。与此同时,人工智能为国家赋能还会使得国家治理产生深刻的算法依赖,而算法偏见、算法失误与算法黑箱的存在可能使国家治理产生偏差。再者,人工智能的发展与应用还会引发失业威胁、隐私威胁等问题,如果这些问题得不到妥善处理,最终受损的还是民众与社会福祉,这与技术的原初使命和国家治理的根本追求背道而驰,最后还是需要国家承担处理这些问题的责任。换言之,人工智能在为国家赋能的同时也在为国家赋责。如果国家不愿意或不能及时妥当处理这些问题,很可能使得人工智能的 “名声”受损,进而动摇人们对人工智能的期待,降低人们对持续推动人工智能发展升级的接受度,消解人们对人工智能应用于国家治理的信心。
国家想要长期稳定地借助人工智能赋能以提升治理效度,一个重要的前提就是不断提升人工智能的技术段位,然而促进人工智能的发展升级并不是一件容易的事情。一方面,人工智能技术段位的提升面临一些 “物理性限制”,比如算料的丰富性、算力的充足性、算法的先进性。另一方面,人工智能技术段位的提升还面临一些 “社会性限制”,社会在多大程度上接受技术创新,是决定技术进步的主要因素[22]。的确,如果一项技术不能被社会所接纳或遭遇社会抵触,那么估计也很难获得国家的认可,毕竟在一个日益讲究尊重民心民意的时代,没有哪个国家会明摆着和社会 “唱反调”。就发展人工智能而言,近年来社会态度出现了从 “欢欣鼓舞”到 “忧心忡忡”或者说从 “接纳”到 “排斥”的转变,这对于想长期稳定地借助人工智能赋能以提升治理效度的国家来说,并不是积极的信号。由于人工智能在发展与应用过程中引发的各种问题是影响社会态度的关键因素,因此如果国家能够积极主动地承担处理这些问题的责任,那么想要不断提升人工智能的技术段位就会少很多 “后顾之忧”。反之,如果国家不愿意或不能妥善地处理这些问题,这些问题的存在就可能引起社会层面对人工智能的反感与抵触,进而导致人工智能发展的停滞或延缓,这并不是国家愿意看到的局面。一言以蔽之,一个国家只有更多地承担起来自人工智能发展与应用所催生的责任,才能更好地借助人工智能赋能以改进国家治理,不能只重视人工智能为国家赋能而不重视为国家赋责。
3.2 贫富均衡:关注数字富民与关注数字贫民
随着信息技术、数字技术或互联网技术的不断发展,“数字化生存”[23]成为一种越来越明显的时代趋势。虽然越来越多的人能够利用信息技术、数字技术或互联网技术增进个人福祉,但并不是所有人都能够同等地利用信息技术、数字技术或互联网技术并享受它们带来的总体性便利。一些人因为有更强的能力、更多的机会、更好的条件而成为数字化生存时代的 “数字富民”,反之,一些人则成为 “数字贫民”,一条数字鸿沟越来越醒目地横亘在不同的社会群体之间。
在人工智能时代,国家治理对人工智能的依赖范围会越来越广、依赖程度会越来越深,国家治理的算法化色彩会越来越浓厚。而数据是算法的基础,试想,在网络数据越来越成为各种国家治理算法决策的核心数据来源的情况下,那些连互联网都没有接入的重度 “数字贫民”,还有那些只能产生少量数据的中轻度 “数字贫民”,他们如何能够为自己的利益诉求发声?或许他们的利益诉求根本就没有机会引起国家注意,从而成为 “被国家遗忘或忽略的人”。而那些可以产生更多数量与类型数据的 “数字富民”,他们的利益诉求则有更多的机会引起国家注意,可能导致的结果就是许多国家治理算法决策所依赖的数据并不是具有代表性的数据,而依据不具有代表性的数据所做的公共决策,必然会忽略信息时代的缺席者——数字鸿沟中规模庞大的边缘人群……加剧 “数字歧视”等社会公平正义问题[24],这既有悖于国家治理的根本追求,也不符合优良国家治理的特质。社会的公平正义程度是国家治理优良程度的直接映射,治理优良程度越高的国家就越能增进广大民众生存与发展的福祉,越能赢得广大民众的认同与支持,其后续各种治理行动的推进也就可能遭遇更少的阻碍,这对于任何国家来说都是利好的事情。可见,国家应该致力于增进而不是损耗社会的公平正义。在人工智能时代,要减少社会公平正义受损的程度与可能性,国家就需要给予数字富有者和数字贫困者均衡的关注,特别是要想方设法听到 “数字贫民”更多真实的心声,不能为了省事就将网络数据作为算法决策的最终民意依据。不可否认,由算法基于海量的网络数据作出决策确实快捷高效,能够提升国家治理的技术高度,然而这种可能遗忘或忽略 “数字贫民”诉求的决策方式,实际上降低了国家治理的人文温度。因此,只有在充分吸收 “数字富民”诉求数据的同时广泛挖掘 “数字贫民”的诉求数据,形成更具有代表性、综合性的以供国家治理算法决策的数据集,人工智能时代的国家治理才可能兼具技术高度与人文温度。
3.3 技制均衡:推动技术发展与推动制度进步
技术的核心使命与国家治理的根本追求在某种意义上是高度契合的,都在于增进社会个体以及社会整体的福祉,而且借助技术进步以提高国家治理效度日益成为一种普遍的做法。正是因为看到了技术进步在提高国家治理效度方面的潜力以及实例,许多国家才将推动技术发展、技术变革或技术进步视为长期的国家重点战略,全球围绕不同的技术类型才形成了一次又一次的技术竞争浪潮。
虽然从理论上来讲,随着技术段位的不断提高,人工智能可以解决的国家治理难题的数量与层次也会不断提高,因而也就更有可能促使国家治理效度的进一步提高,但是国家治理的普遍实践早已表明,从技术进步到国家治理效度提高之间还有一段漫长的距离。一方面,技术进步在为国家治理带来新机遇的同时,也可能催生新的治理难题或引发其他治理风险。另一方面,推进国家治理虽然需要依靠技术助力,但是也不能仅仅依靠技术助力,技术只是推进国家治理所需要的众多支持性要素中的一个,技术进步只是提高国家治理效度的众多渠道中的一种。国家治理作为人类社会有史以来最为复杂的活动,就像一台巨大的精密机器,需要众多零部件协调配合才能有效与稳定地运转,技术只是其中一个重要的零部件而已。国家治理这台机器的有效与稳定运转,还需要以制度为核心的其他更多零部件支撑。更为关键的是,技术进步本身也会对国家治理制度提出调适与转型要求,制度方面的落后与陈旧在一定程度上会抑制技术变革与进步的积极效应发挥。国家治理这台机器要想更高效地运转,不仅要重视技术零部件的升级,还要重视以制度为核心的其他零部件的因应性优化、调整或更新。
人类社会朝向智能化时代迈进是不可逆转的趋势,未来的国家治理绕不开智能化这一时代场景,人工智能在未来国家治理事业中将扮演重要角色。不过在人工智能时代推进国家治理也要破除 “技术迷信”,要明白单纯的技术上的可能性并不能必然保证理想社会形态的出现,而是需要更加复杂的社会条件,如经济、社会、政治与法制条件的支持[25],不能认为通过人工智能技术段位的不断发展升级就可以解决所有国家治理问题。有些国家治理问题不是光靠技术升级就能够解决的,不能因为人工智能具有提高国家治理效度的作用,就一门心思促进其发展,忽视技术风险或技术威胁可能产生的国家治理效度抵消现象。不能因为人工智能在国家治理事业中扮演着重要角色,就只想着如何提高人工智能的技术段位,忽视在以制度为核心的其他方面同步作出努力。毕竟有效的国家治理需要的是技术与以制度为核心的其他要素的 “合奏”,而不是技术的 “独奏”或者任何其他要素的 “独奏”。
4 结语
任何执政施政集体在推进国家治理时都会自觉或不自觉地遵循特定原则,不同的国家治理原则设计往往会形塑或催生不同的国家治理风格、治理特色、治理模式,与此同时也可能引发不同的国家治理问题。实现优良的国家治理是一种共通的政治理想,纵观古今,横观内外,无数先贤先哲在思考如何促使国家达致优良治理方面贡献了诸多智慧,其中就包括国家治理应该遵循的各种原则。真正优秀的执政施政集体的一个鲜明特质就是懂得在面对各种国家治理原则时如何承继与创新,既不使所遵循的国家治理原则一成不变,又不使所遵循的国家治理原则时时在变。
未来的国家治理将在人工智能时代这一全新的时代场景中展开,在人工智能时代达致优良国家治理需要遵循敏捷原则、合作原则、均衡原则。有必要说明的是,人工智能时代的国家治理异常复杂,谋求实现人工智能时代的国家优良治理,毫无疑问还有一些其他的原则需要遵循,只是上述原则及其具体要求更具有基础性。虽然它们在丰富的国家治理原则历史资源库中都或多或少可以找到一些对应,但是也并非完全照搬,否则就成了 “历史的影子”。实际上,敏捷、合作、均衡三大基础性原则之下的各项具体要求,都带有鲜明的人工智能时代印记,或是紧扣人工智能时代国家治理的发展大势,或是瞄向人工智能时代国家治理的可能问题,具有浓厚的现实针对性和未来指向性。这也使得本文所提出的人工智能时代的国家治理原则成为一种守正创新式思想产品,既从古老的国家治理原则思想资源库中汲取营养,又能结合时代的动向改换出新鲜形式,如老树开出新枝。再者,国家治理原则多元多样,当不同的原则之间出现冲突时,进行优先性排序是常用的做法。不过本文所提出的敏捷原则、合作原则、均衡原则不存在次序排列问题,它们之间是平行的并列关系,没有哪个原则比哪个原则更重要,它们之间也不存在冲突,遵循其中任何一个原则都不会影响对另外两个原则的遵循。
人工智能时代的国家治理依然充满变数,有使命感的执政施政集体始终面临的一项考验或任务是,因时因势因事增补新的治理原则或修缮原有的治理原则,促使抽象的原则演化出具体的制度或政策,并观照原则的实践回应与效度。如此说来,人工智能时代的国家治理原则设计与操作是一项未竟的事业,还有广阔的作为空间。