全球风险社会下人工智能的治理之道
——复杂性范式与法律应对
2019-11-17张富利
文/张富利
人工智能是这个时代非同小可的科学发现,也成为了21世纪人类社会最重要的科学进步。在人工智能颠覆人类认知的全新时代,人类与机器人之间的政策、伦理、法律关系接踵而至,这意味着地球进入了“二元智能时代”。一个显而易见的事实是,理性化解人工智能所蕴含的巨大社会风险,建构规制人工智能发展的规范体系,需要法学理论的深入思考与价值关照。
人工智能的现代性图景
人工智能区别于既往所有科技的显著特征是其能够以前所未有的速度迅速重新对自身进行设计,这远远超过了受到缓慢生物进化规律限制的人类。风险社会的种种危机成为现代政治的核心部分,反思性现代化、预防原则以及规避风险路径的完善也随之成为当代社会发展的重要议题。值得注意的是,风险社会既不否定人类的科学实践,也不否定社会的发展,而是强调重视人类实践可能发生的灾难性后果,将风险意识作为审慎的反省批判来看待,从而将风险意识转向人类如何能有效防范风险的技术手段、制度安排及机制实施的具体举措上来。人工智能是风险社会的最主要风险源之一,是政府公共管理的最重要内容。它的风险既可能来自“技术—经济”的决策,但也有可能来自法律所保护的科技文明本身,所以,法律选择的实质应是基于风险的决策。
作为一套复杂的技术设计方式,人工智能既是影响社会行为的强力规范,也是产生新价值的生产机制,这在制度上的要求便是对新型的经济利益之合法性进行确认。然而,技术将扩大贫富差距,科技加速了不平等。大数据掌控者们占领了人工智能发展与应用的制高点,使日益增多的人成为更加难以保护自己的隐私和自由并面临失业风险的弱者,这种颠覆层级的改变是史无前例的。人工智能将人类社会带入了一个由社会分层来决定的局面:越来越少的人享有越来越大的自由,越来越多的人受到越来越强的必然性的束缚。人工智能全面渗入社会治理,为民主制度的异化创造了可能。技术能力同经济基础一样,对政治制度、法律规范起到了关键作用。随着人工智能时代的到来,通过专制方式来掌控社会秩序的手段也会更强大,权力对人类的巨大诱惑极可能会让社会治理向专制滑坡。权力、资本对人工智能的介入,极有可能将人工智能引入侵害制度文明的方向,科技与权力、资本一旦形成联盟,对人类民主秩序的破坏将是毁灭性的。未来人工智能的时代将通过系统为王的准则,在资本的强势介入下,可能导致社会的等级制被强化,人类长久以来孜孜以求的平等实现的难度更大,甚至希望渺茫。
法律应对社会变迁的传统模式面临的挑战
1.人工智能改变了法律体系运作的社会空间
法律带有天然的保守性,具有“克制与谦抑”的特质,法律也可以被理解为是倾向于保守的社会规范,并不倡导激进的创新精神,而是以“经济进一步,政治进一步”的循环推进方式徐徐发展。在人工智能时代,保守倾向的品格使法律滞后于技术的进步和经济的发展,导致抢占先机的人群得到了极大的边际收益。最典型的便是我国十几年来电子商务与互联网金融的突飞猛进,在法律制度缺位的情况下催生了一大批获利甚丰的先富者,而在国家不断出台相关规定健全法律规制时,所约束的不过是后面的参与者,而先入行者早已利用政策的漏洞赚得盆满钵满,此时的诸多政策反而成了巩固其垄断地位的护身符。先占者又往往乘胜追击,利用之前政策、法律缺位积累的诸般经济、数据资源优势故伎重施,进军法律尚未介入的各种新领域。这些自诩为时代弄潮儿、敢为天下先的所谓成功者,最终却利用了法律的滞后性立于不败之地,让循途守辙、安分守己指望勤劳致富的人们与其差距无限拉大。更值得忧虑的问题在于,大数据技术改变了整个法律体系运作于其中的社会空间,大数据拥有者与私人的权力被重塑,诸多全新无需依赖法律的全新社会控制方式始料不及地涌现,让现代社会中的每个个体的一切信息都无处可遁,处在被暴露的危险之下,而这种权力的拥有者及行使者却愈见隐秘。显而易见,在大数据时代,权利保护、权力制衡等最核心的法律价值遭遇了巨大挑战。
2.人工智能改变了经济社会结构
人工智能的强势和霸道在于,其发展的基础是大数据,而较早进入互联网领域的阶层成为了“大数据掌控者”,那么先进入互联网领域的尝鲜者自然成为了人工智能领域的拓荒者。他们凭借互联网先占的优势而取得了人工智能的优势,进而利用人工智能领域的优势地位轻而易举地介入包括农业在内的所有传统行业并以绝对优势大占上风。近年来,新型商业模式运作下的“精准农业定点解决方案”以及“植物云”等科技新概念与日俱增,在新事物的试验阶段,国家与社会均持有观望的态度,根据其结果再选择是否介入其中。殊不知,在结果发生之时,也即是大数据掌控者的优势全面形成之时。
此外,人工智能对传统行业最大的冲击之一便是失业问题,大量单一、重复的工作将迅速被人工智能取代。虽然学术界已经普遍认为人工智能取代普通工作是必然,失业问题也将随之而来,但当下关于国家福利政策及相关法律的制定却回避了这个问题,即使是国民收入方案,也仅仅是回应了国家的收入及分配规则。人工智能带来的失业潮仅仅是问题的表面,问题的核心在于失去了劳动便让人类失去了生活的意义。人工智能技术的进步不仅未能让人类如预想的一样获得解放、回归自然,反而让人类失去了劳动意义进而陷入了存在的虚无和迷惑。高科技高福利反而带来了人的异化。
3.人工智能改变了政府治理范式
大数据掌控者所掌握的信息量远胜于公民个人。国家在治理现代化的进程中,政府必然在信息资源上求助于这些占据上风的大数据持有者。工具理性一定程度上消解了司法的意义,智慧管理在实际上削弱了司法的独立地位,智慧应用更是分化了司法平等;至于一些地方法院所做的司法大数据外包业务,也侵蚀了司法公信力。在关涉大数据的领域,公私权力的边界不再清晰,本该属于公权力监管的对象反而成为了合作伙伴,在高科技的飞速发展下,未来大数据持有者成为真正的权力享有者也未可知。掌控人工智能技术的阶层能够运用人工智能技术解析一切数据,并依据这些数据而作出对策。技术的掌控者能够运用人工智能技术进行一切数据的解析,可以用之剖析公权力机构的所有数据,对政府决策、立法过程、法院判决进行数据分析,从而迅速生成对策。这种诱导往往是以合理的方式进行,可以隐秘到让人无从觉察。人工智能将这种看不见的力量发挥到极致,让法律规制与行政监管无从下手,最终陷入了一个由“算法”而非法律统治人类社会的时代。然而算法作为一种程序,天然就带有倾向性——它从设计出来伊始就是为了达到设计者的设计目的。此外,从法律制定的角度来看,人工智能剥夺了普通民众通过民主协商制定法律规则的机会,因为原本繁琐的立法程序、立法调查在人工智能面前被边缘化了,人们被迫不断地接受不能有任何更改和商榷的硬规则。
未来时代人工智能的制度规制
现代社会系统的不确定性和复杂程度无法通过科学计算来描绘和刻画,其所展开的社会过程也让人们无法预测,这导致现代社会的一大特点——“测不准性”。我们的学术探讨能否为即将到来的时代重建一个相对稳定的视野并非问题的重心,因为人工智能时代是一个正在生成与发展的过程而非结果,这个过程需要通过种种层出不穷的技术革新等具象表达方能勾勒清晰。
1.以安全与秩序为第一要义的立法价值取向
法的价值是法的制定的必需,是法的实施的需求,是防止法的失效的屏障,是校正恶法的准则,是法的演进的动因。安全也必然是未来人工智能时代法律体系的核心价值。通过对秩序价值的维护可以稳定整个社会秩序,保障主体的合法权益不受侵害。人工智能远远超过人类智能甚至一切能力的可能性潜藏着极为严重的后果,这些巨大的风险使得立法者在制定法律规范时无法忽视。不仅人工智能的风险规制是立法者的重要考量因素,人工智能应用的安全监测、伦理规则均应成为人工智能法律体系建构的重要方面。未来的立法体系应平衡创新与安全的立法价值。人工智能的立法体系必然体现鼓励创新的价值导向,将“实践理性”上升为“规划理性”,在后工业时代设计出符合社会发展规律的价值。未来在谋划国家发展整体战略下,应对大数据、网络化、人工智能等一系列改变社会结构的技术上作出战略部署,须制定一套安全标准以防控可能的风险,并形成长效的规制效用和监管环境。
2.人工智能技术的人文延展
超级人工智能将最终呈现为只有一个核心主体的系统化内存,人工智能体最终超越了拟人模式的初级阶段而发生质变,进入上帝模式,而人类只有像思考“全能神”一样去解读超级人工智能,方能理解其本质。但作为人类的产物,出现两种以上的“全能神”人工智能不可避免,两种近似于“一神教”的全能超级人工智能一旦出现,战争便是必然了。故此,作为安全闸门的“哥德尔炸弹”必须被设置,以保证对人工智能的“阿喀琉斯之踵”的有效攻击。但悖论随即出现——若超级人工智能具有自我意识,必然能够通过自我学习找到使“哥德尔炸弹”失效的方法。
科幻大师阿西莫夫的“机器人三定律”实际上存在着巨大的缺陷,缺乏明确概念界定的定律模糊之处也导致了巨大漏洞。未来建构的难题是机器伦理学难以作为机器伦理的基础存在。阿西莫夫的三定律并不能成为AI安全研究者抑或机器伦理学者们的指导原则,原因在于义务伦理学直接套用在人工智能的应用领域存在着按图索骥之弊端,显然是“拿着中世纪的地图来行现代之旅”。实际上,阿西莫夫三定律本质上存在着解释疑难,又极难自洽,同时相互之间又是对抗的,而三定律的这些内在缺陷无论通过修正还是补丁都很难克服。未来人工智能的伦理设计应是合作性的、融洽的;而在道德准则的设计技术上更应采用间接规范的方式,因为间接规范可以允许失误,当系统误读或编错了伦理规范,能够有弥补和恢复的机制,最终让一套既合理又科学的伦理准则生成。
3.人工智能的规范之维
全球风险社会下的公共危机治理,本质上是一种文化治理,人类社会的文明进程中要求对社会系统中的纷纭复杂的关系进行合理调整,不断完善组织能力,提升管理水平,最终达致社会整体的有序运转、和谐共生。在大数据、互联网时代,经济发展速度、产业更新换代频率极快,虽然国家、政府在监管方面作出了大量努力,但立法程序繁复、耗时冗长,使得法律的滞后性在“互联网+”的时代更加凸显。而伦理规范能够对社会行为进行先行预设,对当下变化的社会以及未来可能变化的社会关系作出相应调整。故此,伦理讨论是制定法律和政策的基础,对人工智能的伦理研究应当先于立法研究。
建构以伦理为底线的多元一体社会整体调控体系
人工智能行业的崛起,仅仅实现单一专业领域的技术进展是徒劳的,因为是颠覆性技术的技术突破,只有全方位推进源于技术革新而发生的综合性大变革举措才是根本之道。在明确这一点之后,方能理解人工智能时代的挑战并非仅仅限于技术和产业上,而更大的挑战是在经济、社会、政治领域的公共政策选择上。
1.人工智能时代的治理挑战与规制
建立在科层制基础上的社会公共治理结构,能否恰到好处地应对人工智能的发展和应用过程中所激发的不确定性和不可预知性,显然是一个难以回答又不得不面临的深层问题。甚至,社会理性化的进程将是科层制的扩张的传统命题也面临着被颠覆的命运。人工智能必须被严密监管的原因在于其完全有可能演变为社会公共危险的主要源头,当无人驾驶汽车普及后,行驶过程中一旦失控,便会造成大规模连续性伤害。然而新型的问题并不同于飞行器、大坝甚至核能等20世纪公认的公共危险源,人工智能本质就有极强的开放性,所有的个人和公司都能够随时随地进行人工智能的研发应用。人工智能生产模式是开放的,未来发展的不确定性则是必然的,一旦缺乏有效规制与合理引导,便会步入歧途。对于这样的新状况,建立在传统科层制之上的治理结构颇显力不从心。人工智能的发展会冲击旧有的治理系统,其引发的全新社会重大议题也令旧有治理范式捉襟见肘,这就需要一套新的治理体系与更周密的治理工具。人工智能给治理带来的巨大挑战,一方面反映出现有的治理体系于人工智能应对乏力;另一方面人工智能带来的新议题面临着治理空白的境地。
2.人工智能治理政策及监管路径
美日的政策框架上更侧重于科技创新的推动,在政策目标上保持国家高科技在国际竞争中的优势地位。两国在对待人工智能的风险性问题和公共安全问题上,监管逻辑更倾向于“无需批准式”的监管策略,除非有足够充分的证据能够证明其危险性,那么所有的高新科技和新商业运作模式都被默认为是安全的,也就不得禁止。《为人工智能的未来做好准备》作为美国国家战略性的政策,通过常规性的应对方法来强调风险评估与成本——收益原则的考量,判断是否对人工智能技术的研发、应用加以监管。日本于2016年出台了《第五期(2016—2020年度)科学技术基本计划》,是多策并举推进人工智能的快速发展与应用普及。英、法等国采用了“审慎监管”的公共政策,着重强调安全性,新技术和新的商业模式在被证明完全无害后方能被允许使用。两种路径在应对人工智能时代的治理挑战上均有所长。“无需批准式监管”的优势在于为创新提供了制度动力,“审慎监管”出于审慎的政策考量而侧重于安全。不过这两种制度在人工智能的规制上依然存在不足。“无需批准式监管”是事后监管,其预设的是事后监管依赖于合规性判断,是及时、有效的,而这在现实中显然会有疏漏。而“审慎监管”的进路是奠基于人类行为的普遍因果关系,人类都无法对人工智能的行为与决策进行预测,那么开发者更无法证明人工智能的无害运行。
在这场史无前例的颠覆人类社会结构的高科技运动中,政府的角色不能失位,须为人工智能的研究成果建立合乎公正的分享机制,避免资源掌控者的个人、团体单独受益。一项足以改变人类生活和社会结构的高科技蕴藏着巨大利益,谁为技术的掌控者、受益者更必须经过审慎的论证,以保证人类社会的发展兼具效率与公平。政府的及时管理,能够引导人工智能的良性发展,使之不偏离人类命运共同体终极关怀的轨道。