APP下载

算法维度下人工智能嵌入治理的风险研判及政策因应

2021-11-11

社会观察 2021年1期

引言

虽然人工智能(Artificial Intelligence,AI)已经成为一个人尽皆知的术语,但其概念定义广泛且模糊,并未形成普遍的共识。而自20世纪初就开始有关“人工智能是否会取代人类”的争论时至今日仍然存在。但事实上此类争论并无太大意义,这不仅仅是因为当前人工智能技术发展依然面临着诸多硬性瓶颈,更是因为对于人类社会的发展而言,重要的在于清楚地知道人工智能到底带来了哪些革命性的颠覆。无论是将人工智能视为一种治理技术,还是福柯笔下将其看作国家权力下的装置,审视其在公共领域与治理发生的“化学反应”,是绝佳的透视窗口,其中包括治理范式的转向以及由此带来的价值变迁。而思考技术引发的风险下如何协调促进与规制人工智能发展的价值目标,以及如何设计人工智能时代的政策规范和风险因应策略等问题,不仅涉及对传统治理框架和制度的深刻反思,是对以“未来治理”问题为主旨的有益探索,更是推动人工智能同经济社会深度融合的前置性要件。

人工智能嵌入治理引发的范式逻辑转向

从历时性看,中国最深刻的社会转型发生在互联网大行其道之时。在以科层组织为载体的公共权力资源衰微和技术治理强制性阐释泛滥的契机之下,人工智能嵌入治理实际上要解决的是互联网时代传统信息传播范式超载的危机。而算法作为技术架构,自然决定了治理的方向和维度,也奠定了人工智能嵌入治理的范式基础。这旋即可以体现为对两个基本问题的解答,即算法的治理与治理的算法。事实上,这也是回答人工智能时代“治理什么”以及“如何治理”的关键性问题。

第一,算法的治理。2016年的“魏则西事件”将百度搜索算法推上舆论的风口浪尖。2006年,美国家长咨询网站KinderStart对谷歌提起法律诉讼,原因是谷歌改变了搜索排名方法,导致其排名一落千丈。无论是对百度搜索的诟病还是对谷歌的起诉,问题的本质都在于诘问算法是否具有自主的治理权力。自步入智能时代后,几乎我们从事的所有事情都由算法决定。各种各样的网络服务商提供的平台依靠它们独特的算法规则,决定我们的决定,接受着我们大量的数据,最终甚至比我们自己更了解自己。而当人工智能技术不断成熟普及,算法权力也日益成为一种社会权力时,日趋紧迫的一个重要议题就是,算法的治理在多大程度上可以被广泛接受。而这背后必须要审视的是人工智能是否具备英国技术哲学家大卫·科林格里奇所说的三种根本属性。

第二,治理的算法。近几年,不断爆出的数据泄露事件让大数据时代的隐私问题成为人们关注的焦点。但事实上,真正值得我们焦虑和担忧的或许是,当我们高度依赖由算法支配的智能生活时,当我们让渡了“识别性”而获得便捷性和高效性的生活轨迹时,是否意味着我们的个体自主性正在逐步丧失?泛化这个案例所要面对的根本困境是讨论人类的主观意识在多大程度可以被程式化,作为诠释人类意志自主性的推理和判断在多大程度上能够被算法所取代。置于公共领域,这是一个治理算法化的问题。如果我们从法律领域出发来看待这个问题就比较容易理解,即法官的自由心证是否可以被人工智能所取代。这是步入人工智能时代后全社会所共同关心的议题之一。而我们讨论治理的算法,真正关切的问题是算法能为治理做什么。这取决于我们对治理主体、价值、方式、手段等的理解,也取决于算法本身的发展状态。

人工智能嵌入治理的风险研判

(一)效率逻辑下治理人格的非自主性

互联网的发展历史表明,网络空间的生成和扩散可以被看成是一个由商业力量推动主导的生产性过程。这个逻辑同样适用于人工智能的发展和应用,而商业逻辑的一个永恒推动力则来自于效率的提升。自人类社会进入20世纪以来,效率与公平就一直是治理体系的核心价值,二者也维持了相对的平衡。但就人工智能在治理领域的应用而言,效率导向始终占据着上风。而效率逻辑的“长驱直入”,不是因为效率和公平在主流价值观中存在高下之分,而是因为对于人工智能而言,把握如何提高治理效率,远要比去把握如何实现公平、正义更容易。而在效率逻辑驱动下的人工智能治理模式亦带来深层次治理人格的突变。如果说,在农业社会的统治型社会治理模式中,人的等级差别和权力关系造成了普遍的人格依附,近代社会政治生活因工业化产生的工具理性膜拜,几乎祛除了公共领域的独立人格,那么以算法和数据为统摄规则的智能社会,则以高度的精准性和客观性剥夺了社会治理者的自主性。正是依赖算法的高度独立性,福柯所言的“技术的主体性”概念愈发清晰,这也印证了“技术并不仅仅是工具,或者不仅仅是达到目的的手段;相反,其是政治行动者,手段与目的密不可分”。这个政治行动者,在效率逻辑的不断驱动下,有着极强的动力以技术的迭代替代制度的更新,并能够通过不断增设专门机构吸纳技术嵌入,在短期内大幅提升政府行为效率与体制效能。但长远来看,层层增设的机构和无处不在的人工智能监控设施,可能使人的主动意识、理性精神、自觉担当消失于无形,由此让人逐渐促成一种机械服从人工智能安排的习性,人的社会性成为人工智能挤压出来的副产品。政府对人工智能的普遍应用,如各式各样的APP,在相当程度上造成了治理人员的技术依赖,那些依托个人情感和自由意志的治理经验和娴熟技能已经不再重要,理性、自由意志和个人情绪亦变得没有必要。而不断迭代升级的治理技术,如人脸识别系统,试图用智能监控替代公共安全制度,不仅蕴藏发酵着巨大的公共安全风险,而且缺乏人文关怀的管理也让政府与公众之间的距离愈发拉大。

(二)深度学习驱动下治理方式的不可预测性

人工智能的“黑箱”问题,即机器在完成某项任务时,它们是怎样思考和决定的,其过程到底是什么,一直困惑着人们。而深度学习使这一问题越来越严重。原因是深度学习的机器涉及数以千计的人工神经元,这些神经元排列成数十甚至数百个错综复杂的互联层。第一层的每个神经元都会接收大量数据信息的输入,进行复杂运算,并输出新的信号,一层一层地向上传送,最后产生整体输出结果。人工智能与其他科学技术最大的不同就是它具有可以独立完成预定任务的自主性。但是人工智能的这种自主行为与人类的决策和行动存在根本不同。具体而言,目前数据驱动的人工智能所使用的方法本质上属于分类、归纳、试错等经验与反馈方法,在方法论上并不完备。深度学习驱动下人工智能的演化路径有着极大的不确定性,其根源在于人类智能与人工智能存在本质差别。尽管人工智能系统设计总是模仿人脑的工作方式,但是在限定的时间内,人工智能极有可能给出人类完全没有考虑过的出人意料的解决方案,即一个通过合并算法和深度学习后得出的“最优解”。但这样的“最优解”却有可能并非是人类之福。例如,近年人工智能技术应用于灾害救治成为一种必然的趋势,但由于灾害情境的复杂性、动态性以及高度不确定等特点,若使用全自动智能机器人技术进行实时决策,将极有可能造成如经典伦理学实验“电车难题”中那样进退维谷的困境,只是悲剧分配的选择权从司机的手里转到了人工智能也就是算法那里。依赖于深度学习驱动进化的人工智能治理极有可能导致人们在国家与社会系统性的疏离夹缝中更为艰难的处境。

(三)黑箱效应下治理规则的不可解释性

显然,学习算法基于的大规模数据搜集、输入并不能巩固事件的确定性,人类社会业已存在的数据都存在明显的滞后性和偶然性,难以指导对于当前和未来的预测或分析,特别是在那些不具有明确目标或者工作产出绩效不明确的人类活动之中,这种滞后性和偶然性会带来更大的问题。数据和算法的紧密依存将会导致未知的“黑箱效应”,进而衍生出难以预估的安全风险,其中治理规则的不可解释性便是自工业社会以来横亘在人类面前的最大“困惑”。现在各大企业、机构应用人工智能和复杂的算法是必然趋势。一般来说,算法会比人类职员表现更佳,但问题在于,如果算法里藏着某种不公,我们将很难察觉。真正可怕之处并不在于目前所讨论的某类“算法歧视”带来的不公,而是这套规则体系将可能不会遇到任何挑战,因为它无从解释,更加不可苛责。

(四)个体微粒化下治理价值的不确定性

当治理表现出更明显的技术维度时,不同主体之间的强弱差距也更为明显。从表面上看,这种强弱差距或者不平等似乎在于掌握了数据和数据解析工具的人相对于那些没有掌握数据和数据解析工具的人拥有巨大的优势,而实质上,数据解析对人的行为的过度“了解”,会对人形成一种看似精细实则往往似是而非的数据化或量化的刻板印象。例如,在一家企业中,管理者可以轻易通过数据解析透视下属的各种特质、能力以及行为倾向,进而为成员匹配适合的岗位和职务,人尽其才、各司其位看似是一个帕累托最优的结局,但问题是组织成员上升进步的其他可能性因为“无所不知”被关闭。人类社会对公平的假定和追求正是进入罗尔斯的“无知之幕”后所设定的。无论是正义的社会分配方式,还是判断特定道德问题正义与否,其必要条件和前提都是“你对自己将来会成为什么人一概不知”。但精准的数据解析和算法模拟撕裂了横亘在人类面前的“无知之幕”,个体微粒化且高度可视化进一步带来的是治理价值的“悬浮”和“混乱”。

规制人工智能技术风险的政策因应

(一)更新“以人为中心”的治理主体意识

就公共领域而言,最为关注的议题之一就是机器人与人类的主体地位平等问题。在未来,拟人态机器人进入我们的生活成为必然,当我们必须接受算法统摄下的人工智能成为新的甚至是主要的治理主体时,更应当在深层次加强对认知的解释与构建,其中对主体性地位的认识和构建是关键。而涉及关于治理主体意识的更新,并不是简单地将人工智能纳入现有的治理体系之中,给予其相应的法律地位,而是要进一步解决人工智能技术发展的定位问题以及重申“人”的主体性地位,进而使人类真正认识到,“激情、热情是人强烈追求自己的对象的本质力量”。“机器换人”拉开了强人工智能时代劳动者主体性危机的序幕,但目前我们已经逐步确立了这样一种共识:保护人,而不是保护工作。据此,我们也应当在智能技术迅猛更新迭代的进程中逐步确立对主体性地位新的认识,“我们可以知道的比我们所知的更多,即我们执行的许多任务都依赖于难以编码化和自动化的默会知识、直观性知识”。换言之,伴随人类优势递减的趋势不可逆转,人类最终将不得不接受自我进化、发展的责任,“不再有任何对人做出先验性规定的因素存在,每个人都可以根据自己的行为和行动去理解和认识人们的身份和社会角色,每个人都通过自己的行为和行动去获得自己的身份和社会角色”。

(二)完善相互构嵌的风险预防与控制模式

首先我们应当意识到风险预防与风险控制在操作规则和目的上并不一致。风险控制很大程度上是为了尽可能减少技术普遍应用所带来的显性或隐性的危害和损失,而风险预防则是为了最大程度杜绝风险性事件的发生。技术是把“双刃剑”,其中所包含的风险往往具有不确定性和迟滞性。当一种新技术对社会的影响在科学上尚无定论的时候,如果这种影响有可能是负面的、巨大的和不可逆转的,决策者就应该假定它会造成这种影响,并据此来制定相关政策和法律,这就是“风险预防原则”。在逻辑上,如果将风险预防理解为先期目标,那么风险控制就是兜底原则。

(三)构建以“解释权”为基础的精准追责机制

从人工智能调整和改变后的社会关系出发,只有在默认算法“可责、可罚”的前提下进行规则和伦理规范的建构才能保障“人工智能更好地服务于人类”这一核心逻辑。诚然,有学者指出,人工智能有强弱之分,当前的弱人工智能缺乏自觉和自主的能力,因此不应当被视为是司法体系中的可追责对象。但事实上,无论是算法下的“黑箱效应”还是“算法权力”的无远弗届,都已经对人类构成了实质性侵权。这促使治理者们不得不开始思考,如何能在真正意义上规制人工智能借由“技术中立”的幌子“横行霸道”。欧洲议会于2016年4月颁布的《一般数据保护条例》(GDPR)规定,在基于用户层面的预测的算法决策等自动化的个人决策中,应赋予公众一种新的权利——“解释权”,即公众有权要求与其个人相关的自动决策系统对其算法决策作出必要的解释。事实上,所谓的“解释权”,不仅仅是在制度层面打开算法决策的“黑箱”,以立法的形式强制要求保留相关数据与算法决策过程的“黑匣子”,或许更具现实意义的做法是在其应用之前就在可控制的前提下对人工智能进行追责机制的技术建构,如依托区块链数据可溯源的特性构建完整的、防篡改的责任链条。而在出现较大的危害和争议时,有着可以申诉的空间和机构,通过对后果的追究倒逼算法决策的内在机制与过程的透明性。例如,欧洲为保护数据信息制定的新法令中甚至包括一条“解释权”——有权要求作出决定的机器作出解释,该法令于2018年5月生效。而当进一步将精准追责与纠错补偿结合起来时,就能够在全社会形成防止恶意使用、算法歧视等更为务实的目标。这是构成新的治理规则形态的“基础性要素”,即构建以“解释权”为基础的精准追责机制,让算法权力的运作链条更加透明,逐步消除人机双方的力量不对等状态,从而真正实现“可解释的人工智能”。

(四)创设人文智能协作治理场景

治理尚存在算法失效或者本就应当禁忌的领域。正如我们怀有法律对任何个案都有矫正正义价值的期待,人工智能至少在当前的智能范畴内还无法独立进行“自由心证”。在更高意义上,我们应当而且必须对人工智能在某些领域的“长驱直入”保持审慎的态度和距离。一份来自牛津大学人类未来研究所的《人工智能何时超越人类》报告指出,裹挟了过多周边技术(如区块链、量子计算、纳米科技、基因工程等)的人工智能极有可能发展为互联网时代的“利维坦”。为了避免这个灾难性的后果,人类开始将更多的目光投向人工智能的伦理建设,“算法正义”是规制人工智能技术风险不可或缺的向度。而在政策层面,努力创设人文智能协作治理场景是关键。所谓人工智能时代的人文主义,不仅仅是指增强智能系统的人机交互设计,而且必须关注这个时代的社会规范和秩序的升级,特别是在多学科融合的视角下构建新的正义原则以及思考和探讨如何在人工智能时代振拔人类的能力。