自动化行政中基本权利保护探讨
2021-01-28
自动化行政,是自然科学涌入人文科学领域的新兴产物。就文法解释角度而言,自动化只是一种外在的表现形式,内核是行政化发展的要求与算法技术结合的必然产物,其并未脱离行政概念的范畴,只是以算法运作过程取代过往重复的、机械化的人工操作,最大可能地减少行政人员的工作负担,以实现对于公民行政权益的保障与国家公权力的平稳运行。但此类界定并非是规范层面的概念定义,而是描述性用语,即将行政行为进行图谱化与数据化,从而代指建构于大数据、人工智能基础之上的系列行政活动。①参见胡敏洁:《自动化行政的法律控制》,《行政法学研究》2019年第2 期。当前的自动化行政活动的类型大致分为两类,即完全的自动化行政与部分的自动化行政。完全的自动化行政行为即完全排除人类的参与,如在2018年11月4日,深圳市试运行“秒批”(无人干预自动审批)行政工作方式,并将其运用于高校应届生人才引进与落户工作中。②参见张瑞宇:《“秒批”!深圳人才引进新政出台 零费用零排队自主选择》,http://news.youth.cn/gn/201806/t20180612_11642736.htm,2020年11月26日访问。从网上申报到办理落户,全程无人参与,实现完全的机器决策。部分自动化行政行为屡见不鲜,即在整个行政行为过程中,实现部分行政行为的机器替代。较为典型的例子即“交通抓拍”,通过测速器与监控设备实现交通违法证据的固定,通过数字技术传回交管部门,进而对违法行为人作出相应的行政处理。尽管自动化行政在一定程度提升了行政人员的办事效率,推动了行政工作规范化、体系化、制度化的发展,但也暗含侵犯公民基本权利的风险。
一、行政领域何以需要算法技术的介入
当下,技术权力已渗透到社会生活的方方面面,私领域的算法决策屡见不鲜。沃尔玛的“飓风蛋挞故事”、搜索引擎谷歌先于卫生部门提前预测流感的暴发等案例无不彰显了算法对于决策的巨大辅助效能。伴随着算法在私领域应用的日渐成熟,行政管理领域也在日渐引入算法决策以更好地辅助政府决策,如芬兰的赫尔辛基市在2020年试验了十种人工智能应用,其中包括通过广场摄像头监测人们是否保持社交距离。①参见潘颖欣:《城市管理到底用了什么样的AI?欧洲两首都城市选择了公开》,https://www.sohu.com/a/431587329_161795,2020年11月26日访问。然而,行政领域何以需要算法技术的应用,当下政府部门对技术的应用是出于对技术的“狂热”抑或是“信息化”发展的内在要求,下文将从行政权的属性和社会发展状态两方面进行分析。②对于行政概念的界定是多方面的,目前,基于行政活动本身的复杂性、活动的范围、结构等诸多因素考量,笔者赞同福尔斯特霍夫提出的“行政只能描述,而不能界定”的观点。行政法探讨的是形式意义层面的行政,故本文也将研究范围限定在形式意义层面的行政自动化研究。
(一)行政权属性与技术范式的契合
相较于司法活动,行政活动对于规范化、体系化、制度化的较高要求,使其更易于与人工智能结合。行政活动与现代官僚制密切相关。美国学者伍德罗·威尔逊提出③1887年,伍德罗·威尔逊在《行政学研究》一文中提出了行政活动的概念。,“行政学研究的首要目标在于了解如下内容:首先,政府能够适当进行的工作范围是什么?其次,政府怎样才能以尽可能高的效率及在费用和能源方面尽可能少的成本完成这些适当的工作”④中共中央党校:《国外公共行政理论精选》,中共中央党校出版社1997年版,第1 页。。而德国学者马克斯·韦伯则提出了官僚制理论模型,包括固化的官员权管辖、机构等级和多层权利机制、以纸质化文件为运行基础、机构官员以专业化为前提、机构官员得到社会普遍尊重,等等。纵使以信息技术为基础的新兴文明对社会各个层面造成了冲击,影响了人们的生活方式与思维方式,人们也在逐渐警惕新兴的“算法权力”的异端突起。然对于“算法权力”的相关探讨仍止步于理论研究层面,作为支撑其的“非国家行为理论”有待进一步完善。结合当下的国家基础治理为分析起点可知,我国仍然处于立法权、司法权和行政权的互相制衡中,“算法权力”在国家机器运行中的地位仍有待探讨。
第一,行政权的运行机制与技术的应用原理十分相似。自动化行政,通过算法辅助行政决策,与韦伯所提出的官僚制理论模型高度契合。算法的技术优势即更多地利用客观化的数据、准确的结果表述来构造算法模型,以标准化、客观化、专业化的目标的算法模型实现了与官僚制既定目标的吻合。算法模型的应用原理即将数据进行分类,进而开展数据学习、分析等活动。目前,算法模型为人所诟病之处,即在于数据分类的客观性和合理性问题,这也正是算法偏见所引发的忧虑。而当下的行政行为在一定程度上就是分类的产物,交通部门、环保部门、科技部门等不同部门的分工俨然是一定层面的“数据分类”。同时,行政行为开展的机制即依托现有的法律授权,“法无授权即禁止”是其区别于私法的最大特色。这种严密依照现有的制度体系开展行政行为的逻辑,较少强调个人主观能动性的特性与算法对高度客观性、精确性的要求十分吻合,进而也可以解释为何行政部门的算法应用比在司法部门的应用更为成熟。社会系统论大师卢曼在1966年就撰写了《公共行政中的自动化与法》探讨过此问题,并试图用规范化的系统论去解释行政行为。
第二,行政行为的支撑理论由国家主权理论日趋向公共服务方向转移,迫切需要技术的介入。卢梭的社会契约理论以国家与人民间的契约为逻辑起点,人民将部分权利交予国家,从而为国家公权力的行权正名。这是国家最初发展的基础理论。然而这套逻辑体系,在社会框架的运行之中,由于行政权缺乏限制而干扰个人的基本权利,极其容易导致行政权的扩张。伴随国家机器发展的日益成熟,个人权利意识不断觉醒,狄骥所提出的公共服务理论开始受到了肯定。公共服务理论的核心是组织,而以公共服务为导向的行政权发展趋向即意味着对于具体工作的明确和最大可能地降低成本,从而提升组织运行的效率。公共服务也就意味着那些政府有义务实施的行为,伴随文明的发展,公共服务的数量也不断增加。而算法决策在提升效率方面的巨大优势成为政府部门追求技术应用的动力。随着算法模型的不断演化,对于行政相对人的识别也更为具体和准确。如公安部于2018年推出的“海燕系统”,能够每秒拍摄15 张照片,准确分析车牌、车身颜色和车辆型号,同时,该系统并不是简单的车辆识别,还可以自动对收集到的百万数据分析对比,识别套牌车等违法情况,实现全方位的车辆管理。
(二)社会发展对法律体系提出了细化的要求
从法解释学的角度,社会发展的程度与法律体系的精密性之间密切相关,社会发展程度越高,其越需要更为精密的法律框架的规制。从原始社会伊始,历经习惯、习惯法、成文法的嬗变,法律体系已细化为多个法律部门,如民法、商法,这意味着,社会发展对法律体系提出了细化的需求,而推演至行政领域,即意味着需要更为精密的行政权配置以满足服务社会发展的需要。
第一,司法体系回应的滞后性要求行政领域率先作出回应。法律的特性之一在于“维持社会稳定”,即法律体系必须具有一定的稳定性,个人因而对自己的行为后果拥有较为稳定的预测,进而规制社会的发展。而法律的稳定性也就决定了在技术突飞猛进的今天,法律很难快速地作出回应。算法技术的迅猛发展远超乎人们的预期。早在2016年“AlphaGo 战胜李世石”之前,人们对技术的认知多停留于“工具主义”的层面,而当算法技术逐步侵入人文领域、心理学领域甚至生命科学领域之后,“技术权力”的研讨风起云涌。技术的客观性、高效性极大地推动了社会的进步,而相关的法律框架基于对现有法律体系稳定性的考量,或出于“回应性治理”的需求,未能及时作出修正。因此,行政领域的回应显得尤为重要。商业领域的算法技术应用的先验知识为行政领域更快更好地接纳算法技术,形成良性耦合,催生诸如“自动化行政”的相关新概念起到了推动作用。
第二,技术发展倒逼行政领域进行技术改革。在人工智能高速发展的今天,技术正在深刻改变着社会的底层架构,政治、经济、法律均在不同维度层面进行着改变。技术持续的进步试图对人类文明进行技术性解构。技术的应用俨然成为当下社会的基础工具,无法使用技术的人也必将为技术社会所淘汰,成为新的“弱势群体”。尽管人们针对人工智能存在诸多的讨论,涉及算法应用对某领域某行业的冲击,或讨论基于人文主义视角的“人的主体性危机”,然这些讨论的最终目的是为了设计出合理的制度以最大程度地利用技术,实现技术向善。而行政领域无论是出于提高行政效率的需求,抑或是必要的国家管理的需要,都应当顺应社会发展的必然趋向进行技术革新。
二、自动化行政的潜在危机
尽管自动化行政实现了行政属性与技术范式的结合,顺应了社会发展的必然需求,但从横向上看,行政法本身就事关个人权利和国家公权力之间的衡平问题;从纵向上看,自动化行政也会导致新型侵权模式的出现,如参与权,个人与政府对数据资源的掌握程度是不对等的,公民的参与度较低,使得政府的决策缺乏必要的民主基础,决策的肆意性使得政府部门可以利用相关的技术手段推进行政管理,算法歧视等新型问题由此出现在基本权利保护领域。
(一)无形中加速了行政权的扩张
第一,行政本身的概念模糊性与技术的结合必然助推行政权的扩张。对于行政概念的界定是多方面的,德国学者哈特穆特·毛雷尔将行政区分为三层面,即“组织意义上的行政、实质意义上的行政、形式意义上的行政”,同时将“实质意义上的行政”区分为消极定义法、积极定义法和混合定义法。张树义教授也作了类似区分,认为行政分为三类,即形式意义上的行政、行政准立法活动和行政准司法活动①形式意义上的行政,即形式外观层面上行政机关的各种活动;行政准立法活动,即行政机关利用类似立法机关活动的方法,针对非特定事项和非特定人所颁布规范性文件的活动;行政准司法活动,即行政机关借助类似审判机关活动的规则,审理案件、解决纠纷。参见张树义:《行政法学》,北京大学出版社2012年版,第75 页。。目前,基于行政活动本身的复杂性、活动的范围、结构等诸多因素考量,我们多采用福尔斯特霍夫所提出的观念——行政只能描述,而无法界定。受制于行政概念本身的描述性特性,由于缺乏明确的界限,故而行政权极其容易扩张。
第二,行政的公共利益性加速行政扩张。从历史角度看,在19世纪自由国家时期,行政权被限制于维护公共安全和秩序、消除危险的必要限度之内①参见[德]哈特穆特·毛雷尔:《行政法学总论》,高家伟译,法律出版社2000年版,第6 页。,但由于国家保留了执行权,依然存在着对于社会和经济的管理,而20世纪工业化和技术化的发展引发的社会问题,迫使人们对于行政管理提出更多要求,即要求国家在社会治理中起到重要作用。国家除了进行必要的安全保障外,也应当提供基本的社会设施,如水、电、煤气等,在一定意义上形成了对公民的“生存照顾”②1938年,德国学者恩斯特·福斯特霍夫在《作为给付主体的行政》一文中,提出了生存照顾的概念,并首次全面论述了给付行政的发展。。然企图回归纯粹的自由放任状态,将国家职能限缩到最低程度,是对整个文明趋势的拒绝。公民对“生存照顾”的现实需求,使得行政权极其容易与技术结合从而无限度扩张。以刷脸识别技术为例,该技术起源于20世纪60年代,当时美、日、德等国的研究限于对基于人脸识别特征算法和一些基本模式识别的领域,为后续进一步深入的研究开展了感知、认知以及心灵学层面的铺垫③参见曹林:《人脸识别与人体动作识别技术及应用》,电子工业出版社2015年版,第17-20 页。,21世纪以来,自然科学领域基础理论的迅猛发展使得刷脸识别技术得以突破性发展,基本实现了精确、快速的识别要求,从而被应用于社会生活的各个领域。新冠疫情在全球范围的爆发,使得公共安全问题被提升到了空前的高度,诸多的技术被广泛而深入地应用于政府行政管理之中。人脸识别技术由于能精确识别个人信息而被各个小区、学校、公司、超市等诸多场景采用,也引发了有关的技术伦理反思。
第三,行政的公共强制性。无论是国家主权理论,抑或公共服务理论,都认为行政在社会资源领域存在着天然的控制优势。马克斯·韦伯提出:“权力是一个人(或一些人)在进行某社会行为中具有排除他人参与,从而实现自我意志的可能性。”④苏国勋:《理性化及其限制——韦伯思想引论》,上海人民出版社1998年版,第189 页。权力的不对等是其行使的一大特性,尽管行政权所分配的是国家公益,但是其依然暗含着高于个人权利的倾向。这种行政的强制性为算法技术引用规避了个人的主观意愿,尽管在最广泛的意义上推动了社会成员的共同福祉,然而也必将加速“技术鸿沟”在行政领域的纵向发展。如在“杜宝良案”中,杜宝良由于未能得到相关行政处罚的通知,从而面临10 500 元的天价罚款。因为交通违章人员可以通过相关网站或短信获知违章信息,而杜宝良并未定制短信,也不具备上网的条件,故未能获知行政处罚的通知。电子化告知方式的使用尺度成为行政正当程序所面临的巨大挑战,一味地强调技术应用的泛化而忽略个人的技术弱势状态,则无法实现将行政自动化的效果惠及全体社会成员的目标。
(二)挑战传统政府治理的理论基础
首先,算法的预设目标与国家治理的目标之间存在机制冲突。在当下,国家治理的最终目标是为了维护社会稳定,最大程度地实现国家机器的平稳运行,允许存在一定的容错率,是为了发现相对真相,唯有如此,才有国家机器的不断改进,不断平稳发展的良好态势。而算法治理则是以发现绝对真相为目的,完全的客观化与标准化,排除感情因素的干扰,导致国家治理的过度客观化而缺乏必要的容错率,很难实现与个人权利的动态和谐。国家在数据技术层面以及公权力层面的主动强化,使得无论从技术和私权利角度,处于相对弱势地位的公民的被动性加剧,容错率的下降也使得国家机器的自我改良难以实现,治理能力现代化与公民权利的保障之间的平衡因此难以维系。国家治理的过程是一个不断向前发展的过程,要与时俱进,但目前的机器学习都以过往的行政数据为导向,依托陈旧的数据学习,很难实现对于当前社会态势的把控,不利于治理能力的不断提升。
其次,算法权力、公权力、私权利三者的衡平问题。当前,对于政府利用算法决策最大的苛责在于公权力的应用中是否应纳入私技术,以及叠加算法黑箱的公权力将会对个人权利保障造成何种危机。然而,技术纳入政府部门的应用从来不是一个新兴命题,人类社会的发展一直伴随着工具的进化。从冷兵器到热兵器,再到数字技术,每一项新技术刚出现的时候都会引发社会的一场变革。正如机器刚开始出现时,工厂工人对于机器取代人力劳动的恐慌与抵制,而算法技术同样也引发了当代人的惶恐与不安。算法技术所依托的数据是当下社会的新型资源,数据资产成为未来经济发展的方向。尽管当下“数据黑产、脱库”、泄露在个人权利主张与社会发展之间产生矛盾,但不可否认的是,数据资源必将成为全球各个国家所争取的战略资源。数字时代的最先发掘者和受益者无疑是公司,以淘宝、京东为代表的电子商务公司率先通过巨大的用户基数得以成为当下拥有最大元数据的技术公司。技术公司对于社会变革的敏锐触感使得其成为社会中率先得以享有技术红利的受益者,而政府相关部门的敏锐度则稍逊于技术公司,这也可以合理解释当下技术权力侵入公权力的理论。算法技术是未来社会发展的方向,一味地排斥政府部门运用技术会使得公权力无法实现现代化,而公权力作为管理社会的权力,如果不能实现与社会的同步发展,则会导致社会发展的结构性混乱,从而在更大层面上侵犯公民的权利。同时,政府的国家背书与企业的自我背书是两者的最大不同,但拥有公权力背书的政府同样为集体组织,其依然享有参与社会资源分配的权利。政府部门参与社会资源分配的历史由来已久,如国有控股公司的存在,又如,国家对于水、电、煤炭、石油等关系国计民生的重大资源的掌控。国家并不能因其公权力属性而放弃对数字资源的监管与掌握,其理应成为数字资源红利的参与者、受益者、管理者。公权力易于扩张,侵犯私权利的这一特质仅是公私权利关系的一个层面,就另一方面而言,两者也存在某种共同的利益,即促进与维护社会的整体发展,社会整体的和谐发展是两者发展的基础,缺乏稳定的社会环境,就无法有效维护公权力与私权利。
(三)自动化行政对公民权利的多维度干扰
第一,数字人格的愈演愈烈。数字人格是指数据控制着业已形成的数字公民(数据本体)活动的数字化轨迹,数据掌控者可以通过技术处理形成数字化人格“画像”,进行基于各类社会行为的评级。①Denyer,S.,“China wants to give all of its citizens a score - and their rating could affect every area of their lives”.http: / /www.Independent.co.uk/news/world/asia/china-surveillance-big-data-score-censorship-a7375221.html.Accessed November 30,2019.从数据人格层面看,个人只是数据的生成者,作为数据本体,个人在数据运行链条上地位较低。而数字公民则指通过使用数字技术所呈现的人们的各类社会表态,是借助数字媒体将线下的社会生活拓展到虚拟空间的方式。因此,数字公民实际是将传统意义上的公民权利和义务延展到数字领域催生的新问题。由此,数字人格成为新型权力的客体,成为针对数据本体(数据公民)的权利义务进行控制的工具。②参见虞青松:《算法行政:社会信用体系治理范式及其法治化》,《法学论坛》2020年第2 期。作为构建于数字化人格基础上的自动化行政,使得人的独立价值被技术不断数据化。当前普遍应用的算法技术出现的各种危机,如“大数据杀熟”“数据歧视”案件层出不穷,反映了数字掌控者在智能时代由单纯的技术层面的优势拓展至社会层面的优势。受制于数字精英主义的盛行,个人在庞大的算法技术面前缺乏一定的话语权。行政权借助公共强制性得以与算法技术结合进而扩张,催生了人的主体性危机。
第二,算法决策引发的权益纠纷。从政治哲学层面看,“政治事务依其本性容易受到支持与反对、选择与抵制以及称赞与责怪”③[美]列奥·施特劳伦斯:《什么是政治哲学》,李世祥等译,华夏出版社2018年版,第3 页。,算法决策作为一种公共管理的手段,其本质性的原理和判断性的标准理应被公众知悉,而且是一种有效的、可以选择的知情权。算法决策的第一环节为数据,就数据层面,相较于私营部门,政府部门对于个人信息的掌握首先是网络状的,并非单项的数据,其次是对于个人数据的掌握层面涉及各方面,且真实性远高于私营部门。以深圳市为例,其打造的政府数据开放平台④参见深圳市政府数据开放平台,https://opendata.sz.gov.cn/,2020年6月27日访问。囊括了包含民生、税务、医疗、教育、旅游、房地产等六个方面。在决策层面,政府部门由于其公共管理的特性对于个人数据的掌握具有天然优势,辅助以公权力层面的特质,将在数据挖掘层面对个人权利的侵犯产生无法估量的影响。如现在广泛利用的监控技术,是政府部门为了社会管理的便捷而设立的,然而也极大地侵犯了公民对于公共空间的“合理隐私期待”(Reasonable Expectation of Privacy)。同时,算法本身设计的缺陷也借助行政行为对个人权益造成了更大的侵害。以美国为例,在2018年,美国纽约州被迫终止了旨在防止家庭暴力的儿童保护预测算法的使用,该算法曾一度导致上万正常父母和其子女被迫分离,其中缘由就是算法程序根据数据分析认为这些父母具有“严重的家暴倾向”。在2019年4月5日,美国密歇根州4 万名居民也因为州政府使用的一款集成反欺诈算法的综合数据化系统“米达思”(MIDAS)提起诉讼。政府通过该系统对该州失业补贴申请进行审核,作出申请者是否欺诈的决定,并对其施以惩罚。然而“米达思”系统的出错率高达93%,致使超过4 万名申请人受害。①参见唐林垚:《遏制人工智能算法的公共妨害》,http://epaper.legaldaily.com.cn/fzrb/content/20200107/Articel10003GN.htm,2020年6月27日访问。
第三,算法决策导致了公民信任的危机。在算法技术不断推动社会发展的过程中,信息社会催生的各类电商平台已经渗透到了对公民个人行为的管理中,而公权力机关也通过各种形式实现某种程度的现代化管理,行政部门与各类商业平台都在试图突破宪法和法律对国家权力与公民权利之间的限制,以实现国家治理或经济运行管理的目的,这样的发展态势无疑对于个人权利的发展是不利的。就行政层面而言,自动化行政是基于人们对于技术的信任,相信依据客观化的技术是公正的、毫无偏差的,虽然在国家行政管理之中纳入技术应用,传统政府治理原理并没有改变。但引入了机器治理,却对当下的国家信用背书发起了挑战。首先面临的问题是机器是否可信。人们对于机器的信任程度历经了由高度信任到现在的保持一定质疑,与工业文明的发展之路类似,社会心态由最初的狂热追求到现在的理性冷静,人们既能认可天然气、石油等资源为人类社会发展带来的巨大价值,又能充分意识到其所引发的环境治理危机。算法的引进也经历了一个这样的过程,研究机构Tractica 的研究主管Aditya Kaul 说,“嵌入各行业的垂直发展领域的人工智能技术,俨然被认为是下一个重大的技术转变,这种颠覆式的革命类似诸多业已发生的技术革新,如工业革命”②参见王超:《狂热背后,你需要知道AI 技术是如何发展起来的》,https://tech.163.com/17/1212/08/D5ELOVQK00098IEO.html,2020年6月28日访问。,但对于技术的不加限制的应用已引发了诸多问题,最为显著的例子是2016年“THE DAO”事件。③《震惊全球的THE DAO 黑客事件全程回顾》,http://blog.csdn.nee//qq.35624622/articl,2020年6月27日访问。“THE DAO”是一个特定DAO 组织的称谓,是由德国初创公司Slock.it 背后的团队创建的众筹项目。该项目旨在构建去中心化的“乌托邦”,其迅速募集了1.5 亿美元,然黑客借助技术漏洞成功收集了THE DAO 代币销售中持有的以太币,使得诸多投资人陷入危机,但该行为又是符合系统所依托的智能合约。该合约旨在建立一种独立的排除外界管制的协议。故而,“THE DAO”事件引发了热烈的讨论,技术的可信度受到了极大的挑战。其次,行政权的行权基础是基于国家与公民之间的关系,而依靠算法进行决策的新技术是否已超出现有的行政框架体系,西方学者历来存在争议。第一种观点认为,数十年来,将技术应用于政务决策的实践一直存在,因此,依靠算法作出管理决策并未超脱行政领域;第二种观点认为,算法决策虽然与传统的决策原理类似,但所依托的庞大的数据模型俨然已经创造了独有的大数据生态,拥有自身独有的运作体系。
三、基本权利保护的治理路径探讨
自动化行政的效果必须惠及所有人,正如英国学者A.J.M 米尔恩所言:“社会共同体形式的差异与特定制度的差异都必须在同一件事情上得以统一,即对于所有伙伴成员福利的实际关心。”④[英] A.J.M 米尔恩:《人的权利与人的多样性——人权哲学》,夏勇译,中国大百科全书出版社1995年版,第158 页。实现自动化行政技术的全社会覆盖,必定在最广泛的意义上推动了社会成员的共同福祉,然而就部分成员的个人利益而言,却存在明显的弱化,故亟需以基本权利为视角进行相关的治理路径探究。
(一)回应性治理的必要性
目前,规范研究关心的是算法技术可以被应用的形式,以及在特定情境下使用算法可能要承担的责任,在法律作为最重要的科技风险防控手段方面,除了部分综述性、原则性论述外,目前缺乏与其他社会规则耦合的系统性梳理和体系化的政策建构。
算法技术应用本质上是一个哲学问题,人们思考怎样制造计算机,开发程序,去实现人类能够做的事。这其中代表着两个具有分歧的哲学问题:第一,让计算机去做那些人类运用智能做的事,使得人工智能与人呈现一致的表征,即“类人”,那么就可以认为计算机与人的行为具有相关性;第二,认为技术具有独立的认知内核。因此,就必须提供一套系统的解释意向性的理论。无论是哪一种,算法技术的应用都代表我们可以对人的大脑和心灵进行精确的说明。心灵的活动同感觉输入、行为表现和心理因素有关。不仅心理现象是可以计算的,大脑也是一种计算的系统。我们通过对人工智能的研究,能否设计出具有计算能力的网络,而原本这些计算是通过人的心灵去进行的。
算法技术作为一种现象对法律的稳定性造成了冲击,法律产生了较为突出的回应性特征。算法技术通过改变生产和生活方式影响人们的行为模式,继而引发社会范式的转变。法律对技术的回应虽然是传统性的命题,但是近年来,全球范围内人工智能对于立法的稳定性造成了冲击。立法需要一方面对于社会现实给予恰当的回应,同时,频繁的立法会导致社会规范共识性的降低,进而导致稳定的法律依据对权力执行预见性和控制性的降低。故而,法律不适宜频繁地回应,只能通过依赖行政权的方式维持社会机器的运行。
如果以法律对人工智能的回应进行较之于传统规制方式的外部观察,那么行政权力从规范依据、裁量幅度等层面获得了突破和扩大,主体之间的行为依据、行为方式、行为目的都发生了变化,导致公私治理的界限被打破,我们也改变了过去发现法律、尊重法律传统的法律演进方式,而更多地进行法律创造、体现出构建性特征,并出现了传统的普通法法系和民法法系合流的全球化趋势。在具体的制度设计层面,又有治理主体和治理手段的变化。
规则的建立必须借助于反思进行经验的梳理,推演至自动化行政领域亦是如此。行政是法律实施的重要环节,其无法与法律的发展脱钩。作为法律事实的道德风险预判依据的是伦理的逻辑,是人进行自我认识和社会认知的价值与行为基础。虽然自分析法学派诞生以来,一直试图完成法律的独立性的地位确立,同伦理、哲学、宗教、政治学和自然科学划清界限。但是,在算法的规制问题上,法律必须借助伦理来论证自己的正统性。因为只有借助伦理和道德才能深化法律的历史基础,从而具备神圣性,为相关的自动化行政正名。
(二)技术与法律的辩证关系
自动化行政中涉及国家、技术公司、个人三者不同的价值诉求。国家以公权力的现代化与科学化为追求目标,而个人以最大程度地自由行使自我的私权利,防范公权力入侵为基础价值导向,公权力与私权利的矛盾是天然存在的,而技术公司作为现代化行政中引入的第三方,其价值诉求并非属于中立第三方。技术公司因为算法中不可避免的隐形歧视问题而无法实现中立,同时其又具备自我利益最大化的价值追求,故三者价值诉求有重合也兼有矛盾。
技术的发展带来技术同法律辩证关系的思考。罗马法正是借助着技术的进步取得了对宗教的胜利。以自然法取代神法的过程,体现了主权国家与技术的一致性的观点占据了主导。随着立法过程的完成,国家法取代自然法获得了神圣性,并通过统一完整的法律秩序将法的权力委托给诸如法官、警察、医生等社会日常规则的掌控者。虽然法律规则的表述是以概念分析为基础的,但是法律仍然是面向实践的、由人操作的技术。对待法律和技术的关系问题,其中有几个问题牵涉到规则治理的核心问题,比如,人工智能技术仅仅是法律的调整对象,还是应当秉持着对人工智能的价值判断?
首先,在对待规则的问题上,行政行为存在自身的矛盾性,即我们并不是仅仅描述人们同技术的互动性关系,还包含着应当的因素。但是一旦进行应然的判断,又毫无疑问地会与治理问题相关,是一个价值判断,而不仅仅是对现象的一种科学研究。不可否认的是,这种实证精神本身蕴含着对国家社会生活的服务。
其次,行政行为内部要素的价值强化。算法技术在人的行为模式和社会范式两方面引起变革效应,从法的外部观察看构成了立法的回应性特征。行政法作为部门法得到扩展,授权性立法增多,成文法的制定更加具有构建性。从法律体系内部的要素性考察,当法律的变动性增强,较之于稳定的形式内容,法律的价值被凸显。虽然,一个民族可以有意识地选择其政治道路,但其社会和文化的发展可能是更加有机的、更少有序的过程。①参见[澳]本·索尔、[澳]戴维·金利、[澳]杰奎琳·莫布雷:《〈经济社会文化权利国际公约〉评注、案例与资料》,孙世彦译,法律出版社2019年版,第48 页。必须承认,社会和文化生活往往被有意建构成一种“想象”共同体的过程,就像有意识地选择政治制度一样,一个民族也可以选择他们的经济“地位”,即使经济生活同样是以各种有机方式“发展”的。当下的智能社会,科技的发展影响到个人社会观和价值观的塑造,而我们有意识的“选择”,也将会影响技术发展的最终走向。
任何法律、行政权的正义都具有极大的合理性和正当性,正如我国当初对于“克隆人”的严厉禁止才在极大程度上避免了克隆人类所带来的毁灭性破坏。当今算法的出现亦是如此。正如“两面神”亚努斯那样,既回顾过去,又面向未来,社会发展必须在对未来的向往与过去的反思中穿梭前进。对于自动化行政的规制必须在法律的框架内设计,但是,也应当注意,必须在融合算法技术的前提下实现对于公民权利的有效保障。涉及公共管理职能的行政主体的边界被模糊化,部分社会实体承担了传统的行政机关的职能,已成为技术社会发展的趋向。②张树义:《行政法学》(第2 版),北京大学出版社2012年版,第4 页。算法俨然已经成为一种新兴的权利类型的存在,而公权力与私权利之间的关系总是在理性确定的社会秩序之间不断生存发展,永远处于一种不会消除的矛盾状态之中。通过设计合理的算法运行框架,可以以较低的成本维系两者之间的平衡,也能及时对社会的发展作出算法回应。
(三)以人为中心的保护模式的反思
当我们讨论自动化行政的时候,实际是在讨论如何将自动化行政合理规制在现有的法律框架内,如何在积极适应算法时代技术高速发展的同时,依然使得行政管理不逾越现有的法律规制,实现有效保障个人权利的目的。有关自动化决策的各种规制,都应从普遍公众可以理解和监督的维度出发。当前普遍应用的算法技术出现的各种危机,如大数据杀熟、数据歧视案件层出不穷,这是数字精英在智能时代由单纯的技术层面优势拓展至社会层面优势的结果。个人数字化机制在基础数据采集层面已经相当成熟,并且个体由最初的沉迷于“用户福利”到现如今的权利意识觉醒,开始积极主张个人的数据权,如在“谷歌诉冈萨雷斯案”③2014年5月13日,欧洲法院(European Union Court of Justice)发布“谷歌(西班牙)公司和谷歌公司诉西班牙数据保护局和冈萨雷斯(GoogleSpain SL, Google Inc.v AEPD and Mario Costeja González,以下简称‘谷歌数据隐私案’)”一案的判决书,裁定谷歌西班牙公司败诉,必须移除原告相关网络搜索链接信息。基于本案诉讼中特殊的案件事实和原告主张,欧洲法院在本案判决书中指出,欧洲网络用户可以要求谷歌公司从其互联网搜索结果中删除涉及个人的敏感信息,以保护自己的“被遗忘权”(the right to be forgotten)。参见https://new.qq.com/omn/20180308/20180308G1HHFU.html,2020年12月2日访问。中个人用户对于被遗忘权的主张。尽管个人权利主张的欲望强烈,然由于数字精英主义的盛行,私人用户在庞大的算法技术面前仍然缺乏话语权,而此时相关行政部门的回应理应建立在合理的“理性人”之上。
在康德“以人为中心”的模式中,人是主观目的和客观目的的统一,人之所以为人,存在着价值层面和目的层面的双重支撑。当下,算法技术的发展是以人的主观目的为导向,指引相关技术无限趋向人的思维。然技术乌托邦主义仅仅强化了人的主观目的,并未真正奉行人的客观目的,真正尊重人本身所存在的价值。数字化资本主义无形地渗透到人的思维之中,人类获取知识的能力增加了,但读写的能力下降了;人类总体创造的物质财富增加了,但被数字精英主义者所掌控,故康德的构建人的伦理模型在当下具有极大的现实意义。
人类尊重法律规则是因为政治世界必将给予人充分的安全与尊重。④陈姿含:《人工智能算法中的人的主体性危机》,《法律科学(西北政法大学学报)》2019年第4 期。人类选择应用技术在于对人本身价值的充分而切实的肯定,故抛却人的价值考量,进行完全中立的唯技术论、唯规范论的法律治理也是危险的。以人为中心构建的国家机器在任何时候必将契合公民的最终发展要求,从而为相关的规制提供伦理支持。