APP下载

智慧警务的风险及其规制机制

2023-01-07

浙江警察学院学报 2022年2期
关键词:警务决策智慧

李 亮

(浙江警察学院,浙江 杭州 530053)

一、问题的提出

由于管理资源更加丰富、覆盖性和可及性更强、管理更加精准匹配,能更好地回应复杂性社会治安防控、打击违法犯罪的需求,以大数据、云计算、人工智能为技术驱动的警务改革取得了迅猛发展。然而,由此滋生的数据采集无限扩大、数据滥用、自动决策削弱执法正当程序、警察权更易进入私域等问题也接踵而来。基于公安大数据、人工智能等警务技术治理到底是扩展了公权力还是更好地保障了当事人权利,是有利于保障公民权利还是成为侵犯公民隐私等权利的更大风险,如何让老百姓在智慧警务中得到更多的实惠而不是承担更多的风险等一系列疑问,愈来愈成为防范智慧警务风险、深化警务改革的重要议题。

为此,学者们的研究主要体现为以下两种进路。一是以不同业务领域为进路研究智慧警务的规制问题。在刑事侦查中,有学者认为,对大数据侦查进行法律控制,可采取侦查规范和数据规范的双重路径,[1]或从程序规范及证据规则两方面进行严格法律规制,前者包括适用范围、适用条件、适用主体、批准程序、实施程序等方面,后者包括证据的排除规则等方面。[2]在警察行政执法中,有学者认为,可从明确大数据技术应用范围、应用条件,增强执法过程透明性、公开性和可问责性以及厘清数据信息权利等方面入手。[3]还有很多学人从智慧监所[4]、智慧侦查[5]、智慧新防控警务[6]、智慧视野下警用无人机使用规则[7]等角度去探讨如何在具体警种业务中规制智慧警务。二是以技术元素分析为进路研究智慧警务的风险防范及规制。从警务大数据角度,认为警务数据采集范围、采集依据、采集与隐私权问题等要采取明确法律授权,[8]或通过《中华人民共和国人民警察法》授权体系补足来解决。[9]也有学者主张通过重视警务流程中的数据法治化、完善警务网络安全防护技术、加强伦理规范和第三方市场规范等途径来防范数据泄露等安全风险、数据权力扩张与数据权利冲突等法律风险。[10]从警务算法及其应用的角度,认为算法权力嵌入公权力后,异化风险不断增加,[11]算法权力威胁了个体的隐私与自由,算法歧视与偏见导致更深层次的不平等,应当构建算法公开、数据赋权与反算法歧视等算法规制的具体制度来规制警务算法,[12]要加快制定人工智能科技特别法,[13]要探索确立智慧社会治理的新理念、新思维、新机制、新策略等。[14]上述研究为阐释智慧警务存在的风险提供了很多有益的尝试,为智慧警务实践者防范智慧风险、消除智慧警务带来的问题提供了很多有益的途径。“从不同警务领域分析进路”以点带面,让我们对智慧化手段介入各警种警务有了深入了解,进而对“智慧化后的警务”在面上可能出现的风险及其规制有了全景式认知。“从不同技术元素角度分析进路”由面及点,让我们对“警务的智慧化”在纵向深度应用中的风险及其规制有了立体化的理解。

本文试图同时结合运用以上两种进路,主要以技术及其法律风险为切入口,分析智慧警务技术消解了法治目标、压缩甚至弱化了程序空间,使得警察权更加模糊地进入私域,违背了警务技术治理的初衷,不利于警务改革综合目标的实现,同时,提出规制智慧警务风险的事前预防、事中监管、事后救济的三大机制。事前预防机制主要针对技术主义弱化警务法治目标的风险,提出要从数据正义的价值取向和健全技术标准去预防;事中监管机制主要针对智慧化警务技术消解了公安执法正当程序的风险,提出要对警务数据采集和运用、警务算法的决策和适用范围加强程序控制;事后救济机制主要针对智慧警务导致警察权更加容易进入私权利的风险,提出要加强警察机关在算法决策中的责任,健全公安机关算法归责原则,同时,强化公民在受到侵犯后的实体权利和程序权利的保障。

二、智慧警务的风险及其成因

到目前为止,学界对智慧警务的概括,代表性的主要有“功能论”“模式论”“技术论”“机制论”等四种。“功能论”认为,智慧警务是适应现代警务功能特点,通过互联化、智能化和物联化,从而促进公安机关各个系统、各个模块功能集成、协调运作,实现信息数据高度整合、共享的警务目标;[15]“模式论”认为,智慧警务是能够实现“智能指挥”的新型警务运行方式,海量地掌控与人相关的“屋、车、场、网、组织”等周边要素信息,从而形成动态化的轨迹管控机制,实现智能办公和智能监督,极大地提高工作效率;[16]“技术论”认为,智慧警务建立在公安机关海量数据信息的占有与运用之上,警务更加智能、开放与人性化;[17]“机制论”认为,智慧警务是公安机关为了回应智能化社会等新警务环境,运用云计算、大数据等技术对警务机制进行改革,进而建立的一种新型警务机制。[18]无论哪种界定,共同点在于,智慧警务都离不开警务信息数据化、警务运行算法化、警务业务场景化等三项内容,大家在智慧警务的本质是实现警务方式、手段和路径的智慧化上形成了共识。因此,应当主要从智慧化的手段、方式和路径等技术层面入手,认真总结智慧化警务技术带来了哪些风险,并深刻分析引起这些风险的缘由。

(一)警务技术主义思路弱化了警务法治的目标

技术有天然追求效率的属性,与追求公正的警务法治目标产生了一定张力。警务主要指作为治安行政力量和刑事司法力量的公安机关依据法律从事的各项事务,包括安全防范、治安管理、行政执法、刑事司法等多项事务,是法治政府的重要组成方面,也是法治治理的重要环节,追求公平、正义是其应有之义。智慧警务是大数据、云计算、5G、人工智能等高新技术在警务领域的集中体现,目的在于不断提高警务的效能。技术一旦形成自己的运行惯性,技术治理的结果难免以效率、效能为目标,裹挟着警务人员跟随着技术的步伐,依从技术的逻辑开展具体的治安管理、行政执法等,而忽视相对人的隐私、知情权、自决权等权利,滋生不公正。为了更好预防犯罪,北京市怀柔区警方在2013年建立了“犯罪数据分析和趋势预测系统”,[19]苏州市犯罪预测系统在2015年已覆盖91种违法犯罪行为,[20]犯罪治理从事后打击转为事前预测,但由于算法具有机器优势、架构优势和嵌入优势,其不断强化自身的判断和预测,形成相对独立的认知,反过来又来塑造、强化执法者的认知,针对某个地域、某个行业,甚至根据行为人的衣食住行的分析形成的预测,算法会自动回馈执法者的发现,进而形成回路。特定危险人群的锁定和分析往往会针对有前科记录的人,强化了犯罪人的标签化效应,形成了“关注特定人群的行为本身会造成特定人群再犯危险增加”这一悖论,[21]加大了对该类群体的偏见与不公正,扩大甚至破坏了社会公正。

技术逻辑的主动性冲击了法治逻辑的保守性。人工智能时代,警务应用中的算法构建了治安防控、重点人口管理、群体性事件处置等不同治理系统架构,执法者进入系统架构后,行为即受到算法的支配,而借助源源不断产生的数据,算法系统架构可以内在发生延伸,并在不同系统之间共享数据以持续形成执法者的判断,这成为技术治理的主要逻辑,自主学习、自动预警、主动出击。这种技术治理的逻辑为警务服务,即要求在违法犯罪发生之前就预警并加以制止。“对我们而言,危险不再是隐私的泄露,而是被预知的可能性——这些能预测我们可能生病、拖欠还款和犯罪的算法会让我们无法购买保险、无法贷款、甚至在实施犯罪前就被预先逮捕”。[22]侦查启动的依据不是基于已经发生的客观事实,而是大数据通过警务算法形成的一般性、类型化预测,这与刑事诉讼基本原理规定的对犯罪事实的侦查是一种回溯性重构显然南辕北辙,刑事法治的题中之义应当是也只能是对已经发生的犯罪的惩罚,这也是法治保守性的应有之义。更何况,数据分析存在分析挖掘的误差甚至错误,无辜的人被认定为“犯罪嫌疑人”更是对法治精神的背离。

(二)警务智慧化给公安执法正当程序提出了前所未有的挑战

警务的智慧化弱化了警察行政的公开性。程序是看得见的公正,公开、透明、公众参与已构成现代正当法律程序基本的、甚至是不可或缺的内容。[23]智慧化技术最显著的特点就是专业性,专业的警务算法要取得更精准的治理效果,需要更多的数据及其对结果的不断重塑。在这一过程中,一方面,警务数据的收集往往基于公共利益豁免原则,本身很难透明;另一方面,警务算法设计原理及其决策过程很难传递给普通大众,大众没有机会获得这种解释,因此,进入某一警务算法诸如电子类证据的采集及其可能引发的证据合法性认定程序被“算法黑箱”所遮蔽。何况,作为技术的算法拥有天然“不可解释性”,技术本身可以以软件著作权为对抗事由获得不被解释的机会,而且,公权力机关往往不愿意对算法的采购、设计及其运行予以公开,不仅是担心可能阻碍治安行政、犯罪预防等警务目标的实现,也可能偏向于以“不可解释性”为背书来逃避可能到来的未知法律责任。

警务的智慧化异化了法律因果性,消解了警察执法程序。追究法律责任的前提是损害行为和伤害结果之间存在法律上的因果关系。但建立在算法自动化之上的自动驾驶导致伤害后,其法律责任如何分配?警务算法引起对行政相对人的赔偿之后,公安机关内部如何划分责任?这类伤害结果和算法之间的因果关系构成法律上的因果关系吗?此外,之前法律上的因果关系的链接往往靠经验与逻辑,但是智慧警务中对犯罪的预测,对治安问题的防范往往不再执着于经验上的因果关联,转而借助海量警务数据直面模糊与混杂,[24]从看似不相关的现象中找到切口,如维克多·迈尔-舍恩伯格指出的那样,“知道‘是什么’就够了,没必要知道‘为什么’。在大数据时代,我们不必非得知道现象背后的原因,而是让数据自己‘发声’”,[25]“对过去犯罪数据中的模式和相关性进行识别和分析,预测发生犯罪概率较高的时间和地点,并将警力部署到可能发生犯罪的地区”,“通过智能技术分析过去犯罪活动的社交网络,使用机器学习和算法来识别可能的肇事者或受害者”,[26]可以认为是以“全数据”代替“样本数据”扩大探寻犯罪可能存在的时空,也可以认为“不是‘因果关系’,而是‘相关关系’”[27]来推动警务目标的实现。而且,在假释、减刑等处罚情节中采用风险预测算法,相当于用实然来推断应然、以相关性而非因果性进行推理,无疑否定了无罪推定原则的程序性保障。

智慧警务中的算法自动化决策压缩了行政程序的空间。程序不仅具有工具性价值,还具有构成性价值。[28]工具性价值的目的在于提高警务效率,关注的是警务活动的整体流程;构成性价值的目的在于某种特殊的价值,比如交警当场做出处罚时必须亮明身份、讯问之前必须告知犯罪嫌疑人有委托辩护人的权利等,关注的是警务活动程序的完整性。在交通违法的自动识别中,算法自动化决策可同时完成调集数据、识别车辆、分析违法行为、形成车辆违法数据,经过交警部门审核,通知交通违法行为人。除了人为加入的审核环节,其他环节均可在技术上瞬间完成,原有的按照人的活动步骤设立的诸多行政正当程序的发送信息功能均被省略,[29]难以分离活动的步骤、方式,使得警察行政正当程序无用武之地,直接损害了行政相对人的程序性权利,可能还削减了其实体权利。

此外,技术治理的依赖导致警察权专属性的弱化。为了精准、迅速打击犯罪,很多警务活动,典型的电子证据采集等经常需要寻求大型网络技术公司的支持,甚至会采取“外包”的形式进行公私合作,现实的运作过程很难做到界限分明,相关公司因此获得了事实上只有行政执法、刑事司法中才拥有的监控、调查、初查等公权力,其显然违背了警察权的专属性。

(三)警察权进入私权利的方式路径更加模糊

智慧化的技术不仅赋能,提高了治安防控、打击犯罪的能力,更重要的是,技术还赋权,强化了警察权的社会控制。[30]一方面,人工智能等技术介入警务,缓解了治安治理资源的紧张,突破了以往通过民警人力很难下沉社会每个触角的瓶颈,公共场所智能视频监控、人像识别、缉查布控平台的视频导侦等实现了对复杂社会更加有效的治理。但另一方面,智慧警务中以技术为载体和牵引的警察权可以更精准地触及每个个体,个体的自治空间被压缩,个人的隐私权尤其是互联网上的各项个人信息权利更加容易被侵犯。

智慧化的警务技术不仅增强了警察权的广度,而且增强了警察权介入公民私权利的深度和力度。警务数据的不断增多,警务应用及其算法的不断优化,算力的不断增强,算法决策系统使用“超级推理”,能够以微妙而有效的方式塑造用户的感受和行为,破坏个人的独立判断力。[31]这种优势不断增强的一个附产品是,国家对秩序和稳定的重视进一步附加到不断提升的警务能力之上,客观上增强了警察权进入私领域的力度,诸多庞杂的社会问题随之附加在警务之上,一定程度上模糊了警察权在社会治理中的边界。而且,警务应用往往融汇了大数据、5G和人工智能等多项前沿技术,伴随科学技术更迭升级,其收集、存储、运输、使用个人信息的能力持续强大,在警察权面前,个人愈加立体透明,[32]表面看,算法越来越让数字世界成为人类观察和认识自我的“镜子”,以至于让我们进一步认为,在日趋脱离客观物质世界的同时,由大数据而构成的数字世界又让我们越来越接近真正的自己,[33]殊不知,真正接近的自己是算法的结果。

智慧化的警务增加了公民判断警察权是否侵入私域的难度。一方面,基于技术上的不平等性,警务应用采集、存储、运输和运用公民个人信息往往依赖数据资源和专业技术知识的垄断,其决策机理难以被普通公众所理解,算法权力借由技术屏障达成了技术化统治,[34]个人很难通过自身能力来鉴别和判定。另一方面,基于地位上的不平等性,即便个人明知收集个人信息的方式或者警务应用提供的隐私政策不合适,但却无法形成法律上的有效对抗,相对而言,警察行政机构更熟知政府公共政策、警务运行机制,善于利用这些机制、政策变相逃避个人抗辩。此外,一旦警务应用侵犯了公民个人信息权等私权利,个人很难针对警务算法决策的违法性提出诉讼请求。当前,公民针对具体行政行为的违法提出行政复议、行政诉讼或申请行政信息公开的同时,是否能够包括算法决策,或者说算法决策能否作为具体行政行为或其中的一部分,还尚不明确。行政机关可能以算法涉及国家秘密、商业秘密、个人隐私或属于内部信息为由,[35]而拒绝行政相对人的申请。

三、预防机制:数据正义与技术标准

无论是警务智慧化可能导致的警务与法治公正目标的偏离,还是技术治理把复杂社会问题简化为数据计算导致的警务综合治理目标的偏离,都涉及大数据运用、算法设计、智慧警务应用的目标取向问题,如何在事前预防智慧化的技术偏离警务改革的目标,是防范和化解智慧警务风险的第一道关卡。计算正义、数据正义、数字伦理、人工智能伦理等观念、价值的讨论,[36]成为破解这一难题的不二之选。智慧化的警务技术不但具有工具意义,提高了警务活动的效率,还对深嵌在治安防控、犯罪控制、秩序维护等警务中的社会生活产生了重构意义,甚至重塑着公正观等共同价值,因此,包括数据、代码、算法以及由它们融合形成的智慧警务技术,也应当具有价值取向。当把这些价值取向深嵌在警务化技术的设计及运用环节,即建立了在事前预防智慧警务风险的第一道屏障。

技术正义“家族”被认为主要包括数据正义、代码正义和算法正义。[37]在智慧警务中,则主要涉及警务数据的公平占有和合理使用及对其阐释的价值取向问题、警务算法设计的偏好及正当性问题,以及如何防范算法偏见、算法歧视、算法黑箱问题。

用法律的价值去约束并整合技术正义。当人们发现算法在赋予同距离乘客不同网约车价格的时候,算法实际上已经在平台、消费者、生产者之间赋予了权利、分配了义务、配置了责任,这是算法的规范属性,其对人的行为指引作用可以视作法律对人行为指引的延伸。只是这种指引作用造成了不公正,不同乘客享受了同样的权利,却承担了不同的义务。如果在警察行政处罚中,就是不同行政相对人因为同样的违法行为却承担了不一样的法律责任,“同案同判”“权利义务责任相一致”的法律价值取向需要及时纠偏这样的算法逻辑。此外,还要利用法律的确定性去避免智慧警务应用的“不可解释性”。算法设计的专业性、商业秘密属性不排除其透明性、公正化,算法要可理解、可分析,[38]尤其当警务算法侵害了个人权利时,要确保个人能够充分理解警务算法并进行举证。对透明性、可解释性的追寻无非是不断增加算法的确定性,提升用户面对智慧化警务技术的预期性,这种确定性、预期性的算法伦理应当在法律对算法的规制中被法律价值所统摄。

通过建立技术标准去防止算法等技术偏离价值设定。“数据阐释并不是理性的,这不能测量,也没有是非对错的终极判断。阐释永远是主观的,是依赖直觉的,而且也与周边环境紧密相关。同样的数据在不同的环境内容中可以有截然不同的意义,这些意义并非数据所固有,而是人们在特定环境中分析数据并将意义赋予了数据”,[39]大数据分析离不开分析者对数据清理、数据集成和数据规约等技术的取舍,算法设计离不开编写者的偏好,“他们对当前互联网代码的可变和空白之处所做出的选择,决定了互联网的面貌”,[40]技术正义的价值设定必须尽可能限定数据取舍者、算法设计者的主观偏好。一方面,要努力形成技术标准,同一类型警务算法处理个人信息的要素和指标要统一,这类标准可以由公检法等政法机关、相关协会、研究机构联合制定,指导警务应用在设计时即平衡好公权力和私权利,确保运行的客观性、公正性。另一方面,要建立算法审查机制,2021年通过的《中华人民共和国个人信息保护法》中的数据保护专员是这一方面的努力尝试,可以对算法的技术和伦理层面进行单一或一并审查。

四、监管机制:警务数据与警务算法的程序控制

从技术元素角度看,在警务技术应用过程中,智慧警务风险主要来自于两个方面:一是警务数据的采集、储存、传输及运用的风险;二是智慧警务算法设计、应用中的风险。健全完善避免数据滥用、严格数据运用、防范算法偏见、防止算法权力滥用等程序规则,是解决问题的重要突破口。

首先,警务数据的采集和运用直接涉及公民的个人信息权利,针对这种典型干预公民权利的手段需要有法律的授权。无论是警察机关直接采集治安基础信息、基础场所信息、危险物品信息等,还是委托社会机构采集旅馆住宿登记信息、出租屋登记信息,或者是警察机关从大型互联网公司收集个人运动数据、消费选择、浏览记录等动态信息,虽然有其他主体参与,但都是以警察机关的采集、委托和收集为信息警务化的最后一道程序,因此,以《中华人民共和国人民警察法》第二条第一款和第六条为基础,针对数据收集、数据分析等智慧警务中典型干预手段建构标准授权条款,即可解决智慧化技术的授权问题。[41]《中华人民共和国反恐怖主义法》第二十八条、第四十三条,《中华人民共和国网络安全法》第二十八条至第三十条及第四十一条至第四十五条的规定,可以被认为构成智慧化警务技术采集个人信息的授权条款;包括《公安机关办理行政案件程序规定》第八十二条和第八十三条的规定,对涉嫌违法行为的例行检查或者对违法行为人可以依法提取或者采集肖像、指纹等人体生物识别信息等,基本保证了警务数据采集的合法性。然而,针对人脸等敏感性生物信息的采集,到目前为止,法律并没有规定采集主体及相应的采集、储存和运用等程序,杭州野生动物园“人脸第一案”凸显了解决这一问题的现实性和紧迫性。[42]人脸、虹膜,甚至基因,这些唯一性的生物信息一旦泄露,用户身份安全将形同“裸奔”,如果再结合3D打印技术,现实生活中就能实现真正的冒名顶替,个人人身、财产就面临重大风险。《中华人民共和国个人信息保护法》用“敏感个人信息”对人脸等生物性信息进行了概括性保护,2020年颁布的行业标准《App收集使用个人信息最小必要评估规范总则》中提出了人脸信息收集的最小必要规范,但对其采集主体、采集条件和适用范围并没有严格予以限定。伴随智能终端、3D打印技术愈加发达,需要将人脸等生物敏感性信息的采集条件、适用范围等程序纳入一般法律中加以详尽规定,尤其要在涉及治安行政案件、刑事案件的办案规则中予以明确规定,进而对其他规则发挥引领示范功能。

其次,要完善警务数据的使用规则。有学者提出了关于数据使用的“可见性、事先约定、防范不公平对待”三个核心观点。[43]针对警务数据,主要涉及“数据使用的可见性”,其实质包含了“可见”和“不可见”两层含义。一方面是“程序的可见性”,警察机关对个人数据的采集、使用和响应的监管流程应当是能明示的、可见的,尤其要可解释,能被公众理解。另一方面是“个人信息的不可见性”,流程要可见,但涉及隐私、身份信息、生物信息等个人数据,警察机关在使用过程中要确保其安全性,不被案外人员知晓并利用。此外,还要防止警务数据采集及使用的偏差,正如有学者所言“如果没有算法的参与,人类的决策和预测也会产生大量偏见”,[44]作为结果的算法偏见主要来源于人们不断产生的数据偏见,只是警务算法的反复运用,以技术的方式呈现了这种偏见,并以其本身暗含的客观性、理性加深了这种偏见。但其根源仍然在于数据本身的偏见,因此,对警务数据的采集和使用要能发现并纠偏本身的偏见数据及衍生的偏见数据。

再次,要厘清预测类警务算法的适用范围和条件。有学者针对自动化技术引入行政执法过程中后,可能对公民权利造成侵害这种情况,提出了技术性正当程序(Technological Due Process)的概念。[45]预测型警务可能导致之前传统的程序控制失灵,导致权力滥用、权利被无声侵犯。要严格限制预测型警务算法决策应用范围,《欧盟通用数据保护条例》第22条明确规定,如果算法决策对数据主体有法律效力或者重大影响,那么这种决策不应纯粹由算法作出。对涉及限制人身自由的预测型警务算法设计和纳入警务应用,至少要有全国人大常委会制定的法律授权,采取更严格的审查标准。不仅要限制预测型警务算法的使用范围,更要严格规定其适用条件,虽然《中华人民共和国个人信息保护法》也明确规定,个人有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。但是,由于警务类预测型算法主要适用于警察机关内部的风险评估和警务启动,因此,个人没有机会知晓其决策的过程,更没有机会拒绝其预测的结果。警察会根据预测结果允许或剥夺个体的行为选择,比如用来排除潜在恐怖分子的机场禁飞名单系统即是如此。由于对“谁是犯罪嫌疑人”的一系列推断已经深嵌在算法技术之中,因此,要在算法决策内部建立审查监督机制,可以考虑将人民检察院的法律监督功能等监督机制镶嵌到公安机关预测型警务应用的算法决策过程,对其推理并做出决策的一系列算法过程进行审查监督,逐项同意,以使决策得以逐步实现。

最后,针对智慧化警务技术事实上提前启动了犯罪侦查的问题,要尝试分类分层设计调查取证措施。由于犯罪预测系统的提前预报,形成了事实上的侦查提前启动。按照2015年出台的《关于办理网络犯罪案件适用刑事诉讼程序若干问题的意见》规定,“对接受的案件或者发现的犯罪线索,在审查中发现案件事实或者线索不明,需要经过调查才能够确认是否达到犯罪追诉标准的,经办案部门负责人批准,可以进行初查”,初查的启动至少应当具备具体的、特定的犯罪事实或线索,那么,类似“犯罪地图”的预测警务所获得的信息,不应成为启动初查的条件。[46]据此,可以将刑事案件在公安机关办理阶段划分为预测警务、犯罪初查和犯罪侦查三个阶段。就调查内容来看,比照侦查阶段、初查阶段采集证据规则,初查阶段以不干预个人敏感信息为原则,并以经特殊程序许可的有限干预为例外,预测警务阶段则要严格禁止对个人敏感信息的干预。[47]就调查方式手段而言,比照《关于办理网络犯罪案件适用刑事诉讼程序若干问题的意见》规定的“初查过程中,可以采取询问、查询、勘验、检查、鉴定、调取证据材料等不限制初查对象人身、财产权利的措施,但不得对初查对象采取强制措施和查封、扣押、冻结财产”规则,预测警务阶段应当严格禁止采取可能影响个人权利的调查措施,如有必要,必须对照技术侦查措施适用方式强化对初查措施的审批监督。

五、救济机制:算法责任和权利救济

当事前预防机制、事中监管机制失灵,功能没有充分发挥,一旦发生警务数据滥用或警务算法决策应用侵犯了公民权利的情形,则涉及责任分配和权利救济的问题。

一般来说,警务数据滥用主要指公安机关内部人员利用便利或在执行公务中违规查询、收集、使用个人信息,依违法责任原则,其责任的最终承担主体当然是违规的民警。但在警务算法应用中,对公民权利义务产生的影响往往是自动化决策的结果,此时涉及警务算法应用的责任问题,即责任的可追溯性和责任的分担问题。在民事领域,算法责任主体往往涉及算法设计者、应用开发者、应用平台及监管部门的责任,尤其是算法应用平台,因其强大的合规能力,往往被赋予更多的义务责任。但警务算法应用一旦做出了侵犯公民权利的决策后,是否应当由公安机关承担责任?公安机关承担责任的前提是,算法决策行为是否属于公安机关做出的具体行政行为,且这样的决策是否具有违法性。从算法决策行为与公安机关的关系来看,以犯罪预测型警务系统为例,由公安机关委托设计,且由公安机关应用,算法决策行为应当视作公安机关做出该具体行政行为的一部分。从决策行为是否违法来看,如果公安机关不能证明自动化决策过程全程合法,那么公安机关当然应当承担该次算法的责任;如果公安机关能够证明自动化决策过程合法,是否就不用承担该次算法的责任?对于造成的公民权利侵害又由谁来赔偿?笔者认为,应当综合算法决策与损害结果的因果关系的强弱,让公安机关承担相应的责任,如果说前者的依据是违法责任原则,那么后者的依据可以认为是无过错责任原则,这可以认为是智慧警务改革进程中技术智慧化的部分代价。

要及时强化公民在自我救济时的程序权利和实体权利。在大数据引导的警务变革及其实践中,随着事实上侦查启动时点的提前,当然应当允许被干预的权利主体的辩护权提前到同一时点,并加强权利主体在这一阶段有效获取相关证据的权利。同时,由于公安机关拥有比个人强大的数据收集能力和数据挖掘技术,要强化智慧化技术下公安机关对无罪、无违法之类证据的搜集义务。为了避免由于当事人不懂智慧化技术而导致辩护权行使的弱化,还要完善当事人聘请专家辅助人的制度,允许专家辅助人提前介入庭前会议等庭前程序。

智慧警务的范畴很广,文中主要以预测型犯罪系统为例,借助警务数据和警务算法应用两条线索,从技术逻辑—法治目标、技术主义—正当程序、警察权—私权利等维度提出了智慧警务建设应当关注的风险,并分别从数据正义、技术标准、程序控制、权利救济等角度提出了事前预防、事中监管、事后救济等三大规制机制。无论如何被双重空间、数据应用、算法决策等不断重塑,作为执法机关,公安机关的警务必须以法治化为目标指向。警务理论如何积极回应那些智慧化技术带来的颠覆性挑战,并能重构又不断指导警务实践适应智慧社会的法律规则,还需要数字化变革以及一系列警务数字化、智慧化、智能化的努力和尝试。

猜你喜欢

警务决策智慧
新形势下警务战术指挥
为可持续决策提供依据
决策大数据
决策大数据
诸葛亮隆中决策
探究警务战术的本质、知识生成与运用
警务训练中腹痛的成因及预防
有智慧的羊
智慧派
智慧决定成败