APP下载

基于大数据背景下警务预测的伦理规制

2023-03-03吴思奇

贵州警察学院学报 2023年6期
关键词:警务伦理预测

吴思奇,迟 慧

(1.中国人民公安大学,北京 100038;2.安徽省公安教育研究院,安徽 合肥 230088)

一、大数据背景下警务预测的定性

如何界定警务预测的性质,是对它开展规制的重要前提条件。在我国的司法实践中,尚未对警务预测行为进行明确的法律界定,这就导致了警务预测如何启动、何时启动以及关于警务预测行为是否属于侦查措施等问题难以确定。警务预测显然难以利用传统刑事诉讼规则加以规制,这会导致行为的潜在风险被掩盖,大数据背景下警务预测作为一种国家公权力,它使得传统公权私权之间的平衡关系被打破,甚至有可能导致公权力的运行立于无法之地。因此,有必要对警务预测进行定性。从实践中来看,警务预测并非仅仅是对犯罪做出预测。从运行模式进行分析,包含了数据收集、分析、警方干预行动与犯罪人反应行为等四个周期性阶段[1]。

数据收集和分析是警务预测进行价值判断的首要环节,我国尚未明确规定警务预测行为的启动办法,未形成严密的司法令状模式。数据收集和分析行为是立案前延展出来的环节,应将数据收集和分析定性为侦查措施的一个前置步骤,加强其法律控制,通过立法手段确定警务预测的法律地位。在实践中,数据收集渠道一般有三种,一是通过办案机关向网络信息业者[2]调取;二是基于开源数据的网络爬虫等技术的获取;三是包括通过公安内部数据库、税务及银行系统等相关数据库获取。从数据收集的渠道来看,第一种从网络信息业者收集数据的行为体现了一种侦查权的扩张,在传统的侦查模式下,网络信息业者如果了解案件的情况,确有如实作证的义务。例如,在电信诈骗案件中公安机关就可通过网络信息业者掌握犯罪行为人的IP 地址及注册信息,及时地进行账户资金冻结。

在警务预测活动中,如果在刑事案件或违法行为尚未发生的事前预防阶段就要求网络从业者提供数据,就是对侦查比例原则的一种打破,警务预测突破了侦查行为要以特定的违法犯罪事实存在为前提条件,在监管空间上存在较大空白。因此作者认为,警务预测过程中的数据收集和分析是一种泛侦查行为,应该类比侦查措施,在制度设计时参考侦查措施的启动、实行和监督程序,防止技术被滥用。警务预测中的警方干预行动和犯罪人反应行为是警察执法过程的一个周期性活动,应参照相应的执法规则要求来加以约束。从另一个角度来看,大数据侦查措施可以被细分为数据采集和数据应用[3]。既然警务预测包含了数据收集和分析的过程,那么也理应被定义为是一种“侦查措施”。2019 年公安部《电子取证规则》将向网络信息业者取证定义为“调取数据”,这一任意性侦查措施,也反映出类似的思路。综上所述,警务预测从行为特征上应隶属于一种基于大数据的泛侦查措施。

侦查权是存在于公共安全领域的公权力,与公民个人权利相比,二者存在一个此消彼长的关系。警务预测的发展必然带来侦查权的扩张,侦查权的设计功能应该是兼顾控制犯罪和保障人权的,从目的状态来说,犯罪控制和保障人权是统一的,但从实践中来看,二者还存在着差距;虽然从表面上来看警务预测不具备强制性,也没有限制人身自由或财产自由,但是它对于隐私权和个人信息权的侵犯是显而易见的,警务预测还缺少必要的审查、监管与规制环节。

二、大数据背景下警务预测行为带来的变革

(一)由还原真相转变为预测

传统的犯罪侦查模式是事后侦查,即在案件发生后采取侦查措施开展工作,还原案件的事实真相。大数据带来的最大认知改变就是引入了预测功能,通过探索发掘事件过去的运行规律来预测当下与未来,警务预测则通过探索在犯罪行为的存续过程中与周遭事物间的联系来预测犯罪行为的发展态势和可能造成的后果。在进行犯罪预测的活动中,目标对象是潜在高危人群,对这类群体的相关数据进行采集,并就此对一个地区的特定时段或特定个体的可能产生的犯罪行为进行研判。这种活动将进一步提高警务预测水平,推动警务决策机制的思维转变,从“还原真相”向“数据预测”转变。

(二)由因果关系到相关关系

因果关系反映的是一种客观事物普遍联系。在犯罪预测中,原因与结果之间并不是一种简单的一对一的关系,受到认识能力的限制,公安机关在进行预测分析时,不能完全把握犯罪各要素之间的复杂多变的因果关系。相关关系则不然,不追求探索事物背后的原因,而重在挖掘“是什么”的一种实然状态。

犯罪行为本身具有一定的规律性,在小数据背景下,这种规律很难被全部挖掘出来,但在大数据视角下犯罪行为的规律就会呈现出一种较为稳定的相关关系,基于大数据背景下的警务预测正是建立相关关系的基础之上,它改变传统的侦查理念和思路,不以探求案件背后当事人和案件之间的因果关系为目标,重在研究犯罪背后隐含的作案规律。不同于相关关系,因果关系的证明难度较大,如果警务预测只探求相关关系,那么它得出的结论对于行为人的动机探索就存在很大的欠缺,不利于证据链形成完美闭合。

(三)由针对性到普遍性

在大数据背景下,警务预测活动由过去的定量分析升级到以全数据为载体的分析,全数据包含行为人的个人相关信息,如行为轨迹、消费偏好等,这些日常生活数据将警务预测行为由过去的针对单个个体的监控,升级到“全景监视”。全景监视是现代社会中一种独特的监控方式,其特点在于“少数人可同时看见多数人”。全景监视的出现产生了完全的连续性单向监视,从而为一种全新性质的社会控制的到来创造了条件。全景监视在警务预测活动中的体现就是对实时流动数据的监控,是一种由针对性到普遍性的转变,动态与实时消灭了监控视野死角。警务预测由针对性到普遍性的转变是一种历史必然趋势,但仍要小心创新可能带来的信任危机。

三、基于大数据背景下警务预测存在的伦理困境

警务活动要保障实现社会的公平正义,从警务预测的角度来看,为了实现这一目标,要在切实强化大数据思维科学理念,充分运用大数据科学技术手段辅助决策、科学事实认定、依法惩治犯罪的同时,高度重视大数据伦理的研究思考,保护公民隐私权、数据权等合法权益不受侵犯。在制度设计中,人类不仅要具备工具理性,更要重视价值理性。在警务预测的过程中,公权力对公民权利的干预类型发生了转变,这种干预已经逐步由人身权、财产权转向涉及公民的平等权、隐私权等基本权利[4],暴露出了更多的伦理困境。例如,数据隐私的泄露、行为越轨以及信任危机等等。

(一)数据隐私泄露

大数据的应用使数据急速膨胀、数据内容面向大众并高速传播。个人数据很容易泄露并广为传播,当个体面对强大的软件运营商时往往别无选择,只有同意软件运营商的关于个人数据使用的相关协议才能够正常使用软件功能,有时是将个人数据权被迫让渡给企业,警务预测行为也是如此,如何平衡个人数据隐私权保护与警务预测的飞速发展?面对公权力,个体无疑是渺小的,在传统隐私权逐步向数据隐私权让渡的过程中,无形的精神损害要大于有形的财产损害。而精神损害是一种主观感受,难以明确界定。这就对要求实施警务预测的主管机构在制度设计时考虑对数据隐私的保护。

为了满足警务预测功能的需要,公安机关会深度利用企业提供的个人信息,在公安大数据平台的支撑下,这些来自不同领域的碎片化的、原本无害的个人信息聚合以后,就会对个体识别产生一种由量变到质变的效果。[5]尽管这些信息碎片并不是人们刻意想要隐瞒的东西,但当数量骤然提升就会形成一种全新的威胁,警务预测启用前是否应该事前履行告知义务?是警务预测面临的一种现实伦理困境。

(二)预测行为越轨风险

警务预测要保证大数据所采集的信息都是与工作需要切实相关的,不能扩大化;如果不能保证收集的数据情报具有相关性,就可能会导致警务预测行为越轨。所谓预测越轨,就是指警务预测的过程中,将那些本来不应该被列入警务预测指标体系的数据纳入运行系统中来,参考过多冗余数据形成一种错误价值判断,最终导致预测行为的扩大化,可能导致将本来无辜或不相关的人士列为预警目标。

维克多·迈尔·舍恩伯格在《大数据时代》一书中说:“大数据的核心思想就是用规模剧增来改变现状。[6]”警务预测就是用规模剧增来改变警务工作现状,面对海量数据,保证预测行为的相关性十分必要,如果行为有偏差甚至越界,那么必然导致结果错误,进而诱发伦理危机与数字信任危机。与此同时,随着算法的目标越来越偏向提高预测结论正确性,这类决策的逻辑控制越来越变得难以捉摸。因此,如果失去了决策的全局性,抛弃了所有的原则来支持过去的观察。在某些情况下,这可能是不道德的甚至是违法的。

如果预测越轨,将一些不合理的参数加入算法之中,形成类似“惯犯算法”的隐患,那么就会导致无罪推定规则、机会均等原则被打破,甚至会导致陷入狭隘的民族主义和种族主义的风险。在预测越轨行为中,最常见的就是由“偏见”而导致的权力的错误使用。例如,在警务预测的算法设计中,必然要包含一种设计理念即“具有哪些特征的人更容易违法犯罪”,如果设计者本身就存在偏见,将某些地方或者曾有过某种行为的人打上标签,那么最终的运算结果肯定是充满偏见的,这种犯罪预测是显失公平正义的。

(三)数据控制者与数据处理者的权力界限被打破

从现实应用来看,公安机关的警务预测平台的构建和分析主要依靠商业机构的开发,警方主要提出诉求和相应指标参数,但从商业机构购买警务预测技术时,警方可能并不会完全掌握预测平台的数据收集与处理方法。如果警务预测结果出现偏差,公安机关作为数据控制者承担主要责任是否合适存在疑问。最终进行结果评判的人究竟是作为数据处理者的机构还是作为数据控制者的警方?

与此同时,大量的公众数据被掌握在机构手中时,警务预测的要求与机构所受到的商业秘密保护相互冲突(价值排序冲突)商业机构是数据处理者,公安机关是数据控制者。商业的逐利行为导致保证客户的隐私和安全是其私营企业运营和发展的一条重要指标,公安机关作为数据控制者能否顺利从数据使用者手中获取数据,也存在双方的利益博弈。在欧盟的《欧洲议会和理事会关于主管当局为预防、调查、侦查或起诉刑事犯罪或执行刑事处罚以及此类数据的自由流动而处理个人数据方面的自然人保护问题,并废除理事会 2008/977/JHA 号框架决定的 2016/680 号指令》(下文简称为《执法数据保护指令》)中规定:为了预防、调查和起诉刑事犯罪,主管当局有必要将了解犯罪活动并检测不同的刑事犯罪之间的联系也包括在内。这就为数据控制者和数据管理者之间的博弈提供了法律依据。

事实上,相关企业有必要也有义务向主管当局提供相应的隐私数据,但要在当局保证使用的目的和前提下,我国也正在积极出台相关数据安全法案对公共安全部门收集数据的行为进行法律规制,《中华人民共和国数据安全法》第35 条规定:“公安机关、国家安全机关因依法维护国家安全或者侦查犯罪的需要调取数据,应当按照国家有关规定,经过严格的批准手续,依法进行,有关组织、个人应当予以配合。”这为警务预测调取数据提供了法律依据,在作者看来,还应在第35 条中具体细化侦查犯罪的需要包括哪些内容,将视频监控、警务预测行为在法律中明确提出,以期规范警务预测行为。

(四)事实和预测之间模糊导致伦理价值形成灰色地带

早在警务预测成为一种专业活动以前,公安机关就把收集情报信息作为支撑自身警务决策的基础,并在此基础上形成了情报收集过程的伦理规范。例如,在信息收集中需要保护个体隐私、不伤害访谈对象等等。然而,在传统的数据收集过程中,更多地考量获取数据的真实性,并没有把数据对警务预测行为的作用作为重要的参考指标,毕竟预测行为本身有很大不确定性,因此数据的收集过程也就没有受到很大的限制。

事实上,警务预测行为是不是事实,是否存在“测不准”现象,将会决定警务预测的发展走向,毕竟准确度的高低是对警务预测效果重要评判标准。预测和事实之间本身会模糊,形成一段真空地带,预测数据越接近事实,预测行为本身就将逐步产生一种质变,事实和预测之间的界限越容易被打破,最终冲击既有的伦理价值,形成灰色地带。在预测结果和事实之间,应考虑预测误差乃至预测失误存在的可能性,对于某些具有不确定性特征的案件,如带有激情犯罪特征的刑事案件、突发性群体性事件、偶发性暴力事件,这类事件具有意外性、冲击性和不可预测性,即使利用大数据技术,也难以实现准确的预测。但这类极少数无法预测的“黑天鹅”事件却能决定事情发展的走向,甚至改变行为人的命运。

作者认为,警务预测可以存在差异,但是在制度建设中应考虑预测差异可能带来的后果,毕竟警务微观预测是对于个体的直接预测,失之毫厘,谬以千里。个体的犯罪预测,即使是最微小的结果差异,也可能带来毁灭性的打击,甚至还有主观归罪的嫌疑。在一般条件下,预测属于个体的行为,它并不会对被预测者产生直接影响,然而随着大数据技术的广泛应用,预测行为和事实之间的差距越来越小。因而,警务预测技术应该仅仅为执法部门提供一种自由地选择的方向,既不助推,也不直接进行操作,将价值判断的权力交还给执法机构。充分发挥“人”的作用,以“人”的智慧弥补技术的缺陷。

(五)创新造成新的信任危机

创新造成的信任危机是天然存在的,公众对“未知”的恐惧主要表现在无法掌控的事情上,当行为人认定对己不利的结果发生概率很高时,就会产生信任危机。警务预测也可能会面临这种境遇:当个体把自己的相关信息提供给政府或企业时,避免不了将自己的数据使用权移交给了相关部门,行为人期待这类信息不会泄露或二次使用,政府和企业在收集公众数据时也承诺不会另作他用;但行为人在个人数据在收集的时候内心担忧数据会被不正当使用。这种对于未知的恐惧会造成对于公权力的不信任,在实践中,数据的二次利用很难避免。即便是执法部门使用数据是为了维护社会安全,也难免存在对个人权利的侵犯。

警务预测有一定程度的执法前置,公民权利存在被入侵的风险,惩处未犯行为,显然不符合我国罪责刑相适应的要求,犯罪预备行为是不能够被刑事处罚的,因而即使基于大数据背景下的警务预测行为再精准,只要犯罪嫌疑人的行为并没有犯意表示,就不能够采取打击措施。数据带来的仅仅是一种可能性,不是事实的确定性。虽然高超的数据收集行为和良好的数据分析能力能够增加成功概率,也不能够将犯罪嫌疑人脑海中的预想变成实际行动,基于“过去”进行分析历史数据,不能对人的“未来”行为进行价值审判。

创新型的警务预测可以测试并改进警察部署决策、减少行政沟通壁垒。但基于罪犯历史数据的预测增加了偏见色彩,可能导致惯犯和累犯成为重点监控对象,加剧了此类人群与公权力间的信任危机。信任危机带来道德权威的下降,克服信任危机需要在警务预测的制度设计上充分考虑公权力和个体之间的相互信任关系。并通过实际行动和完备制度设计增强道德权威的感染力,执法部门应该在社会参与的基础上,明确警方、企业和个人三方在其中的责任和义务,并用法律规章的形式加强保护,才能重塑三者间的信任机制。

四、基于大数据背景下警务预测的伦理规制

作者所述的伦理规制,是在寻找权利与权力的平衡节点,技术创新是推动人类社会进步的最重要的助推器,要实现“向善”的目标,警务预测技术作为警务改革过程中的重要工具,本身就应具备一种“向善”的属性,助力警务活动可持续发展。在警务预测过程中导入伦理规制,就是为了实现技术“向善”的发展目标。

(一)警务预测的伦理规则革新

任何伦理规则都是具有时代烙印的,制定警务预测的伦理规则要有前瞻意识,不能让自身的道德偏见成为绊脚石,道德的边界是动态的,因为伦理永远在随着时代而变化,关于警务预测的伦理要求也应当是动态的,不应当去静态地刻画。在作者看来,警务预测的伦理规则革新应该包括以下几点:

1.风险与利益平衡规则

在前文中,作者将警务预测界定为一种泛侦查措施,从我国法律对侦查措施的相关规定来看,无论是任意性侦查措施还是强制性侦查措施都是在立案后开始实施的,警务预测尚没有此类规定,应效仿行政法的比例原则制定风险与利益平衡规则,明确警务预测应当实现维护社会整体的公平正义兼顾保护相对人的利益,如果目标的实现可能对相对人的权益造成不利影响,则不利影响应被限制在尽可能小的限度之内,不能仅仅为了安定有序的社会环境,造成对个体的不加限制地预测和推理。从古至今,集体本位伦理价值观念所主张“公而忘私、以公灭私”的道德观念在我国已经深入人心,支配着社会生活。[7]警务预测的运行规则本就是依托于“过去”推测“未来”,如果不加以限制,对个人利益的损害是显而易见的。

事实上,应当尽快将警务预测行为归类,并明确警务预测的行为实施的主体部门,避免职权的滥用风险。构建恰当的风险与利益平衡规则,要求制定一个健全的行为启动机制,执法部门要依法启动,对于警情的研判和监控要得到授权。在警务预测对个人权利的侵犯应当与预期效果相适应,保持着均衡关系。两害相权取其轻,面对大数据警务预测带来的权利的侵害,比例适当赋予了大数据侦查一定的正当性,当面对犯罪情节轻微,危害比较小的犯罪时,警务预测对隐私的侵害的社会效应并不能够弥补手段自身所带来的侵害性。

2.自由与监管适度规则

如何平衡警务预测创新与大数据道德伦理是一个棘手的难题。自由与监管之间的尺度将决定警务预测发展的走向,人类社会需要更多的创新成果来提供贴近生产与生活的服务,这就需要公权力不断地寻求突破,如果套上更多的“枷锁”,又势必抑制警务预测探索的脚步。以警务预测所需的基础数据为例,用户的身份、职业、年龄等行为偏好,都是优化精确算法的关键依据,警务技术公司获取的隐私数据越多,就越能令警务预测的功能贴合警务实战的需求。但如果过度地进行监管,数据的限制与缺失会使大数据警务预测的功能大打折扣,几乎没有哪一家公司希望自己在获取用户数据方面受到约束,通过立法手段可以划清监管的红线,但其中也存在诸多问题:严格的法律规制是否会限制了警务预测技术的发展?法律应该在发展的何种阶段介入?伦理规范应介入到何种程度?如果针对警务预测收集数据隐私的行为做出严格的限制,势必将极大地约束技术的发展。这样一来大数据背景下的警务预测行为是否会受到阻碍进而导致停滞不前?

随着我国数据安全法的出台,商业机构获取数据的行为受到规制已成定局,这种对“自由”的监管将数据获取和研判推上了法治化进程。任何创新的闸门并不是不可以把控的,警务预测既可以“野蛮生长”,同样也可让它行走在指定的界限之内,作者认为,应在立法中规定警务预测的具体使用情境,在技术设计过程中加入纠偏功能,防止越界。无论机器学习有多么强大,但最终决定权都应掌握在人的手中,是非善恶的价值判断一定要由人来感知。

3.隐私保护规则

随着信息技术的发展,个人空间和社会公共空间之间的界限也变得越来越模糊,对于隐私权的侵犯是警务预测面对的伦理问题。对个人合法的隐私进行保护,隐私不应被非法侵扰和公开,公开的范围和程度也必须由权利人自行决定。对于企业而言,除了对用户实行隐私保护协议事前告知以外,还应该通过技术手段对个人信息进行匿名化处理,使得相关信息不能轻易被外界识别,从而减轻外部隐患。

与此同时,公安机关作为警务预测的实施主体,应对其进行更为严格的法律限制,警务预测是一种事前措施,应制定一套完整的启动机制,经过申请得到相关主管部门允许后实施。隐私保护规则的确定在于防止企业和政府机关尤其是公安机关对权力的滥用,从而减轻数据隐私被泄露的风险。

4.算法平权规则

算法平权是指为了避免警务预测中的算法歧视问题,从认识论上首先就要承认算法在制定的过程中就存在不平等现象,算法歧视是天然存在的,不会因算法制作主体个人素质的提升而消失。制作算法的商业机构或者发出要约的警务机构很难排除自身的偏见,如果偏见不存在,算法也就不存在了,重点在于如何正视这种偏见进行纠偏工作。

在过去很长一段时间里,社会群体中就会根据个人的身份、职业和地位,进行区分对待。大数据在被研发设计之时,就带有人类固有的偏见和歧视。可以说算法具有歧视的基因。技术人员能够轻易地将自己对于“正义”的认知添加到算法中来,以个体的意志和朴素的“正义观”来决定大数据侦查的效果,显然是失之偏颇的。一个好的制度或算法应该是具有权威性的,这种权威性不容挑战。如果将自己在私域的情感引入到公共区域,那么必然导致潜规则盛行,警务预测亦是如此。

5.数据遗忘规则

随着云存储等技术的发展,个人数据在数字空间这一公共平台上的痕迹很难以被抹除。正如追诉时效一般,如果行为人的数据永远被记录在相应的媒介中,而行为人本身并不具备删除这些数据的权利,那么警务预测行为就变得没有追诉时效,可以无限期地回溯行为人主体过去的“黑历史”行为,预测对象过去的行为烙印将一直影响警务预测系统对他未来的行为的价值判断。

对此,应效仿欧盟《通用数据保护条例(General Data Protection Regulations)》(下文简称GDPR)中规定的数据被遗忘权,允许当事人删除自己或他人放置到互联网上的关于自己的数据信息。确定数据被遗忘权,有助于减少数字记忆带来的权利损失。

数据被遗忘权是指个人有权利使相关机构删除有关他们的个人数据信息,这些散落在各大平台的个人信息聚合起来就能够形成一幅较为完整的“个人画像”,虽然,确定数据被遗忘权将缩小执法部门警务预测的数据来源,但长期来看,这也是执法规范化的必由之路。作为运营商的数据提供者应是被遗忘权的关注对象,当个体要求删除数据时,受限于当前的技术,虽然数据本身可以删除,但由于已经开发学习的算法模型仍然包含原有数据训练的结果,这种隐性痕迹很难在机器学习模型中得以抹除。真正实现如何将训练痕迹抹除,也是遗忘权的未尽之处。

(二)警务预测的伦理控制

从警务预测的运行逻辑来看,主要包含3个过程,一是算法编写过程,二是预测执行过程,三是功能回溯与检验过程。针对上文中的伦理困境,应针对这3 个过程的不同特点分别展开伦理规制措施。要从以下3 个层析入手,首先,要强化准入机制,拟制严谨的审查启动机制;其次,要加强主体控制,构建警务预测职业伦理;最后,通过结果控制规制预测行为。

1.拟制严谨的审查启动机制

在实施限制公民重要基本权利的措施之前,引入司法审查形式作出决定,将警务预测审批权转移,不应由公安机关单独决定。应建立科学严谨的审查制度,确保对警务预测技术的发展进行严格的事前审批、事中监督和事后跟踪反馈的监管制度,实现对数据控制者和数据使用者伦理问题的终身追责,通过体制机制的建设在源头上杜绝违背伦理的行为。公安机关在适当的职权范围内追求快速和高效是符合社会利益的,对于警务预测,应完善其事前的司法审查。应从立法上明确规定警务预测的启动机制,囊括对于那些可能涉及国家安全的犯罪,保证警务预测在法律的框架内运行。目前警务预测技术仍处于实验和创新阶段,将启动权力交给司法审查,有助于避免执法机关对于权力的滥用,公安机关作为数据控制者本身就对警务预测的走向有很大决定权,如果不完善事前的司法审查机制,很容易导致执法机关作为“裁判员”下场,影响公平和法治。

2.构建警务预测职业伦理

以“样本=全部”的大数据思维来看,对于个体信息的收集,只可能是越来越全面,越来越细化。如果没有一套完整的伦理规则,仅靠个人素养,警务预测难以为继。一个善的制度总归是权利与义务相对应的,若执法主体个体素质不高,在完成一次侦查任务后,并不将获取的数据进行销毁处理,反而另作他用,在小数据侦查时代,造成的损害可能是侵害某个个体的利益,但大数据侦查带来的后果可能就是对某一群体的伤害,执法人员在办案的过程中获取了海量的受害者的个人信息,在案件办理完毕后,这部分个人信息被如何处置不得而知,不能用对侦查主体个人素养的高要求来取代职业伦理规范。

针对警务预测的数据控制者和数据处理者,强化职业道德和伦理认知非常重要。技术作为一种手段,它服务于某种特定目的,因此为了防止人为造成的负面效应,首先要强调技术开发者的伦理意识,避免过多的个人倾向植入开发,采用技术入侵的手段转移警察权,使警察权掉入“技治主义”的陷阱中,从源头遏制技术所带来的风险。作为开发者必须意识到,大数据技术的目标仍是为了控制犯罪和保障人权,不能掺杂开发者的个人情感和认知因素。

数据控制者也应当参与到技术研发的过程中来,而不能仅仅是在产品出来之后进行监管,避免陷入“柯林格里奇悖论”:科学监管的实现有待于技术的发展,以便赋予社会规划者足够的知识。然而,当监管者获得必要的知识时,技术已经得到巩固,采取行动可能为时已晚。[8]目前警务技术迭代迅速,数据控制者也难以准确把握下一步技术的发展趋势,为了做到“治未病”,应在警务预测可能产生更多的社会风险和更大的伦理道德问题前其提前介入监管,制定准入原则和对技术开发过程的全方位监控。

3.警务预测的结果控制

警务预测的结果控制就是要加强警务预测的可责性,行为可以被追责,如果警务预测行为导致不良后果,或行为本身存在争议,行为人可以通过法律、法规或部门规章来倒追行为制定者和参与者的责任。如果不强调警务预测行为的可责性,将导致行为突破现有法律的限制,最终形成与刑事诉讼法目的背道而驰的结果。

纵观警务预测的流程可知,警务预测是以大数据犯罪预测为基础,强调在犯罪发生前预防和发现犯罪,为了发现犯罪行为的既定结果,警务预测的算法要将数据转化为证据;其次,这种结果将以触发警务人员的一个可能并非价值中立的行动;行动结果可能会导致失败,当行动失败时,算法所关联的众多的行动者该如何解释,由谁为其负责就变得复杂起来。这就要求行为的可追溯性和可责性作为警务预测伦理问题的一个重要关注点。应建立体系内的自纠机制和体系外的监督机制。确保警务预测活动的建设和后续工作的开展受到行政、司法和社会舆论的广泛监督。作者认为,这种可责性的结果控制对警务人员和相关技术公司都提出了很高的要求,倒逼相关人士在制度设计时考量算法黑箱、算法歧视等可能存在的伦理问题。

基于大数据的警务改革是21 世纪以来最为深刻、最有影响的警务技术革命。大数据警务预测技术的应用在深度挑战传统警务行为的同时,也在改变着公安机关的思维方式、认知逻辑、价值取向。为了更好地应对来自社会治理和惩罚犯罪的挑战,基于大数据背景下的警务预测伦理规制应当贯穿警务预测的全部环节,只有逐步提高预测结果的准确性,保证过程的合理“透明化”、增强涉事人的参与度,才能够让大数据侦查更好地服务于复杂多变的社会环境,警务预测赢得数字信任。

猜你喜欢

警务伦理预测
《心之死》的趣味与伦理焦虑
无可预测
选修2-2期中考试预测卷(A卷)
选修2-2期中考试预测卷(B卷)
护生眼中的伦理修养
不必预测未来,只需把握现在
HIV感染的警务预防与处置
警务实战训练教学中开设
警用直升机的作用及在我国警务实战中的应用
警务专用手机ZD-P1