APP下载

人工智能在警务应用中的异化及其风险规制

2022-11-22李小波李文润

关键词:警务异化人工智能

李小波,李文润

(中国人民公安大学,北京 100038)

当前,人工智能(Artificial Intelligence)技术在世界范围蓬勃发展,在推动经济社会发展的同时,深刻地影响了人类的生产生活方式,对人类社会发展进程产生深远的影响,如何看待人工智能对人类社会影响,发展负责人的人工智能已成为重要的议题,学界对此已有相关讨论[1]。在警务工作中,人工智能被作为一种新型的高科技系统设备配备使用,以其多功能、高效率、高稳定、强感知、非接触、自动化等技术优势持续深度嵌入警务工作,在很大程度上提升了警务工作效率。“人工智能+警用装备”组合可以实现警务高度自动化、信息化,甚至警务自主化,已在公安领域多个方面被大量应用。虽然人工智能目前尚无法比拟人类智慧,但其在逻辑上具备产生理性思维、自我意识和人格尊严的可能性。近日,谷歌工程师公布了一份与AI聊天机器人的聊天记录,称能证明AI聊天机器人LaMDA(Language Model for Dialogue Applications)具有人类知觉和意识,虽然谷歌公司随后否认了该事件,并以“违反保密政策”暂停该工程师的工作,但该聊天记录引发了人们对人工智能是否具有人类思维的争议[2]。从当前人工智能应用于社会治理领域实践看,人工智能技术及其载体的组合具备成为主体的潜力和特质,特别是当人类将判断和决定的权力赋予人工智能后,其在理论上已具备成为主体的可能性。随着人工智能大规模介入社会治理,在可以预见的未来,人工智能将直接挑战人类在社会治理中的主体地位,警务活动的公权力特性也使得人们对人工智能介入其中存在着担忧,极易引发社会关注,迫切需要我们从人的主体性和交往关系角度审视人工智能在警务领域的应用及其可能产生的异化风险。

异化是人类在发展过程中创造的物质的或精神的东西成为异己的存在力量并反过来控制、奴役人类自身[3]。德国法兰克福学派基于马克思的劳动异化理论,关注科学技术异化对社会产生的影响,并将其定位为“工具”进行审视,认为科学技术在不断发展过程中正在成为异化指向的对象,即科学技术作为人类文明的创造物,本来应该反馈和造福人类,但现代社会中“异化”了的科技反过来控制、胁迫乃至危害人类[4],凸显“工具”对人类与世界的反向钳制作用。但如今,人工智能作为技术发展的最新样态,极大程度上颠覆了我们对科学技术的原有认识。尽管我们不能说人工智能就是全新的物种,但是我们必须在直面人工智能主体可能性的前提下追问人工智能异化的问题[5]。与传统的技术异化不同,人工智能异化不仅体现在技术本身对人类的钳制和反作用,还体现在人工智能潜在的主体化趋势可能对人的主体性和社会交往关系形成影响,换言之,人工智能异化的影响将由“利用”关系层面上升为“交往”关系层面。因而,法兰克福学派传统技术异化理论的“工具”对象已无法对人工智能异化问题进行全面的回应,特别是无法从主体关系层面刻画人工智能异化带来的影响。

在应用人工智能技术拓展警务资源、提升警务效能、驱动警务创新从而释放技术红利的同时,也隐含着人工智能以其技术优势脱离人类控制,威胁人类主体性和交往关系的危机。剖析这一问题,“交往理性”在当下又给予我们新的解构视角。哈贝马斯在其著作《交往行为理论》中首先提出“系统”与“生活世界”的概念[6]。“系统”以“工具行为”“工具理性”为主导,代表了社会中的“技术”和“制度”层面。而“生活世界”则由“交往行为”“价值理性”所构建,由此形成了社会中的“文化”层面。笔者认为,人工智能技术成为主体,其实质首先是“技术”层面的突破,并随着其不断发展在社会“技术—制度”关系中发生碰撞竞合,入侵社会的“系统”,改造了传统人类社会的制度框架。革新的“技术”和发生形变甚至被重塑的“制度”又在“技术—制度—文化”关系中发生二次碰撞竞合,在“系统”的基础之上进一步入侵社会的“生活世界”,从而影响了传统人类社会的固有文化观念。因而,以“技术—制度—文化”的社会形态建构关系为逻辑支撑,从交往理性分析人工智能在警务工作中应用及其异化风险具有较好的解释力。

本研究尝试从技术主体化出发,以“交往理性”为分析视角,在剖析“异化”思想内涵、阐释人工智能技术异化过程的基础上,对警务人工智能技术异化的具体形成机理进行探究,对其可能导致的风险及具体的类型进行分析,并在此基础上提出规制策略,以期能够对人工智能应用的合理化、安全化有所助益。

一、人工智能:从技术走向公共治理的手段

当前,人工智能正在逐步走进人们的日常生活,但其并非新近发明,最早追溯至计算机的出现,彼时计算机专家已着手探究如何利用人脑外部算法来模拟人类的神经网络,以此代替人类的脑力劳动,“人工智能”的概念即已初步被提出,并逐步开展专家系统、模式识别和机器学习模型建构[7]。至20世纪90年代,计算机的演算效能取得革命性进步,自动化水平不断提高,达到了足以支撑投射到现实的逻辑推理和决策选择的水平,人工智能由理论概念变为现实,并作为人脑思维的辅助参与、帮助人类开展理论研究与具体实践,在如医学、地质学、工程学、经济学、教育学、军事学等领域已全面铺开。近年来,人类已不满足于人工智能技术对物质世界探究和应用效率的提升,而将目光置于人工智能技术与社会治理相结合领域,尝试以高效能的算法技术代替人类从事公共治理活动,人工智能由此大规模渗透进人们的日常生活,从单纯的技术上升为社会治理的手段,其典型的应用场景主要在公共行政、司法和警务三个领域。

传统的公共行政难以应对社会的庞杂性和模糊性带来的治理难题。公共行政的前提要求是对治理场域具有清晰的认知,并在认知的基础上充分掌握各种信息,实现精准的决策与实行。单纯由人类实施的公共行政,因收集信息的主观性、有限性以及失真的可能性,加之信息处理与分析层面的能力及效率问题,往往无法做到“完美行政”。而人工智能技术的介入,大大提高了信息收集处理、决策制定和施行的能力与效率,使公共行政整体水平有了明显的提升。例如,北京市市场监督管理局所采用的“智能登记服务平台”,可自动分析企业提交材料,并能够在无人干预的情况下自行决定审批[8];辽宁省税务局将部分税务行政处罚裁量内嵌于“金税三期”税收管理系统,由系统作出申报、发票、登记等日常征管类处罚[9];加拿大政府与科技公司合作,开发传染病早期自动预警系统,可智能监测分析群体或个人新冠病毒暴露风险,并自行给出防控措施[10]。这些例子说明人工智能大规模应用于现代社会公共行政已成为推进社会治理现代化的重要选项。

当前的司法体系主要面临工作增量与工作质量的矛盾挑战[11]。一方面,处于剧烈转型和变革中的社会矛盾增多、问题凸显,大大增加了司法机关的工作量;另一方面,司法的公正性、公信性和底线性决定了司法机关必须从快、从准履行司法程序,并最终导出正确结果。在实践中,如何在面对增量的同时兼顾质量,是司法领域首先需要解决的重要问题。而在司法领域内应用人工智能技术来进行案情事实分析和法律适用推理等,则成为了降低工作成本、提升工作效率、保证工作质量、促进司法公正的有效手段。如成都市检察院在人脸识别、智能答疑、量刑辅助、类案推送、辅助审查等工作中引入人工智能系统,实现检察工作高效化[12];上海市高级人民法院研发的“206系统”(“刑事案件智能辅助办案系统”)具备审判过程中核验、检查和监督功能,能够自动预警可能偏离的审判结果,提高审判质量[13];在美国刑事诉讼程序中,人工智能也已被大量运用于预测个体是否会再次犯罪、是否会在开庭日出庭等,进而影响到有关保释、量刑和假释的决定[14]。

警务领域是一个较为特殊的存在——既包含公共行政层面,同时也包含刑事司法层面。警务工作广泛的社会覆盖性、较高的暴力强制、繁复的程序性和工作的危险性使得其在实践中通常难以达至理想状态。人工智能技术的超强计算性、精准的识别能力和不知疲倦的特性使其在警务领域被大规模应用,特别是人工智能技术控制下的外接设备的应用则大大拓展了警务工作的范围,提升了警务工作的精准度,在较大程度上增强了警务工作的效能。如在采集与感知层面,人工智能有着多维度信息采集和高广度态势感知的优势,能根据预警研判不同任务需求,选择连接高清摄像机、红外摄像机、雷达扫描仪以及热成像遥感设备等,实现以不同手段采集各个维度信息,信息采集面广,采集内容更为全面;同时,人工智能还具有隐蔽性好、时空延迟短、使用范围广等特点,能够全时空工作,执行特殊作业任务能力强。如在公安遥感领域,人工智能在毒品原植物识别研判、边境安全管控中大规模应用。在判断与决策层面,人工智能技术当前已可实现自主化、智能化分析数据,能够独立完成生物特征识别、特殊物品辨认、特定行为研判等一系列的数据处理和分析工作。例如,在刑事追缉中,人工智能结合人像比对系统和警用无人机可从空中对嫌疑人进行比对,确定抓捕目标[15];在林区治安中,可连接遥感卫星自动判断森林盗伐面积、盗伐树种;在交通巡逻中,通过监控探头集群可自主研判车辆行驶轨迹。在执行与处理层面,近年来人工智能技术嵌入各类执法输出设备也成为新趋势。在各地公安机关的实践中,人工智能可连接扩音喇叭,用以开展大型活动管控和进行违法犯罪警告,通过智能联结烟雾弹、催泪弹等防暴控制装备,用以驱离非法聚集人群,实现对群体性事件的处置。同时,人工智能还可以通过智能武器站遥控网枪、泰瑟枪等非致命性暴力设备,用以抓捕犯罪嫌疑人,震慑犯罪行为。目前国外也有军警部门正在进行智能机器人搭载手枪、步枪等杀伤性武器的相关试验与应用[16]。

上述分析可见,人工智能已然从技术应用演化为一种社会治理手段,其大规模应用不仅节省了大量的行政资源,同时提升了治理效率。与此同时,人工智能深度应用及其主体化趋势带来的争议不断增多,蕴含着现实风险,需要我们认真反思其对社会治理带来的挑战,特别是在警务领域可能带来的风险。

二、人工智能在警务应用中的异化阐释

人工智能在警务领域的深度应用使其与人类主体发生交互关系,这实际在某种程度上肯定了人工智能的思考和判断能力,并以此为据启动警察权的行使,或者人工智能直接行使警察权力。因而,从实质上来说,人工智能实际上已经成为警务活动的主体,逐渐取代传统意义的人类警务工作主体,自主行使权力,实现控制,而协助人工智能应用的警察逐渐成为技术的附庸,开启了人类由主体向客体转化的趋势。虽然人工智能具有“极致理性”的优势[17],但也存在人性空白的缺陷,势必对传统警务活动及其形态形成冲击。

(一)人工智能在警务应用中“反客为主”

从哲学角度看,“主体”是指有认识和实践反应的个体或群体,侧重人的实践能力和认识能力[18]。换言之,成为主体的核心要素,其一是具有人类思维的特性,即独立思考和判断的能力;其二是能够从外界摄入知识,即具有感知和接受外界事物的能力;其三是能够影响外界,即具有以直接或间接行为等方式改造或规制外界的能力。将以上三者有机融合,即主体的实质是能够从外界摄取知识,以独立的思考或判断加之分析处理,并通过实践对外界产生影响。按此逻辑反推,则符合上述三要素条件的事物,可称其为“实质”上的“主体”①其中的“实质”以表征其客观事实,意指仅就其现实运行中的特性而将其定义为“主体”,在法律、伦理等层面是否能够将满足上述三要素的事物定义为主体,仍有待争论。但仅就“主体化”三要素条件看待人工智能这一具体事物,也可基本厘清人工智能如何能够从单纯的警务工具出发迈向主体化。。

随着科技的进步,人工智能技术已取得较大创新,并在警务实战中广泛装备,其信息化、智能化应用全面展开,人工智能应用中呈现的主体化趋势不断显现。如利用智能交通流量控制系统实时演算车流量,通过控制交通信号灯等实现交通疏导;利用物联智能摄像头实现远端人脸识别、体温检测和自动放行;利用警用无人机锁定并自动追踪逃匿的犯罪嫌疑人等等。人工智能技术成为治理手段的过程中同样隐喻了其侵蚀甚至颠覆人类主体地位和交往关系的风险,并在行政与司法相结合并辅之以强制权力的警务领域表现尤为明显。如2013年,美国威斯康星州法院在指控一项驾车射击案时,使用算法风险评估工具COMPAS对被告的累犯风险做出评估,并以此为据对被告作出判决,引发舆论哗然[19]。实际上,人们担忧的是算法被赋予了某种主体性功能并成为直接证据用于对人类的裁判。“人工智能+警用装备”逐步具备人类警员特征,并大有超越并替代人类开展警务工作的趋势。人工智能嵌合警务工作后,成为警务活动新的实现平台,某种形式上获得了执法主体资格,隐含地享有警察权,进而实现对人类的强制,换言之,人工智能在应用中逐步成为执法主体,享有警察权,对社会产生了实质上的强控制作用[20]。从目前人工智能技术及其具体实践应用看,人工智能已可自主化实现“输入”“分析”“输出”这三个环节。在可以预见的未来,基于人工智能技术的发展趋势,其势必会将以上三环节串联起来,独立完成“输入—分析—输出”全过程。因而,从“主体”三要素审视人工智能,其完全可以在技术进化中实现主体化,由“工具”成为“主体”。在警务工作领域,随着人工智能越来越多参与数据收集、警务决策和执行活动,其不再是简单的技术使用,而由人类利用的“工具客体”逐步转化为实质上的执法“决定主体”,这说明人工智能在警务领域应用中反客为主将成为重要的趋势,值得深思、警惕。

(二)人类在人工智能的警务应用中“反主为客”

从人工智能应用趋势看,其与人类的支配关系将面临逐渐的逆转。首先,人工智能技术的深度嵌入使警务技术系统自身具备了独立的思考与判断能力,成为了警员大脑功能的延伸,代替警员进行复杂繁琐而又精细的信息处理和分析决策。在“大脑器官强化”阶段,人工智能本质上属于辅助人类警员思考的“工具”,对于人类并没有主体地位上的威胁。但随着人工智能在工作中的自主水平不断提高,逐渐能够独立胜任执法工作,不必需以人类警员作为其控制核心,此时人工智能已不再单纯地是警员的器官外化与延伸,而成为了“类本质”的人,也就具备了与人类分享,甚至争夺主体地位的可能性。

其次,人工智能本质上是人类大脑理性外化的投射,而相较于人类,具有“极致理性”的特点[21],不会被人类情绪、情感、性格、意志等感性干扰因素所影响,因而以算法分析处理问题能够实现完全理性。人工智能可通过上百万次的演算寻找最优解,其在“输入”“分析”“输出”三个环节的能力远强于人类,且数字储存的方式能够在短时间内写入、写出大量知识记忆,科学整合各型各类资源,以极其丰富的方式完成人类无法完成的任务,具有远超于人类的工作效率。从功利主义角度考量,人工智能比人类更能胜任繁复程度较高的工作。随着技术治理、数据治理不断渗透到社会生活各个领域,警务工作对大数据的依赖越来越深,人工智能因其工作能力、效率和精准度远胜于人类,将会有更多的工作业务需要人工智能参与甚至承担,能够独立主导执法工作的人工智能技术将会扮演愈发重要的角色。从异化角度看,人工智能将会占据更多主体地位,并侵蚀和割占原本由人类主体承担的警务工作,进而挤压人类的主体地位。

再者,从微观层面而言,警务工作的主体是拥有情感的人类,即警员,其客体也是人类,即执法对象。初级的人工智能在警务工作中是作为工具使用的,主客体交互关系可表示为“人—人工智能—人”。但随着人工智能深度学习能力不断增强,特别是其信息收集、分析、研判和执行功能自动化甚至自主化后,将逐渐脱离对人类的依附,成为警务工作的主体,警员被动等待研判结果和指令,实际上成为人工智能的附庸被边缘化,人类反而成为了客体,成为了被控制和支配的对象。人工智能在社会的“制度”层面占据主导地位使得警务工作的主客体交互关系异化为“人工智能—人”。由此不难发现,随着人工智能技术的进步及其应用深度的拓展,人类作为警务活动主体的地位将被侵蚀,作为警务法律关系中的管理及执法对象的人类成为客体,人类与人工智能主客体地位反转,人类显现出“主体客体化”的倾向。

(三)“有缺陷”的主体特质导致人工智能在警务应用中异化

在符号主义学派看来,人工智能本质上是数理逻辑,其基本单元是符号,智能是符号运算后的外显形式,符号主义学派(由人)将智能形式化为符号、知识、规则和算法,并用计算机实现符号、知识、规则和算法的表征和计算,从而实现用计算机来模拟人的智能行为[22]。以“符号主义”为原理所建构的人工智能作为主体与人类主体相比存在天然缺陷,人类思维及其情感的复杂性是人工智能所不具备的,特别是人工智能不具有人类思想与意识上的整体性,其对于人类思维的模仿是不完全的、不充分的[23]。因而,人工智能无法完全像警察一样开展执法工作,以人工智能为独立执法主体将会重塑传统警务工作的体系和机制。

人的本质是一切社会关系的总和,是理性和感性的统一,理性是遵循逻辑的认识和实践,而感性则是基于心灵的感知与体验。人工智能作为人类思维的外化,能够以大数据和算法模仿人类的理性思考功能,但算法是模型化、流程化的,而根据“交往理性”模型,人的认知世界中除“系统”外还包括“生活世界”,后者包含着大量的非理性因素,特别是情感内容,它们难以被数据化,人工智能算法既难以生成,也无法还原这些情感,换言之,人工智能不具备人类的心灵能力,无法进行感性认识,开展感性实践。虽然人工智能随着其进化可能代替人类成为某项活动的主体,但仅可在其发挥作用的社会“技术”“制度”层面将其视为“类主体”,相比于人类而言,因其存在感性部分的缺失,难以展开有效的交互进而建立真正的社会交往关系,从“制度”迈向“文化”的生硬入侵将对人类原本的社会“文化”体系产生深远影响。

传统的警务执法活动中,主体和客体都是人类,双方能够产生感性层面的共情,基于公序良俗、价值观、同情心等对执法行为和结果进行妥协和博弈,不存在一方基于刚性程序设计而不顾具体场景的情况。例如,在部分治安案件中,受害人要求警察必须对行为人的违法行为做出严肃处理,警察则基于社会道德和习俗希望当事双方能够达成和解,又如家庭矛盾造成的轻伤案件中,警察也往往考虑家庭伦理而避免采取严厉的措施[24]。实践中,这种做法更有利于化解矛盾,对促进社会长久和谐的意义和价值远远大于僵硬执行法律条文。

然而人工智能参与警务活动实践,因其不存在感性认识和实践,只能够将静态的规则条文转化为现实的执法行为[25]139-141,无从考量执法的内生精神、本原价值等执法背后的法理精神,缺少人类实践中的能动性、创造性和社会性,无从感知人类在警务活动中的伦理、道德、信仰、情感等因素,难以在复杂的情境中有效地将理性和感性认识统一于警务实践中,只以算法“机械”比照法律并依据其所学习的指令进行决策,难以做到基于人与人之间的交互关系还原警务工作中人与人的关系。因而,人工智能主导的警务活动,将导致警务过程的机械化、程式化,警务治理效果的冰冷化,这种完全理性导向的控制长此下去,将会弱化警察在工作中的感知和创造能力,破坏了社会的“文化”层面架构,导致人类自身的社会交互关系愈发“冰冷”“僵硬”“功利”。如在警务执法领域,其在执法原则上挑战主体伦理关系、执法权限上侵蚀公民隐私范围、执法内容上破坏人性向“善”的道德价值、执法形式上改造传统的平等主体模式、执法交流中剥离人类心灵的情感体验,等等。

如果不能及时对人工智能的应用进行调适,极有可能陷入功利主义悖论,泯灭技术发展本意,漠视人的精神价值,破坏原本的人性体系,动摇人类精神支柱,从而在不断被物化的过程中丧失了人类的创造性和批判性,沦为技术的附属品。

三、警务人工智能技术异化的风险表征

如上文所述,技术本身存在着不同于人类原有“制度”与“文化”的运行逻辑和实践方式,人工智能“有缺陷”的主体特质使其难以“无缝”嵌入警务工作中,如不加限制地使用,势必会对警务目的、个人隐私、执法伦理及道德情感形成冲击。

(一)目标异化:背离警务的核心目标

人类在长期的社会实践与交往中不断产生和发展出各种各样的治理形式,包括习惯、法律、戒律、规章等具体表现,以调节人类社会关系。赫伯特·马尔库塞(Herbert Marcuse)曾描述了一个以科技为中心的社会,即以技术产生的巨大力量,完全控制社会关系的社会形态,马尔库塞将其称为单向度的“极权主义社会”[26]。在这种社会中,技术作为一种使人从物质奴役中摆脱出来的手段却成了统治人的新模式,技术系统已不单是技术装备在数字意义上的聚合,更为重要的是,技术装备运转的日益自动化、合理化,形成了一个稳定可靠的控制、调节系统[27],形成了“以技术为意识形态的绝对权威”。笔者认为,人工智能技术的发展及其智慧化趋势,将使这种由技术本身生成的绝对权威更为专断、不容置疑且不受约束,导致人类只能将自己的权力单向让渡于技术,而无法从技术中获取相应的平等交换。人工智能的应用对社会而言更加强调“规制”,而人类天性则崇尚“平等与自由”,当人类文化所孕育的政治理性逐渐被技术理性所取代时,人类在实力与地位不对等的窠臼中被迫让步,导致“控制”代替了“治理”“服务”。

警务是一项重要的社会治理实践,无论是作为法定规范的警务、作为警察工作的警务、作为系列活动的警务,还是作为维护秩序的警务、作为治理的警务,最终都落脚于秩序维护这个本质目的之上[28],警务可归结为维护治安秩序、保障公共安全的社会实践[29]。因而,警务的核心价值目标在于提供稳定的社会秩序,为人类公共福祉提供基本保障,警务是以人为本的。在警务应用领域,人工智能以压倒性的技术优势和效能被广泛使用,在信息采集、分析、研判的同时不断被赋予执行功能,这种趋势的不断发展将会重塑警务工作机制和组织体系,打破双向赋权和约束对等的平衡[30],导致技术在警务领域形成“寡头”控制,进而在警务执法中避开原有人本化的控制而植入“技术自己的模式”,造成原有执法工作体系的异化。从技术角度出发,人工智能深度参与将导致警务领域的“技术利维坦化”,难以彰显社会治理对人性价值的维护。一旦人工智能被赋予独立执法主体地位,其将凭借精准、高效、全面的“极致理性”而形成执法的“超级权威”,造就凡事由人工智能决断而无人类监控与反馈的“技术利维坦”[27]88。警务活动涉及诸多方面,在执法领域,执法者和执法对象在法律上存在权利义务关系,但两者在人格上是平等的,这种人格的平等使两者之间可以沟通,在互动中达到最优的解。人工智能造就的“技术利维坦”运作的逻辑是完全理性的,其与人类互动的方式是机械的、功利的,其能识别违法和犯罪,但识别不了导致违法犯罪背后的社会原因,其能够执行法律,但无法缝合法律执行后社会关系留下的裂缝。在治安管理领域,人工智能管理社会的方式高度数字化,其管理依据符号化后的治安管理法律法规条文,但是社会管理的依据并非全然是正式的法律法规,还包括被公众所认可的非正式规范,换言之,警务所追求的社会控制既有依据国家成文法律法规的正式控制,也有以道德、习俗和禁忌为依据的非正式控制,而人工智能无法理解这种非正式的规范。申而言之,警务的本质是维护社会秩序,执法仅仅是维护秩序的方式之一,人工智能造就的“警务利维坦”交互方式是机械的,其无法理解也难以穷尽社会生活交互的丰富性。因而,单纯依靠人工智能开展警务活动,既无法涵盖警务活动的全部场景,也难以实现警务活动的目标,反而会偏离警务的本质目的。

从治理视角出发,人工智能在警务工作中大规模应用难以体现治理的民主性、参与性。在由人工智能主导的警务活动中,人类原本复杂、交叉、双向的执法关系异化为从技术指向人的单向度关系,执法中物质、能量、信息等方面的流动存在不平等性是单向的,这不仅背弃了警务的目的,还影响公众参与政治生活的能力[31]。同时,随着这种趋势的发展,在工具理性驱动下,社会将会更加倾向于通过技术手段提高对自身的控制[32],技术则垄断了执法“话语权”,造成“技术专制”,人类无法真正参与到执法决策中,失去了能动性和反思性,被剥夺了参与公共事务的资格。在警务活动中运用人工智能的初衷是实现精准化、高效化、全面化,但在功利主义主导下,将警务效益错置为工作效率,进而不断扩大人工智能的使用范围,在潜移默化中让“技术”成为控制的主体并反作用于人类,导致人类产生过分依赖“工具理性”的畸变倾向,漠视“结果”背后的本原意义,与增进民众的福祉背道而驰[33],泯灭了警务的目的与意义。

(二)权利异化:公众隐私权的挤压与知情权的剥夺

人工智能主体的数据收集具有精确化、全面化、便捷化的特点,数据处理与决策又具有数字化、抽象化、运算化的特点,其广泛应用使得预防违法犯罪、维护社会治安秩序、保护公民生命财产安全的能力和效率得到了显著提高。但是,我们也应当看到,在智能时代,人类社会面临的最主要风险之一是个体权力的不断压缩,即智能算法及其外部感知设备的应用对公民个人信息权利的保护带来了前所未有的挑战。哈佛大学学者马蒂亚斯·里塞提出,智能社会下人类生活的不可侵犯性受到了有史以来最为严重的冲击[34]。人工智能在警务领域大规模应用,意味着对个人多维信息采集全方位地展开,呈现出数据上的“全景敞视”意味[25]141-143,即从防控的需要在特定的时空内实现最大限度的数据收集与整合处理。在这种“全景敞视”下,公众暴露在人工智能及其边端设备的连锁“监视”下,但又很难对其执法行为有所感知和做出反应,存在对个人权利,特别是隐私权、知情权侵犯的可能。

一方面,人工智能在警务领域的应用对公民隐私权形成挤压。在信息收集能力方面,人工智能物理上可连接望远、红外、夜视、遥感、热成像等多维度监视监测设备,数据上可进入互联网、大数据链条以最大程度挖掘数据,且不受时空条件限制,相较于传统的人类警员范围更加广泛、方式更加多样。人工智能系统态势感知能力极强,收集信息过于全面和方便,因此,也导致了公共与私人信息边界模糊的问题,某种程度上挤压了个体隐私空间,进而衍生出监视中的隐私权侵犯问题。具体来说,相较于传统警务信息收集,人工智能采用的是全方位视角,尤其连接侦察无人机等前端设备后视野宽阔、位置灵活,因而人工智能系统在动态巡逻或定向监控过程中,摄像镜头非常有可能捕捉到私人领域,以非直接接触的方式侵犯公民隐私空间和隐私信息;或在警务应用系统的信息收集过程中有意或者无意地捕捉到一些特定或不特定私人信息,可能造成个人数据信息泄漏。另外,人工智能的应用也隐含将收集来的个人信息用作其他事由的可能性,或者将个体数据串联而作为对个体生活习性和行为的研判依据。这些都会对公民的隐私权利形成挤压。

另一方面,人工智能在警务领域应用会在悄无声息中完成对公众知情权的剥夺。与隐私权对个人信息的保护相对应,知情权侧重于公众的知悉其信息是否被采集、如何存储、如何适用等权利。人工智能主导的警务活动打破了传统的信息收集与处理模式,在民众不知情的情况下完成对信息的收集。传统警务活动警察在收集信息过程中属于“嵌入角色”,既是案事件的观察者,同时也是参与者,管理对象能够直接知悉警察对其个人信息的收集。而人工智能的信息收集具有“局外观察”的特点,通过外接设备应用抑或线上网络搜索,能在民众不知悉的情况下开展监视、取证、比对等工作,避开民众知悉这一环节,剥夺公众对于个人信息被收集的知情权。如人脸识别、虹膜识别等无接触的信息采集等,实际上是在无感的情况下完成的。在信息处理与研判方面,绝大多数民众无法知悉和理解人工智能在“分析与决策”层面所采用的算法逻辑,易导致“算法黑箱”困境[35],同样剥夺了民众对警务活动合理性和正当性的知情权利。

共产党人最讲认真,重要一方面就在于认真谋划全局和总结提高,这是支部书记职责的重要组成部分。知识学习和实际工作相结合,学以致用、相互促进,有助于不断提高全局谋划的科学化水平。在实际工作中,做事“公平公正”,做到“明察秋毫”,实现管理“用贤勿力”,力避“用力劳伤”,不断总结经验,汲取教训,增强把握全局的能力,提高工作效率和工作水平。

(三)伦理异化:人工智能的争夺、错置和僭越挑战

伦理是指在处理人与人、人与社会交互关系时应遵循的道理和准则,伦理调整的是“人—人”的人类内部关系,毋庸置疑,这一类型关系的主体是人类。一旦人工智能主导警务活动,其在警务活动中必然会与人类产生互动,进而衍生出了新的社会交互关系,即“技术—人”两种不同属性和特质的主体之间的关系。此时,传统伦理显然已不能对此类型关系做出全面的回应,现有的伦理体系在机器智能时代的现实下极有可能发生异化,具体到警务应用层面,体现为人工智能对人类主体地位的争夺、错置和僭越。

人工智能主导警务活动可能导致算法的傲慢与物理伤害。人工智能不具备人类对伦理底线的认知能力,其依凭“输入—分析—输出”的理性逻辑行事,可能越过人类为机器设定的伦理红线。一是算法歧视问题。在警务执法中,人工智能研判的基础是大量的经验事实,这些经验是机器学习的质料,质料越多其智能化程度越高,但实践中,案件之间存在着天然的差异,即使同类案件,当事人的情况也不尽相同,但人工智能应用中缺少个案考量,这种“思维定式”导致其进行数据分析与处理时过于相信普适经验,缺少对非理性因素的充分考虑[36],难以针对个案做出合理化的判断。人工智能应用于警务领域目的在于提高效率,其逻辑算法充斥着“利益最大化”的考量,渗透着功利主义的价值观,忽视了对人性追求平等与尊严的关怀。此外,人工智能的设计者囿于自身主观认知,所设计的算法即便能够自主学习,也可能无法涵盖人类所有的伦理规则。这些情况告诉我们,人工智能在警务应用中存在着算法的傲慢,某种程度上会发展成为算法歧视。二是人工智能自主控制警用器械潜藏对人类“物理伤害”的隐患。艾萨克·阿西莫夫(Isaac Asimov)早在20世纪50年代便提出了著名的“机器人三定律”,其中第二条“机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管”[37],而人工智能为提升执法效能,将会连接各类制服性、失能性甚至杀伤性的警械武器。其在发现严重违法犯罪行为时,通过内置算法的威胁分析,自主决定使用暴力手段制止危害行为,这将严重触碰我们为机器人设定的伦理底线。

人工智能主导警务活动将直接挑战现有的警务工作伦理。当人工智能深度参与警务活动,将以其“极致理性”和算法优势展现出超越人类的执法效能,它所实现的自动化、智能化在大幅提升执法效率的同时将大大降低执法成本,其不仅对人类警员体力劳动形成替代,也将在警情研判、犯罪追踪等脑力劳动层面对人类警员形成超越,产生替代效应,人类由于其生物能力上限将会主动或者被动“让位”,出现技术主导警务组织体系,甚至是完全由机器承担的“无人警务”,从而让一些警员成为所谓的“无用阶级”[38]。这不但改变了警务工作的模式,还改变警力配置的格局,进而导致警务伦理发生演变。传统警务工作伦理基于人与人的情感交互产生,进而内化为有约束力的道德情感,能够基于法理、道理和情理做出合乎伦理的判断,维护警察的职业形象和警民关系。当警务活动由冰冷、理性的机器主导后,其无法基于人类情感等非理性因素建构伦理规则,无法基于心灵控制自身的行为,更无法基于对公序良俗的理解和适用警察的自由裁量权,这将导致警务工作的职业伦理逐渐没落。

人工智能深度参与警务执法将导致归责困境。人工智能从设计到应用的整个过程实际上涉及了多个主体,包括人工智能本体、人工智能所有者、人工智能使用者、人工智能及其算法设计者等等。人工智能开展警务活动相对于人类更加精准、高效,但并不能保证失误率为零,如果其运行过程中出现失误甚至发生责任事故,归因归责也将会变得异常难以厘定:如果归责于警察,在人工智能不受控的自主活动特性下显然欠妥,因为个体的警察主观上并非存有过错,且将人工智能应用于警务领域并非个体警察能够决断;如果归责于人工智能及其算法,人工智能也不具备承担责任、救济损失的能力。因而,人工智能一旦出现处理错误甚至造成不必要的人员伤亡,谁应当承担责任及承担何种责任缺乏明确的规则。当前针对警察执法过错的民事责任、行政责任和刑事责任等制度设计在人工智能主导的警务活动中显然已无法有效地作出回应。因而,人工智能深度参与警务执法将导致归责主体和归责方式虚置。

(四)道德异化:人文精神缺失与执法边界的固化

人工智能通过智能算法实现处理与决策,但智能算法只能根据内置的执法规则与执法现实情况比对进而生成决策并加以实施,其虽然拥有远超于人类的能力和效率,却无法顾及决策和行为背后的人本精神与价值理念,造成人工智能“程式化刚性治理与机械执法的困局”[25]144。因而,人工智能主体异化不仅可能造成对人类“应遵循的规范和准则”的下限的挑战,也有对人类“崇善”上限的消弭风险。

人工智能主导警务活动易导致警务活动人文精神的丧失。人文精神是指一种包含理性、感性和超越性的文化传统,其核心思想是尊重人的价值和保护人的尊严的社会禀赋[39]。在人文精神的熏陶下,相比于法律条文的创造,如何让法律在实践中“活”起来才是立法的价值所在:“法律的应用是以最严肃的态度对待人的学问, 隐藏在条条框框背后的思想是对人和人性的最深刻最本质的理解”[40]。在具体的警务活动中,也无不体现着警察的职责与人性之“善”。而人工智能通过将环境、对象、行为等信息化为数字并进行演算,最终输出为行动指令,从而实现的自主“输入—识别—输出”执法过程实际上“物化”了执法对象,无法体现出警务活动“崇善向仁”的一面,与“以人民为中心”“以人为本”的技术发展理念不符。这种机械的、程式化的决策与执行背离了人的价值和人文关怀,使警务活动为人服务的道德价值难以彰显。

人工智能主导警务活动易导致执法服务边界固化问题。一方面,人工智能警务应用将导致回应个性化需求的能力不足。随着自动化、智能化水平不断提高,人工智能可自主开展现场案事件处置,也能进行侦查监控、治安巡逻、交通指挥、应急救援等工作。但警务工作的场景千差万别,难言同一性,这导致人工智能因自身内置算法或外载功能的局限,难以实现“顺手帮忙”的“善意之举”,无法像警察一样有效回应不同场景下公众的需求。另一方面,人工智能在警务执法中保持克制容忍的内敛性不足。警察“被赋予了限制和剥夺财产、自由甚至生命等权益的规制手段,具有极大的‘恶’性”[41],且这种损害不可逆转、难以复原,因而无论是人类还是人工智能,都必须对这种暴力规制设定“容忍阈值”。但与人类不同,人工智能的阈值设定缺少缓冲区间,呈现出刚性的“不宽容”。具体来说,人工智能在执法中,只要判定各因素符合法律法规的预设条件,即着手采取暴力措施,缺乏对执法后果和影响的考虑,因而也不能像人类警员“克制而适度”地执法,可能造成“合法但非必要”的损伤结果,无法体现警务执法的“谦抑性”。

(五)情感异化:警民关系疏离与警务信任危机

然而,人工智能的“纯粹理性”与人类的丰富心理情感活动之间确实存在较大张力。申言之,人工智能的“去人性化”式执法模式和“效能扩张”型价值驱动使其无情感因素嵌入,不具备进行情感输出、情感反馈的能力,进而难以达成对人类的情感供给,无法满足人类丰富的心理体验需求,很大程度上导致执法主体与执法对象在执法实质内容上的“给予—接受”维系结构产生形变甚至断裂,造成警务工作中警民之间的情感隔阂。人工智能作为执法主体,其不但无法与执法对象在情感上发生交互关系,更因其看上去僵硬、死板、冰冷的执法行为而使执法对象产生抵触甚至排斥的心理感受,大大弱化了警察和公众之间的情感联结,导致警民关系的疏离。

信任是一种基于自身能力和过往行为的超验情感期望[45],依赖个体内心体验,信任的生发与巩固取决于感受人对被信任对象的了解程度。在警务活动中,则可以将这种了解程度具体化为公众对于执法的知悉程度和参与程度。如上所述,人工智能参与警务活动的“不透明性”使公众对警务活动产生未知的“恐慌感”,引发人们对警务活动的“不信任感”。人工智能凭借其理性的算法逻辑自主做出执法决策,无法合乎情感地对执法对象关于其违法原因等细节做出有效回应并进行互动,极易从情感上剥夺执法对象对于执法活动的信赖感,单纯依赖机器意志做出执法决定难免让执法对象对警务活动的公正性、科学性和合理性产生怀疑。由此民众对于警务活动的恐慌、怀疑情绪将不断积累,形成信任危机。

四、警务人工智能技术异化的规制策略

技术在推动生产力快速发展的同时,也将它的理念广泛渗透到社会各个领域[46],不断重塑着生产生活结构和人类交互的模式,进而推动社会制度和文化模式发生变迁。人工智能的应用及其异化已经引起研究者的重视,由于警务领域涉及强制性公权力的行使,其广泛应用引致的风险更高,应加强规制。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则—发展负责任的人工智能》(以下简称《原则》)[47],其中的和谐友好、公平公正、包容共享、尊重隐私、安全可控、开放协作、共担责任等原则为我们规制人工智能技术异化提供了路径启示。人工智能在警务领域应用产生的异化并非无可避免,只要能坚持警务的本质属性,理顺“技术—人”的交互关系,正确认识人工智能的应用目的,通过制度化的设计使人工智能在参与警务活动中契合警务目的和人的需要,就能够在发挥其效能的同时,消解其异化产生的问题。

(一)明确警务活动中人类的主体地位

正如程式化算法永远无法走出“哥德尔陷阱”①1931年,哥德尔(K.Godel)提出不完备性定理:所有的形式系统中都存在一个在这个系统中既不能被证明为真,也不能被证明为假的命题。1961年,卢卡斯(John Lucas)通过不完备性定理推演指出机器永远无法读懂某些特定语句的真假,从而无法完全模拟人的心智,即为“哥德尔陷阱”。,我们应当充分认识到,机器一方面具有某些远超人类的能力,但在另一方面又存在远不如人类的局限[48]。防止警务活动中人工智能应用的异化,其前提是遵循《原则》中的公平公正、安全可控等原则指导,明确人类在警务活动中的主体性地位,重新认识人工智能本质与功能,优化警务执法工作中人工智能与人类的交往关系,调适人工智能工作性质由“控制”转为“服务”,真正实现技术与社会的有机契合。

首先,要明确人类在警务活动中的主体地位。人类具有其他事物所不具备的特质,那就是人作为活动主体的质的规定性,即人的主体性[49]。警务活动是一项人类社会活动,其由人开展且服务于人。技术作为主体可能具有与人类相似的业务功能,但人类参与警务活动有着与技术本质的区别,即其在警务活动中的人格表现和人性表达意蕴。从这个意义而言,人工智能作为警务主体资格实际上是“残缺”的。应对人工智能在警务活动中的主体化和人类的客体化趋势,应当重新确立并巩固人类的自我本位意识,拒绝人工智能在主体地位上与人类并肩,甚至凌驾于人类之上,在维护人类在“技术—人”社会交互关系中的话语权同时寻求人工智能与人的“共建”,复归人在警务活动中的主体地位。人工智能的应用之所以会带来异化影响,根源在于其运转逻辑、运行机理、运作方式的极致理性,这种极致理性与人类心灵天然的感性需求相矛盾。因而,越是在人工智能、大数据等技术大规模应用于警务工作时,越应当强调人的主体性、技术的工具性,归还人类在警务活动中的自主性和决定性,强调“人是万物的尺度”,高扬人的主体性,不断丰富和发展警务活动的人本内涵与意义。在具体的实践中,一是应当通过法律法规的设定,明确将警务工作的决定权赋予人类,即人类是发布警务措施、实施警务强制的最终决定者;二是赋予对算法的质疑权利,针对算法可能出现的错误,应当在立法过程中明确人类对算法失误质疑的权利,允许通过行政复议和诉讼的方式提出审查算法的权利,实现对算法的法律规制,进而维护人类的主体地位。

其次,应当合适地“安置”人工智能位置。应当看到,人工智能在警务活动中大规模应用的趋势已无法阻挡,作为人类警员的工作辅助和延伸,人工智能在警务业务领域能够替代人类警员的思维和行为,在提高警务工作效率方面有着人类无可比拟的优势,应给予其合适的位置。从工作实际需要出发,应当赋予人工智能以“辅助主体”地位。在警务工作中,可以利用人工智能完成信息收集、情报研判、生成决策等,帮助人类更加准确、高效地开展警务工作,但算法在心智方面的天然残缺性决定了其不能代替人类“独立自主”,警务工作的决定权、执行权不能归人工智能支配,以避免机器倚仗其数据优势和行为优势产生极化控制。实践中,应当对人工智能在警务工作中的边界给予清晰的界定,即哪些领域可以使用算法辅助功能,哪些领域禁止使用,其使用的限度是什么都应在政策制度层面给予清晰的回应。

(二)优化警务工作中“人—机”的分工

针对人工智能在工作过程中挑战并争夺人类主体地位的风险,我们应当秉持《原则》中的尊重隐私、开放协作等原则,重新梳理“人机关系”,优化“人机分工”,化“技术—人”的异化对立关系为“人类主导、机器执行”的多元“共治”关系。

应区分不同警务工作领域,恰当地把握人、机效能特点,尽可能发挥人工智能在警务工作中的优势。能被模拟、认知和操作的程式化的活动,机器都可以高效且永不疲倦地进行,此外,其还能够在人类难以涉足的恶劣、危险、恐怖环境下作业,但在具有创造、批判、经验等内涵的“体验型”工作上,人类则应当保有其不可替代性,保留不能让渡给机器的工作“职能”[46]193。这不仅是对人类劳动权、生存权的保护,也是对人类自我价值实现的坚守。具体而言,警务工作要求的全时空性、危险性和高强度性等特点使人工智能应用有着广阔的前景。因此,在应急反恐、边境安全管控、道路交通管理、情报信息搜集、研判等单调重复和需要大量数据采集及运算的领域,应尽可能地发挥人工智能优势以解放警力,提升警务工作的效率。而在现场执法、侦查取证、暴力手段使用等情形下,警员的工作中或涉及自由裁量权、或涉及执法对象权益损害、或涉及执法主体资格问题,此类情形则应审慎应用人工智能,适宜将其作为行动支撑而非决策核心,以回避人工智能应用形成的治理风险和伦理困境,构建人机共治的“主体间性”结构,实现社会效果和法律效果的统一。此外,应当重视对公众隐私权、知情权等法律权利的保护,公开人工智能算法机理和信息收集的方式,确保人工智能在人类的指导与监控下开展工作,避免将“支配社会的权力”让渡于机器,制止人工智能应用异化钳制警务目标的实现。

(三)以“谁应用谁负责”为原则解决归责困境

人工智能参与警务活动引致风险应当如何归责,学界尚未对此展开专门研究。在公共治理领域,技术与行政价值的互动,须以责任明晰为前提[50]。虽然人工智能目前尚不能以独立的主体资格参与警务活动,但其已广泛应用于警务活动中,实质上承担着部分公共行政职能,对其归责的研究已迫在眉睫。十九届四中全会已经注意到人工智能等新兴技术应用对社会制度产生的影响,提出“建立健全运用互联网、大数据、人工智能等技术手段进行行政管理的制度规则”。

笔者认为,在警务工作领域,人工智能应用产生的风险应当遵循“谁应用谁负责”的原则,即使用人工智能的警务工作机构应当承担人工智能侵权损害责任。在民事领域,因人工智能应用于警务工作所带来的工作效率提升的收益由警务工作机构享有,其在应用人工智能时应当对可能产生的风险进行预测和论证。理论上,警务部门在使用人工智能时应当清楚该技术的性能,部分人工智能的设计也是遵循警务工作部门的实际需要开发出来,其应用的具体场景也是由警务工作部门选定,因而,由警务工作部门承担人工智能引致的风险合乎法理。除非有证据能够证明人工智能设计者因过失或故意在该技术开发中留下漏洞造成公众权益受损,即便如此,警务工作部门应先承担侵权责任,而后向技术开发者追偿。在刑事领域,我们应当对利用人工智能导致的犯罪和人工智能本身产生的犯罪问题进行区分。利用人工智能导致的犯罪问题应当直接追究使用者的刑事责任,除非有证据证明人工智能设计者或制造者违背使用者要求导致犯罪,其刑事责任相对容易确定。当人工智能拥有自我思考和判断能力并具体执行警务工作时,其实际上具有了行政或者刑事司法的主体资格,是具有类刑事责任能力的特殊主体。虽然学界目前没有关于人工智能刑事责任能力的相关研究,但对机器施加刑罚毫无意义,那么刑事责任承担将聚焦人工智能的设计者、使用者和所有者三者之一。笔者认为,目前尚无法对这一问题进行明确,但应当清楚的是,谁赋予了人工智能自由意志、谁拥有该人工智能的所有权、谁在具体使用该人工智能,这三者都应当承担由此产生的犯罪风险,具体归责时应当看因果关系的直接性。具体到警务工作中,人工智能过错归责应当将设计者、使用者和拥有者都纳入归责范畴:一是设计者应为人工智能应用于警务活动的可靠性和可行性负责;二是使用者应当对人工智能参与实际警务活动的决策与行动透明性负责;三是拥有者,即警务工作部门应当对人工智能应用中发生错误时可解释性和可定义性负责。这种归责方式能够最大限度防止人工智能应用产生的责任盲区,以保障公众的权益得到保护与救济,同时这种归责方式也符合《原则》中提出的“共担责任”原则。

(四)将警务活动的价值理性充分融入人工智能之中

面对人工智能在警务工作中应用的异化,我们必须重新审视和反思技术发展与社会实践之间的关系,辨明人工智能应用于警务执法活动中的价值目标与实现方式。把握“人是机器的尺度”,避免人工智能的工具理性主导警务活动而造成警务价值理性的丧失困境,这需要我们尊重人在社会生活中的主体性地位,充分意识到“相互理解是交往行动的核心”[51],坚持“包容共享”原则,以交往理性正确矫正、引导工具理性的发展,回归警务活动中的道德与情感“主体间性”关系,辨明“公众参与”的重要性,维护执法对象对话与交流的权利,真正实现意见的双向交换、信息的公开透明、决策的公平公正[52]。

一方面,应当以交往理性为指引,重视警务活动中技术与人的互动。人工智能参与警务活动不代表技术的唯一性,而应充分体现“和合”的多元交流过程,尤其是在人工智能参与的主观性较强的警务活动中,必须着重体现外部人类力量的参与,吸收并采纳管理服务对象及社会公众对于警务活动的意见,充分考量人类心理情感活动,综合判定决策并付诸行动,化“策略行为”为“交往行为”。让技术更好地做出合乎人类理性回馈的同时,对人工智能的执法行为和结果做出社会规制。谨防“技术”对人类产生的制度单向性控制,从而在技术与人的互动中实现警务活动的目标。

另一方面,摒弃技术至上的纯粹“工具理性”价值观念,规避人工智能参与警务活动导致人的“物化”。人工智能主导的警务活动将技术至上作为自身的运行理念,执法过程更强调“命令—服从”关系,难以对复杂的社会现实综合判断。对此,应在充分沟通的基础上重塑人工智能参与下的警务活动,根据警务的核心价值制定具体的政策,综合社会现实以及具体警务工作情况,准确调整人工智能参与警务活动的策略和行动措施,使其在参与警务活动过程中具有道德上的可实行性和情感上的可接受性,即在绝对客观理性的“技术”中赋予人类的主观意志。使人工智能能够成为兼容人类、理解人类、适应人类的类警务活动主体,消除其参与警务活动可能造成的警务价值的异化,变原有的“命令—服从”关系为“取信—理解”关系,使人类的伦理道德体系能够楔入人工智能应用中,为其注入人文关怀的鲜活灵魂,让“人工智能”更具有“人性”基调,使警务更好地服务人类的安全与发展。

结 语

我们在使用技术的同时,技术也在作用于我们。在肯定人工智能等新兴技术对社会发展巨大推动作用的同时,必须清醒地认识到,作为能够强化、延伸甚至复刻人类思维的特殊技术形式,人工智能应用的广度和深度将超过以往任何一种技术,其对公共治理领域巨大的渗透作用已经使其从技术转化为治理手段,蕴含着系统性的风险。人们对人工智能异化的担忧不仅包括传统工具理性放大后人类成为技术附庸的隐忧,同时还包括人工智能在算法进化的同时拥有类人的智慧而引发的诸多危机,而这些危机最为集中的表现就是人类主体性的丧失,进而导致交往理性弱化,难以安置人类交往的情感需求。我们对人工智能在警务领域大规模应用导致的异化风险并非杞人忧天,部分风险实际上已经显现,迫切需要我们思索这一问题,及早进行规制。在不远的将来,人工智能发展将继续改变社会,重塑我们生活的模式,从人类的主体性和交往理性出发,无论身处怎样的技术浪潮下,无论在此推动下社会演变为何种样态,人们都有权捍卫自己作为“人”的根本属性,保有来自心灵最本原的情感体验。

猜你喜欢

警务异化人工智能
马克思的异化观及现代西方学者对它的拓展
涉外警务学二级学科构建的意义与可行性研究
拒绝异化的人性之光
“一带一路”背景下涉外警务人才英语口语提升研究
2019:人工智能
人工智能与就业
浙江省嵊州市公安局甘霖派出所:推进警务管家+警务助理模式
湖北省武汉市公安局东西湖区分局:警务技能教官深入派出所培训实战技能
数读人工智能
亲情的异化:《斯卡伯勒的婚约》中长幼关系的文化诠释