人工智能助推多种监督类型贯通:逻辑·障碍·进路*
2022-03-15王凯伟
王凯伟,汤 棋
(湘潭大学 公共管理学院,湖南 湘潭 411005)
习近平总书记在党的十九大报告中指出,要“构建党统一指挥、全面覆盖、权威高效的监督体系,把党内监督同国家机关监督、民主监督、司法监督、群众监督、舆论监督贯通起来,增强监督合力”[1]。目前,我国监督体系符合中国国情发展,多种监督类型共同构成的监督体系取得一定的监督效果。然而,监督体系在应用过程中的监督漏洞依然存在,如监督过程中存在信息不对称等情况。是故,构建多种监督类型的贯通是新时代完善党和国家的监督体系的基本要求和顶层设计,也是党和国家监督体系发展进程中的现实目标。习近平总书记提出:“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出性很强的头雁效应。”[2]以人工智能为头雁代表的数字技术驱使监督部门探寻平衡工具理性与价值理性的良策,即随着人工智能技术在监督体系中的深度嵌入,监督效能与监督合力的提升变为一种技术赋能的工具理性。同时,人工智能技术导致监督异化趋向而促使监督部门聚焦其价值理性,使人工智能+技术的发展具有合规性和有序性。
研究数据表明,利用大数据和人工智能技术进行监督的问题已经成为研究的前沿,学界对此类问题较为关注,取得了一定的研究成果。我国对传统监督方式变革研究始于2010年左右。由于网络的迅猛发展引发了利用互联网监督的浪潮,进而颠覆了传统的监督方式。近几年,随着智能化技术日益发展,利用大数据和人工智能平台监督成为研究的热点。相关学者利用大数据与人工智能技术进行了权力监督的实证研究,如谭海波等人基于贵阳市数据铁笼分析了利用数据技术进行权力监督的创新路径:大数据能够促进权力监督走向精准、高效、无缝化发展的趋势[3];黄其松等人以贵州的“数据铁笼”为例作了进一步的案例研究,认为可以基于数据铁笼智能平台,利用大数据技术对权力运行进行全过程和实时的监控[4]。过勇等人基于智能技术构建了领导干部廉政风险测评指标与信息系统模型,评估领导干部廉政风险的等级,从而确定监督的主要对象并进行干预,可有效减少腐败行为发生的机会[5]。王向明等人提出了数字赋能监督的价值要素,制约因素与解决路径[6]。曾智洪等人提出了一系列的解决方案来构建完善的数字监督体系,从而使数字监督技术为人民谋幸福[7]。徐彬等人认为云监督是利用智能技术监督的基础,云监督促进了监督信息的高效流动,跨越了时空限制,贯穿于权力运行始终,是一种高度智能化的监督[8]。学者们都关注到了利用智能技术提升监督效能的可能性,但是并没关注到利用智能技术促进多种监督类型贯通的逻辑,所以我们认为有必要对利用智能技术提升多种监督类型贯通的逻辑、制约因素与解决方案进行系统梳理,从而为完善党和国家监督体系、促进监督合力的提升提供有效思路。
一、人工智能助推多种监督类型贯通的逻辑
监督方式呈现日趋多样化的发展态势,大数据嵌入监督体系中,进一步推动着监督的智慧化。利用人工智能技术助推监督,是为了提高党和国家监督体系的监督效能。智能技术在监督体系中的应用又能促进智能技术的再开发与再运用,从而推动人工智能技术本身的治理能力不断跃升。因此,人工智能技术与监督体系构成了双向互动的逻辑关系,最终的落脚点是为了满足人民的根本利益。
(一)符合现实需要的合法性逻辑
合法性的概念源自马克思·韦伯,被用于政治统治中。他认为,让公众相信或赞同的统治就是具有合法性的统治。现今学界认为合法性不仅包含“合法律性”还涵盖了正当性和合理性[9]154。人工智能技术嵌入监督体系中是符合现实需要的,人工智能技术的利用是为了满足监督合力提升的需要,其具有正当性和合理性。
人工智能技术的正当性体现为对党和国家的方针政策的支持。党的十九大报告提出要“提高社会治理社会化、法治化、智能化、专业化水平”[1]。党和国家的监督体系是国家社会治理体系的一部分,利用人工智能进行监督为国家治理提供了新机遇。利用人工智能助推多种监督类型贯通是促进国家治理能力现代化不可或缺的部分。利用人工智能进行监督符合党和国家方针政策的基本要求。各地方纷纷响应党和国家的政策思路,致力于利用人工智能技术监督并取得了一定实效。山西的“智慧监督”工程,推动监督数据全样本化,深度挖掘数据背后的规律,使得风险变得可控,推动监督的智能化[10]。河南郑州市中原区人民检察院致力于对监督数据“自动统计预警,使静态数据智能再现”[11],力求推进智能化监督。
腐败作为一种社会痼疾,从整个社会范畴来说,其存在影响了社会全员的发展和社会的全面进步。利用人工智能技术进行监督弥补了监督失效和缺位现象,能有效遏制腐败的发生。首先,人工智能使得层级之间的界限有所突破,组织结构趋向扁平化,实现了实体层级与虚拟层级之间的交互。如利用智能平台对各地的腐败数据汇总,避免了举报信息层层传递造成的信息不实。其次,人工智能平台将海量的数据进行分类对比,形成廉政分析结果的知识图谱,可理清腐败风险点。如对于“扶贫领域”“虚假发票”等问题量身定制分析知识图谱,划定腐败的高危敏感区,厘清腐败易发点,让腐败行为被遏制在摇篮中。最后,人工智能平台设置监督模型算法,能做到对领导干部任职期间的基础数据、作风数据和行为数据的精准比对,探寻规律并对异常数据进行分级预警。分级预警的施行能有效遏制隐形的消极腐败行为,让领导干部在细微处进行行为纠偏。
(二)突显有效性的赋能逻辑
人工智能技术嵌入监督体系中,为监督体系的发展带来赋能效应,也就是说,人工智能提升了监督的有效性。人工智能技术嵌入监督体系而驱使监督思维模式的转变,呈现前瞻性、动态性和系统性的思维方式。首先,前瞻性思维体现在标准预设:利用人工智能平台进行权力标准行为预设,设计业务流程模型,制定监督规则体系。人工智能平台获取的数据修正监督标准,各个监督主体根据数据模块来实施监管,权力监督的空白地带通过人工智能数据得到弥补。基于权力标准行为的数据库,各个监督主体对滥用权力的行为有了更清晰的认识。监督客体的权力运行过程都通过人工智能平台得以记录,权力运行的每一环都可以通过数据、影像来进行追溯,监督主体可以通过人工智能平台实施权力运行痕迹管理,进而让权力在阳光下运行。其次,动态性思维体现在实时监督:人工智能平台不仅能对权力过程监督,而且能够进行权力运行实时监控。传统权力监督的着重点在于制度与规则的设计以及最终监督结果的审查[12]。传统权力监督设立制度规范,固然对权力运行不当行为有匡正效应,但是仅仅对权力运行的后果进行监督检查,导致权力腐败造成的损失难以弥补。人工智能平台通过数据对权力运行进行实时监督,弥补了传统权力监督因为信息不对称而造成的权力监督的空白地带,人工智能技术贯穿于权力运行的始终,改变了传统监督的部门监督“信息孤岛”状态。权力监督机构彼此间通过智能平台实现信息资源沟通与共享,通过公开的信息实现互相监督。最后,系统性思维体现在相关关系的探寻。传统监督基于数据样本进行分析,通过探求数据资料之间的因果关系来找到腐败点。这种小样本数据采样的方式对腐败的控制与预防的能力极其微小。腐败风险点的探寻需要纳入多种因素,碎片化的分析采样数据易导致监督主体在腐败发生时陷入被动状态。利用人工智能平台进行数据相关性分析可为监督部门摆脱这种困局提供良策。利用人工智能技术对多元化的数据进行分析并探寻数据与数据之间的相关性,实现对腐败风险点的全景还原。总之,人工智能技术的嵌入使得标准预设、实时监督以及相关关系的探求成为可能,从而提高了监督效能,让多种监督类型更加紧密联合,形成完善的党和国家监督体系。
(三)彰显人民主体地位的价值逻辑
人民主权理论认为“人民拥有主权,国家的主权源于人民权利的让渡,因此人民对国家有天然的监督权”[13]。坚持完善党和国家监督体系就意味着要时刻坚持以人民为中心,突出人民的主体地位,“做到发展为了人民,发展依靠人民,发展成果由人民共享”[14]18。权力运行主体应该自觉接受人民的监督,确保任何滥用权力者不脱离法律的约束。人工智能技术助推多种监督类型贯通符合以人民为中心的基本要求。一方面,人工智能促进权力运行数据共享。借助智能平台,权力运行主体及时向社会公开公布重要的信息,社会团体和人民群众能够利用平台信息及时掌握权力运行的动态,权力运行主体时刻处在社会团体和人民群众的监督之下。“社会监督就像一双无所不在的眼睛,形成一种‘软约束’助力党内监督和国家机关监督取得实效。”[15]4社会团体和人民群众通过人工智能平台的共享数据对权力运行主体进行监督,能有效地促进党和国家监督实效提升。另一方面,监督部门利用人工智能技术将各种信息进行处理、传递、开发和利用,从而建立起系统的“廉政风险测评指标”[5]。监督部门将测评指标信息公开,便于人民群众根据指标及时了解腐败行为发生的情况,人民群众也可以根据数据来预测权力运行主体的行为,达到事前监督的效果,使得滥用权力的行为遏制在萌芽状态,监督的合力提升得到有力保障。“党内监督、国家机关监督和社会监督三种方式都以维护党和人民群众利益为出发点和归宿。”[15]4所以,以人工智能技术促进监督合力的提升是符合以人民为中心的要求的。
二、人工智能助推多种监督类型贯通的障碍
人工智能技术在推进多种监督类型贯通方面提供了新的技术范式,摆脱了传统监督方式带来的局限性,推进了监督方式的智慧化转型,增强了各个监督类型之间的黏附力。然而,人工智能技术存在的数据黑箱与伦理风险易导致人工智能技术在推进多种监督类型贯通时陷入异化状态;人工智能技术人才的缺乏和制度保障的阙如,以及贯通合力不足又使得利用人工智能技术监督陷入保障缺失的风险。因此,我们在肯定人工智能技术对监督的助益时,应该挖掘运用人工智能技术进行监督所面临的潜在风险,从而为探索人工智能技术推进多种监督类型贯通提供认识论基础。
(一)数据黑箱
“黑箱”的概念源自控制论,是指不能被人直接观察而无从知晓其运行状态的内部系统。人工智能的应用基于大数据,人工智能技术对海量的大数据进行处理的过程中产生数据黑箱。传统的监督方式由于受环境、人性、法律等因素的影响,存在一定的局限性,在进行监督结果决策时有容错率,而在人工智能技术辅助下的权力监督使得监督数据得以量化,监督信息公开透明,大大约束了监督主体的主观判断和暗箱操作行为。但监督数据的量化也产生了一些问题:首先,数据信息的过度量化导致权力运行主体失去自由裁量空间。监督是一项社会性的活动,监督客体也存在主观性和模糊性,监督数据有时不能真正反映监督客体的真实情况,监督信息的过度量化并不意味着监督信息的科学化,对数据的过度迷信让自由裁量空间受到限制,监督主体和监督客体都陷入了数据黑箱,被数据困住而无法进行自我决策。其次,人工智能依据海量的数据进行监督决策,数据的质量直接影响监督决策的质量,而现今的人工智能技术对数据质量的甄别还有待提高,监督主体过分依赖人工智能技术数据进行监督决策,将会被数据黑箱困住。最后,普通大众对人工智能技术的数据分析过程一无所知,即数据的处理过程处于黑箱之内,权力运行的数据反而成为推动多种监督类型贯通的阻碍。
(二)伦理风险
过度依赖技术:人工智能技术在助推多种监督类型贯通的过程中可能引发权力运行主体过度依赖技术。一方面,监督主体依赖人工智能平台作出决策,试图让人工智能技术贯穿监督的全过程,机器提供最终监督结果,部分监督主体形成了技术依赖,认为智能技术能够作出决策结果的“最优解”,他们并没有思考机器决策是否符合人的道德价值观。这种过度依赖智能技术使得监督主体弱化了创新能力与自主判断能力。另一方面,人工智能技术监督程序化,注重强调数字背后的理性权威,若过度依赖技术便会造成对人的经验和人性的压制。当面临监督中的突发事件,程序化的监督由于没有进行相关数据记录并不能及时抵御风险,传统的依赖经验的监督是抵御突发风险的良方。过度信任数字理性权威造成对人的感性思维的怀疑,引发在面临监督突发事件时陷入监督失序风险。
技术哲学家埃吕尔认为,当人的一切行为都要受机器所支配时,人就变成了技术的奴隶[16]。人类创造智能技术的初衷是为了满足人对美好生活的需要,然而人类对技术的过度使用却可能引发一系列社会问题,其中一个主要问题是人机责任边界不清,即监督主体在工作中依据岗位职责承担相应的责任,然而智能机器不具有责任承担的主体性资格,这就导致了责任边界划分的分歧。当智能机器在监督中出现失误,责任归属应该属于谁,是进行人工智能程序算法写入的技术人员,还是运用人工智能监督过程中的操作人员?还是机器本身?这样就引发责任归属的伦理问题。传统的技术设计者具备责任承担的主体性资格,然而人工智能技术运用中,责任归属问题却需要审慎考虑。
(三)人工智能技术人才缺失
人工智能技术人才缺失是促进人工智能发展的最大阻碍之一,特别是既懂得监督工作又能够灵活运用人工智能技术的复合型人才缺乏。美国数据分析学家弗兰克斯认为,懂得灵活运用工具和技术的人才是使得数据分析成功的关键[17]。人工智能运用于监督工作中时,足够的人工智能复合型人才是促进人工智能+监督的工作良好运行的重要因素。毕竟,人不能够完全依赖人工智能作出数据分析并最终作出监督决策,因为人工智能算法存在缺陷,对于数据的量化分析取得的结果是基于机器运算而得到的最优解,而人的道德与人的价值观却很难利用算法来衡量。人的经验判断与理性思维是监督决策中必不可少的条件。因此,高端的复合型人工智能人才是弥补人工智能在促进监督运行时产生缺陷的重要因素。
与国外相比,中国的人工智能技术人才的分布偏于应用型人才,缺乏实践能力较强的高级算法工程师和高端研究人员[18]。中国缺乏高端的人工智能人才,一方面是因为国家的人工智能人力资源培养落后于发达国家;另一方面,高等学校的人工智能专业设置相对落后,培养的重心也主要在人工智能的专业理论知识和研究应用能力方面,很少注重复合型人才的培养。人工智能应用于监督,不仅需要培养具有人工智能专业知识,而且需要懂得监督监察工作的人才。复合型人工智能技术人力资源开发与人才培养相对滞后是阻碍人工智能应用于监督中的重要因素之一。
(四)制度保障阙如
权力监督与权力运行的主体行动都要在制度框架内进行,人工智能技术在监督监察工作中的有序运行同样离不开有力的制度保障,“制度的缺失必然会导致技术应用的失效”[19]111。高效的权力监督有赖于制度与技术之间形成优势互补,构成良性互动。制度的发展要紧跟技术进步的脚步。换言之,技术的快速更新迭代需要有效的制度保障。制度需要根据特定的环境来构建,也就是说,一项制度不能运行于所有的场域中,也不能始终保持不变,制度需要随环境的变化而加以更新。同样,“技术要真正成为技术,需要被组织化、制度化”[19]110。技术决定论乐观派强调技术在促进社会发展中的不可磨灭的作用,甚至认为科学技术是唯一推动人类社会进步的因素。当技术被运用于监督工作中,权力监督与权力运行者更强调的是数据、算法与算力等技术的综合运用,而忽视了促进技术良序运行的制度。技术与传统制度的简单相加并不能驱动智能+监督的工作良好运行。诸多因素阻碍政府部门制度的发展:其一,政府部门转型的速度跟不上智能技术发展的进度,人工智能时代的到来促使政府运用数字化技术,但起初的政府数字化只是为了提高政府效率,而“忽略了数字政府是智能时代政府体制的根本转型”[20]27,所以这导致了人工智能运用于监督工作中时进程缓慢。其二,在利用智能技术监督的过程中涉及相关信息的保密问题,但相应的保密制度不健全。这两大因素都构成了政府部门运用人工智能技术进行监督制度的不完善。
(五)贯通合力不足
人工智能技术是推进多种监督类型贯通的重要力量,但除此之外,还应该整合多项贯通合力,以提高人工智能推进多种监督类型贯通的有效性。目前贯通合力不足主要体现在以下方面:首先是缺乏权威支持。对于社会监督,只有党和国家的权威支持才能使之由柔变刚,成为党和国家监督体系的重要力量。信息有效公开和互动是党和国家对社会监督的有效支持之一,但目前利用人工智能资源平台的信息公开程度有限,平台举报信息还未能形成双向互动和有效反馈。对于监督技术,党和国家还没有完全掌握技术控制权,至此易导致技术被企业和专家垄断而处于被动地位。党和国家只有掌握技术控制权威才能探寻纾解之道。其次是资源整合低效。一方面,内部监督的资源衔接不够。部分监督主体如人大监督、监察监督、派驻监督之间隶属关系有差异,所以当需要信息协同时,各个监督主体首先考量自身利益,从而影响监督效能。另一方面,外部监督资源分散。体制外监督如群众监督因为是非强制性的,部分监督主体对群众监督消极抵抗,不能意识到群众监督是重要力量,所以还未能成为有效的监督合力。最后是信任不足。监督部门对新技术的接纳程度不一,部分个体甚至抗拒利用新技术进行监督。普通大众对于利用人工智能技术进行监督的了解程度也不够,部分民众对新技术持怀疑态度。
三、人工智能助推多种监督类型贯通的进路
当人工智能在党和国家监督体系场域中发挥技术效用之时,必须高度重视其面临的风险,并通过破解数据黑箱、加强伦理反思、提升制度建设、培养人工智能人才和健全多种监督类型贯通的促进机制等进路,为人工智能推进多种监督类型贯通提供技术应用保障。
(一)破解数据黑箱,推进透明算法
监督机构应该广纳人才,培养既懂得监督工作又懂得处理数据的数据算法师。海量大数据背后究竟蕴藏着什么危险,普通大众难以知晓。因此,数据科学家舍恩博格提出应该培养外部算法师和内部算法师:外部算法师鉴定数据的有效性和准确性或为数据使用者提供数据审计服务;内部算法师负责监督机构内部数据是否正常运行,同时审查数据结果是否完整准确[21]120。同样,权力运行与监督主体也可以培养与引进数据算法师,数据算法师负责监督数据鉴定与审计,核查监督算法模型的准确度,对不当的监督决策实施纠偏。数据算法师让权力监督与运行者对数据进行更加有效驾驭,同时让民众对数据更加了解。
人工智能技术的运行依赖于算法,“算法是智能技术的‘魂魄’所在,是‘智能’的重要核心”[22]92。所以权力运行主体应该设置可理解的并有意义的算法透明度[23]96。“可理解”是指控制算法的技术人员应该以浅显易懂的方式对公众和算法决策者进行算法说明[24]180。可理解的算法透明度对于公众来说就是不需要掌握人工智能的专门知识或者求助于专家就能理解算法。这对于利用算法进行监督决策人员来说意味着算法不会成为影响监督决策的障碍。“有意义”是指在维护权力运行主体与监督客体的隐私与机密信息的前提下,提升算法的透明度。有意义体现为两个方面:其一,数据的获得应该在监督客体具有知情权的情况下进行;对于可能侵犯监督客体利益的数据,监督客体具备可解释权。其二,为保障权力运行主体的数据的安全性,应该设置适度的加密算法。加密算法的设置可以确保各个主体之间在维护机密的情况下进行数据共享。此外,还需要从算法外部着手来促进算法透明。算法的使用者、算法的设计者、普通大众以及相关规制的设立等多元力量的整合有助于推进有效透明算法。至此,可破解让人难以理解和难以挣脱的数据黑箱。
(二)加强伦理反思,规避技术风险
权力运行主体应该在权力机构内部成立人工智能技术伦理监督委员会。伦理监督委员会负责监控权力监督过程中出现的伦理问题,同时负责设置伦理规范,对权力监督中技术依赖过度和人机责任不分等问题加以规制,促成伦理反思。监督委员会还可以设置相应的伦理原则,如尊重自主性原则:监督主体在利用人工智能技术进行监督时,不应当成为技术的奴隶,应始终以人能够自主地进行监督决策结果的辨别为前提。技术的嵌入构成了风险并不意味着要完全否定技术,人的自主性与技术的价值的有机结合并充分保障人的主体地位,这样才能促进技术向善。又如责任原则:应该细化监督主体责任,厘清责任边界,即哪些责任应该由监督主体来承担,哪些职责范围是由智能技术控制的,应该加以厘清。对于由技术的控制而不能随人的意志为转移的职责,可以由相关技术人员开发相应程序软件,确保机器决策符合道德标准。如Facebook于2018年成立了团队专门用于开发监测机器决策的软件,确保机器决策结果是在人的道德伦理范围之内[25]155。再如权责一致的原则:技术的使用者也是责任的承担者,对于在监督过程中出现的伦理问题,技术的使用者应该始终保持与时俱进的心态,把技术的创新当作自己职责的一部分。技术只有不断更新和完善才能更符合人的伦理规范,技术才能不断向更加人性化的方向发展。伦理委员会的设置能够促进人对技术风险的认知建构,摆脱对技术的依赖,厘清责任边界,从而促成对伦理风险的反思。
(三)推进制度建设,提升贯通保障
数据哲学家舍恩伯格曾说,大数据会改变人们的思维方式,人们的生活习惯和旧的制度也将被颠覆[21]11。制度需要随时代的更替而更新,完善的制度对利用人工智能技术促进多种监督类型贯通起到了决定作用。权力运行与监督主体在利用人工智能技术助推监督之前,要对相关制度加以完善。首先,应该设立规章制度来规范人工智能技术,避免人工智能参与监督决策因带有偏见的数据和算法而影响最终的决策结果。其次,利用人工智能技术促进监督体系的良好运行是数字政府建设的一部分,加快推进数字政府建设体制改革,为数字政府建设做好有序规划,保障数字政府建设的良序推进。再次,建立人工智能技术责任制,厘清对人工智能平台的监督信息数据的管理、采集与利用时的权责关系,解决以往对数据信息管理分散和数据采集重复等问题,增进数据充分共享和数据有效利用。最后,建立权力运行与监督主体数据信息保密制度,对不能完全公开的信息,应该以保密制度加以保护,从而保障信息相关部门和个人的隐私权。
(四)培养人工智能技术人才,提供人力资源保障
培养人工智能技术人才是促进人工智能助推监督的关键保障之一,所以权力监督与运行主体要注重智能化人才的培养。其一,要制定人工智能人才培养战略。人力监督和人工智能技术监督具有各自的优势,人力监督根据人的伦理道德进行决策判断,人工智能技术能处理复杂的数据,根据数据来预测规律,从而预测监督客体的行为路径,而人工智能技术人才正是促进二者良好结合的“耦合剂”。应积极制定人才培养的长远战略,建立智能人才培养的长效机制,着力培养和引进高端复合型智能人才以保障人工智能技术助推监督。其二,要转变人才培养观念。智能人才培养不单是培养人,还要培养高端的智能机器人。换言之,要把智能机器技术资源的投入作为人才培养战略的一部分。“要引进技术高、性能稳定、功能强大的高端智能机器人。”[26]72其三,建立政府与高等学校人工智能技术人才联合培养机制。对于智能人才培养,政府应该明确政策导向并加大资金投入。政策导向方面:政府应设立明确的人工智能技术人才培养的目标和标准,高等学校根据相关人才培养目标与标准来制定人才培养方案,致力于培养全面发展的复合型人工智能技术人才;资金投入方面:政府应该加大高等学校人工智能学科教育与公共管理学科教育的经费投入,对注重两个专业人才联合培养的高等学校给予额外的经费支持。
(五)健全多种监督类型贯通的促进机制,整合基于人工智能的监督合力
机制的概念原来用于指机器构造原理或者是构成机器良好运行的机理。促进机制在党和国家的监督体系中体现为推进基于人工智能技术的各个监督类型之间贯通的作用方式。各个监督类型之间既具有独立性又具有统一性,各个监督类型的有机统一关键在于有序运行的促进机制,合理、有效地促进机制能够驱动各个监督类型之间贯通。因此,需要从以下三个方面着手来完善多种监督类型贯通的促进机制:
第一,完善党统领监督工作机制。习近平总书记在十九届中央政治局第六次集体学习会上提出:“要建立健全坚持和加强党的全面领导的组织体系、制度体系和工作机制。”[27]同时,党的十九大报告也提出各种监督类型的贯通需要在党的统一指挥下进行[1]。党的领导作用在推进监督类型贯通中是必不可少的,同时党的统一领导对于监督体系中的共同目标的达成也是至关重要的。发挥党统领监督工作机制也意味着党在引领人工智能+监督走向良性发展过程中始终担任掌舵者的角色,要充分发挥党对技术的领导权和主动权。
第二,建立多元协调机制。多元协调机制的构建是促进各个监督主体理清关系的重要因素。在利用人工智能技术推进各个监督部门合力增强的基础上,建立多个监督部门协调机制能够恰当限制彼此间互相推诿责任,有效规避监督效力不实现象,实现监督权力的高效调度,推进监督资源的有机整合。多元协调机制的构建也意味着各个监督主体紧密合作,共同应对利用人工智能进行监督构成的风险,以促成监督合力的生成。
第三,建立信任机制。监督部门中每个个体对于利用人工智能技术进行监督的接受程度是具有差异性的,对先进技术接纳能力滞后的个体可能产生对新事物的焦虑心理,所以需要在组织间建立起信任机制以提高个体对利用人工智能技术进行监督的适用性和有效性的认可度,从而提升个体对技术的接受能力。同时,信任机制的建立能树立社会公众对人工智能的信任感,公众只有相信在利用人工智能技术进行监督带来的利益多于损害时,才能让人工智能技术得到充分发展。
四、结语
随着人工智能技术与监督的融合逐步深入,人工智能技术嵌入监督的成效日趋明显。人工智能技术分析数据的可预测性、数据监测实时性为优化监督流程和监督效果的评价提供了有力保障。利用人工智能技术监督符合促进国家治理能力现代化的现实需求,彰显了以人为本的价值逻辑。监督效能的提升离不开技术的持续变革和创新,同时技术的革新也会对监督体系的发展产生重大影响。监督效能的提升正是构成多种监督类型贯通的基础。具体而言,统一的人工智能监督平台促进了多项资源的整合并高效处理,有效增进了多个监督类型的协同。但是人工智能技术也为监督带来了诸多的障碍:数据黑箱、伦理风险、制度保障阙如、人工智能人才缺失以及贯通合力不足等。因此利用好人工智能技术这把“双刃剑”,促使人工智能技术向善,为人类的美好生活增添色彩就意味着要兼顾人工智能技术的发展与技术的治理。在促使人工智能技术发挥最大优势时应寻求优化措施,来促进人工智能技术嵌入监督中的良好运行。利用人工智能技术推进有效监督之路不能一蹴而就,需要循序渐进,遵循螺旋式发展的规律,在不断调整中推进监督+技术的有机融合。这样才能最大程度弘扬人工智能技术与监督融合的价值,为未来的监督创造坚实的技术基础,进而推进多种监督类型贯通。