APP下载

人工智能时代行政决策的法治化进路

2020-12-20燕晓婕

关键词:决策行政人工智能

燕晓婕

(内蒙古科技大学 文法学院,内蒙古 包头 014010)

行政决策作为现代行政的重要方式,是行政权力运行的起点[1],对公民权益、组织行为与社会秩序都会产生很大的影响。自2004年《国务院全面推进依法行政实施纲要》首次明确提出依法决策的制度要求以来,党中央、国务院通过数部纲领性文件对行政决策的法治化做出了制度安排,2015年的《法治政府建设实施纲要(2015—2020年)》更是将行政决策科学民主合法作为衡量法治政府基本建成的重要标准之一。2019年4月20日,《重大行政决策程序暂行条例》的颁布则标志着我国行政决策的法治化迈上了一个新的台阶,但前进的道路并非一帆风顺的,在实践中行政决策效率低下、公众参与性不足以及对决策科学性的质疑等影响政府依法决策的顽疾依然凸显。人工智能时代的到来不仅颠覆性地改变了人类的生活模式,还对政府治理方式产生了重大影响。2017年7月,国务院印发的《新一代人工智能发展规划》要求开发适于政府服务与决策的人工智能平台,研制面向开放环境的决策引擎。因此如何实现人工智能与行政决策、法治政府之间的融合并有效地进行风险防控和法治化应对已成为当务之急。

一、人工智能概念的法学界定

自1956年美国达特茅斯会议上提出人工智能概念以来,对人工智能的理解一直存在争议。对于人工智能追求的目标应该是什么,计算机科学界有两种明显不同的理念:一种是希望人工智能借鉴人类解决一类问题时表现出的智能行为,研制出更好的工具,用来解决特定的智力问题,被称为“弱人工智能”;另一种是模仿人类的思维,希望能够研制出各方面都可以与人类智能比肩的人造智能体,甚至能最终能够超越人类智慧水平的人造物[2](P326),被称为“强人工智能”。两种理念的根本区别在于是设计造福于人类的技术,还是将技术作为目标本身[3](P114),但无论是“弱人工智能”还是“强人工智能”都是从技术发展的角度对现实社会产生影响并对人类的未来进行规划。尽管技术对法律制度影响重大,但技术在法律中的适用以及技术对法律制度的影响却仍然会受到法律的限制。因此,法律中的许多程序、制度规定都要与当下的技术发展水平相适应。而当下人工智能所取得的成就,基本都源于弱人工智能的研究,图灵测试所提出的人造智能机械的目标已经超出了人类目前的需求。因此从法学的角度研究人工智能一方面不宜超越现有的技术水平,另一方面,要能够嵌入现有的法律体系中。

(一)人工智能要以人的需求为中心

法律价值的本质是法律如何服从和服务于人,是为人类能够更好地生活和生存发展服务的[4],人工智能也同样如此。2019年6月17日,国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》提出:人工智能发展应以增进人类共同福祉为目标;应符合人类的价值观和伦理道德,促进人机和谐,服务人类文明进步。因此,无论是弱人工智能还是未来可能会实现的强人工智能,尽管表面殊途,但正慢慢朝着“共生共存”的阶段前进,因此人工智能的发展与治理要以人为本,要将人的需求与利益嵌入人工智能系统中。

(二)理性对待科学技术对法律的影响

随着第四次工业革命的到来,人工智能技术作为驱动力之一,在深刻改变人类物质生产体系的同时,也将深刻改变人类的社会关系与社会行为[5]。而法作为人类对自身行为及社会关系进行调整的规范体系在科技革命的浪潮中使人无法置身事外。仅仅依靠法律的价值理性而忽视对科学技术的关注与科技成果的采纳是无法推动法律的发展并解决实际问题的。事实上,人工智能对于法律的挑战已经初步显现,如人工智能的数据、算法歧视,掌握人工智能应用技术的企业进行数据分析所导致的数据垄断、隐私侵犯及政府治理的弱化等问题都需要法律对其进行回应。因此,应当既利用人工智能来推动法律的发展与法律问题的解决,又积极控制和防范人工智能带来的法律风险,实现法律的价值理性与科技的技术理性的平衡。

二、行政决策法治化的核心

目前,法学界对于行政决策概念的界定存在多种观点,但无论怎样界定都不能脱离行政法治最基本的要求,即依法进行。从实践中来看,因政府的随意决策、违法决策引发的群体性事件屡见不鲜,造成了巨大的直接或间接的经济损失。习近平总书记在党的十九大报告中指出到2035年我们要基本建成法治国家、法治政府和法治社会。行政决策是政府一切行政行为的前提,行政决策的质量直接决定法治政府建设的质量[6]。因此,行政决策的法治化不仅是依法行政的题中应有之义,还是法治政府建设的基本要求。

实现法治应当是一种形式正义与实质正义的统一,通过程序提供一种独立的正当性的评判标准是两种形式统一的钥匙。因此,行政决策法治化的核心在于通过以程序为关键的外部制度的构建,推动实现科学决策、民主决策、依法决策的实质目标。2019年4月,国务院颁布的《重大行政决策程序暂行条例》则体现了这样一种治理思路,以决策流程为主线,明确适用范围、基本原则的同时,重点对重大行政决策草案的形成、合法性审查、集体讨论决定与决策的执行和调整等环节做出强制性要求。

增强法律实施的实效性是当前法治政府建设的重要命题之一;同样,增强行政决策程序制度实施的实效性也是我们当下应当解决的现实性问题。而我们身处这样一个信息化时代,在共享经济、大数据、人工智能浪潮的席卷下,既然无法置身事外,那么不妨顺应时代的浪潮,用信息化的手段来推动行政决策的科学化、民主化、法治化,从而推动法治政府的建设。

三、人工智能在行政决策过程中的应用

(一)人工智能在行政决策过程中的角色定位

人工智能的本质是以人的需求为中心的,对人工智能的运用不能超越现有技术的技术水平,而现实就是,我们目前还处于弱人工智能应用的阶段,弱人工智能最大的特点就在于它的工具性与辅助性。因此当前人工智能在行政决策过程中的定位应当是一种决策辅助手段,政府依然是行政决策的主导,这不仅是受技术发展的限制,还是行政决策伦理的要求。同时,政府还应当处理好人工智能的运用与关键性决策之间的衔接关系,既要实现人工智能对行政决策质量提高的有效推动,又要避免人工智能可能带来的风险危机。

(二)行政决策过程中应用人工智能的必要性和可行性

1.国家战略发展的需要

自2013年以来,美国、欧盟、英国、法国、德国、日本等国相继出台了人工智能的战略计划和政策。从国家战略的高度来制定人工智能发展战略已经成为世界发达国家的共识。国务院自2013年开始围绕人工智能颁布了多项政策文件,包括《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018—2020年)》《新一代人工智能治理原则——发展负责任的人工智能》等文件从不同角度对促进人工智能发展提出要求。可以说,中国在人工智能发展政策和战略布局上已经完成了顶层设计和系统化布局,但人工智能与实体产业的融合还不够深入,国家出台的相关政策还需要进一步实施。与其他国家相比,中国的人工智能研究与应用领域较为广泛,其中行政管理、司法管理、城市管理也是其重点研究领域,而行政决策作为行政权力运行的起点涵盖其中也是大势所趋。

2.解决行政决策现实困境的需要

首先,人工智能有助于提升行政决策的精准度。随着社会运行复杂程度的日益加深,政府想要在大量的需决策事项中研判哪些问题涉及重大公共利益需要及时决策,仅靠人为观察、人工统计效率较低,且会造成决策滞后与决策偏差。大数据技术的进步为新一代人工智能的发展提供了丰富的数据资源,目前的大数据技术不仅能够捕捉静态数据,还能够捕捉大量的动态数据,但传统的数据处理方法无法有效地处理海量的数据,而深度学习技术这一人工智能新发展则很好地解决了这一问题。深度学习就是一种数据驱动的算法,大量的数据是建立精确模型的前提和保证,其本质就是一种逐层自动进行特征提取的机器学习方法,不需要人工参与特征选取过程是深度学习最大的特点[2](P269,277,317)。因此融合大数据与人工智能技术,通过智能捕捉人口、经济、就业、医疗、教育、环境、资源等政务相关数据,并进行优化分析可以使政府部门能够清晰洞察相关业务领域的客观现状,快速了解社会矛盾焦点和民众的迫切需求,并对决策议题做出精准定位。

其次,人工智能有助于提升行政决策的科学性、合理性。实现行政任务有多种途径和方式,决策方案的形成至关重要,实践中决策方案形成的科学性、合理性也饱受民众的质疑。人工智能能够基于大数据和深度分析模拟社会发展状况,预测各类指标从而形成一种事先预测决策模式,来提供不同场景下的决策方案以及可能带来的预期效果,以便政府形成最为科学、合理的决策方案。同时,在决策草案形成阶段,专家论证与风险评估环节的设置也是出于对科学决策的追求,专家论证的专业性、代表性和中立性以及风险评估的有效性也是目前需要深入解决的问题。人工智能作为一项技术,具有一定程度的客观性与中立性,智能系统可以通过预置社会多行业的专家业务经验,并结合政务数据中的相关潜在关联、因果关系、可能风险来提供更加广泛、专业、有效的论证和风险评估结果。

最后,人工智能有助于提升公众参与的实效性,实现民主化决策。当下行政决策过程中个体理性不足、公众信任缺失、信息交流不对称以及参与渠道不畅通等问题凸显。根据相关统计数据显示,截至2019年6月,我国网民规模达8.54亿人,手机网民规模为8.47亿人,在线政务服务用户规模为5.09亿人[7](P1-2)。互联网、新媒体及智能手机的普及已经为公众的广泛参与提供了新的机遇。人工智能跨媒体协同处理能力能够完成对政府信息孤岛的整合,在此基础上建立的开放人工智能平台不仅能够实现政府与公众的信息对称,来弥补公众个体理性的不足,还能够及时传递行政决策内容,保障公众的全过程参与,实现决策信息的循环回流,最终达到提升公众的政府的信任感,保证行政决策的质量和效果的目的。

四、人工智能给行政决策法治化带来的挑战

(一)算法黑箱导致的歧视与偏差

作为当下人工智能发展的前沿技术,深度学习的基础不是依赖于现实世界的本质规律,而是依赖大数据样本中体现出来的规律和特征,所带来的直接后果就是“知其然而不知其所以然”,这就是所谓的算法黑箱,也就是人工智能神经网络的不可解释性。这种不可解释性造成的问题主要有以下三个方面:第一,算法本身的公平性无法验证。算法的产生需要大量的数据来分析、提取和训练,因此使用不同的数据来训练可能会导致产生不同的算法规则,而由于过程的不可解释性,使得算法本身的公平性受到质疑。第二,人工智能提供的决策方案、论证结论、风险评估结果等内容由于算法过程过于抽象,决策者往往只能通过信息的表面联系来进行判断,而无法进行合理与否的实质性审查,这给某些想要获取不当利益的集团或个人制造了可乘之机,而我国政府内部人工智能人才严重短缺加剧了这种风险。第三,算法的抽象性与不透明性使得其无法接受社会公众的有效监督。以上问题都可能会导致行政决策偏离正确的方向,造成歧视与偏差。

(二)信息依赖导致政府决策与治理能力下降

大数据、人工智能辅助决策的广泛应用会导致政府的依赖性增强、人工决策的能力下降。行政决策过程本身是一个价值判断的过程,要综合预期保护的社会利益、决策成本、决策效果进行综合的衡量。这种判断与人们的价值观是紧密相连的,也是恰恰人工智能所不具备的。特别有些领域是人工智能不适合也不应当进入的,过度地依赖数据、信息及经过智能筛选后的结论会导致政府理性价值判断的能力下降,进而造成决策水平与治理能力的下降。

(三)智能信息收集与决策导致的法律伦理问题

人工智能决策过程中基于算法规则的需要,会收集大量的数据,使得很多原来无法统计和检索的问题变得有迹可寻,但同时也可能侵犯个人隐私。在人工智能时代想要获取个人信息变得非常容易,吃饭购物会产生消费记录,出行使用共享工具会留下行动轨迹,甚至血压、睡眠等身体情况都可以通过智能家居监测,这些数据被收集和存储起来足以描述一个人的特征,同时也产生了一种数据绑架,想要享受智能的便利,必须以让渡个人隐私为代价,但这真的是人类想要的吗?值得怀疑。

人工智能给行政决策主体的责任界定带来挑战。对于因决策失误或违法给国家利益和社会利益造成重大损失的,要进行追究和问责,但如果决策的失误或违法是人工智能的运用导致的,那么如何来追究责任,从决策者来说很可能是一种避责的态度,而人工智能又不具备承担责任的能力,会给责任主体界定带来困难。

五、人工智能时代行政决策的法治化进路

(一)构建智能化的决策辅助体系

智能化决策辅助体系应当是一种集态势感知、预测分析、仿真模拟和对策分析于一体的综合体系,通过对行政决策事项的事前判断、事中控制、事后反馈的全过程辅助提升政府决策效率,降低决策风险,增强政府治理水平。

在决策议题选取阶段,充分利用大数据与深度学习的技术优势,汇聚政府各部门的政务信息资源,形成政务领域的权威数据库,同时智能捕捉人口、经济、就业、医疗、教育、环境、资源等政务相关数据,然后对各类结构化和非结构数据进行整合、加工、汇总,使政府部门能够清晰洞察相关业务领域的客观现状,对社会需求形成科学判断,并提出有针对性的、能够解决民众实际需求的决策议题。

在决策方案的形成阶段,在对决策议题精准定位的基础上,智能化决策辅助可以从两个方面展开:其一,在方案形成上,不仅可以结合人口、社会、经济、环境、资源等方面变量构建综合系统动力学模型,模拟社会宏观发展情况,预测各类指标数据,形成多场景、多角度的事先预测决策模式,由决策主体结合公众利益的需求与实际操作的需要来选择最优方案,还可以通过人工智能平台完成信息公开、意见收集与反馈等工作,实现公众的广泛参与和决策信息的循环回流;其二,在专家论证与风险评估环节,可以通过预置社会多行业的专家业务经验,并结合政务数据中的相关潜在关联、因果关系、可能风险来提供更加广泛、专业、有效的论证和风险评估结果。在专家论证环节应当注意专家库建立的科学性、专家水平的专业性与独立性。在风险评估环节,政府应当在风险评估指标体系的设立上占主导地位。

在决策效果的评估与反馈阶段,可以通过跟踪对比不同政策执行后的数据情况,通过量化的数据为决策者和研究人员提供决策效果的评估,在这一过程中也应当注意通过智能平台向公众进行反馈,特别是决策过程中那些群众意见较为集中的问题,应当重点进行反馈,从而引发公众参与的积极性,实现有效参与。

(二)制定有效的风险防范措施

1.应坚持人工智能决策辅助的角色定位

如前文所述,由于人工智能自身技术发展的不足和承担责任能力的欠缺,宜将其定位为决策辅助,这不仅是当下,还是未来智能决策发展应当坚持的原则,无论技术如何发展,是否会有“强人工智能”的出现,以人为本、增进人类共同福祉的目标都不应当有所改变。

2.应大力推进算法的透明度和可解释性

欧盟委员会2019年4月8日发布了《人工智能伦理准则》,通过列出7个关键条件,试图打造“可信赖人工智能”,其中就要求算法做出的任何决定都必须经过验证和解释[8]。在行政决策过程中,应当通过信息公开向公众披露决策形成的算法、流程和验证过程,提高决策的透明度,并建立说明理由制度,对上述过程进行说明,实现社会公众的有效监督。

3.应明确决策责任的界定

一方面,应坚持谁决策谁负责的基本原则,基于人工智能决策辅助的定位,政府作为决策者应当承担决策失误违法的后果,如果有证据证明提供智能决策辅助的机构或个人存在导致决策违法的情形的,政府在承担责任之后可以进行相应的追责;另一方面,应明确政府在行政决策过程中对个人隐私保护的职责,作为数据和算法的主要受益方,政府有义务加强决策过程中对个人信息的保护,并要求和监督相关机构或个人在获取数据时取得个人的授权,合法搜集。

4.应进一步加大人工智能的人才培养力度

2018年教育部印发了《高等学校人工智能创新计划》,提出“完善人工智能领域人才培养体系”的目标[9]。《新一代人工智能发展规划》也提出鼓励高校在原有基础上拓宽人工智能专业教育内容,重视人工智能与多学科专业教育的交叉融合。人工智能与法学教育的融合也在逐步推进,目前西南政法大学、上海政法学院已经先后建立了人工智能法学院。智能化的行政决策不仅要求决策者具有法治理念,还要求政府部门拥有具备人工智能的专业知识的人才,以便对智能决策的合理与否进行实质性审查,避免给想要获取不当利益的那些人制造可乘之机。

党的十九届四中全会提出要坚持和完善中国特色社会主义行政体制,构建职责明确、依法行政的政府治理体系,行政决策的法治化是实现这一目标的重要着力点。人工智能技术的发展为行政决策的法治化带来了技术便利的同时,也造成了很大的挑战,如何实现价值均衡还存在诸多疑问,需要我们谨慎应对。

猜你喜欢

决策行政人工智能
关注《行政与法》方式
为可持续决策提供依据
米其林行政主厨的GENTLEL
行政事业单位内控管理制度的建立与完善
2019:人工智能
决策大数据
决策大数据
人工智能与就业
诸葛亮隆中决策
数读人工智能