APP下载

地方立法的人工智能应用风险与规制研究

2023-01-05徐亚文陈路易

湖北警官学院学报 2022年2期
关键词:人工智能法律算法

徐亚文,陈路易

(武汉大学 法学院,湖北 武汉 430072)

当今社会正步入“云大物移智”时代,人工智能与法结合成为法律科技发展的客观趋势。在地方立法领域,国家也开始逐步推进立法工作的智能化与现代化。[1]2017 年国务院公布了《新一代人工智能发展规划》并提出促进人工智能在法律文件阅读与分析中的应用。全国人大常委会法工委在关于十二届全国人大以来暨2017 年备案审查工作情况的报告中指出,要“着力推进备案审查信息化建设,大力推进省级人大备案审查信息平台建设”。①参见《全国人民代表大会常务委员会法制工作委员会关于十二届全国人大以来暨2017 年备案审查工作情况的报告》,载http://www.npc.gov.cn/npc/c12435/201712/18c831eededb459cb645263ebf 225600.shtml,2021 年10 月1 日访问。在2018 年中共中央政治局第九次集体学习中,习近平强调“要加强人工智能同社会治理的结合,开发适用于政府服务和决策的人工智能系统”。②参见《习近平:推动我国新一代人工智能健康发展》,载http://www.xinhuanet.com/politics/leaders/2018-10/31/c_1123643321.htm,2021 年10 月1 日访问。

近年来,包括中国法律大数据联盟、国家法律法规数据库在内的各类法律数据库和人工智能平台陆续建立,各个省市纷纷开展地方立法与人工智能结合的有益尝试,如贵阳市出台的首部人工智能立法的法律规范《贵阳市政府数据开放共享条例》、天津市人大常委会使用的北大法宝智能备案智能审查系统、上海市建立的政府立法信息平台、浙江省政府联合浙江大学成立的立法研究院以及多地立法项目库的建立。通过大数据、知识图谱、自然语言系统等智能技术搜集、分析和处理立法数据和信息,立法成本显著降低,地方立法的质量和效率明显提高。但人工智能与地方立法的关系是双向的,它在为社会带来巨大便利和发展的同时,由此而生的法律问题也同步出现。基于此,本文立足“数字法治”下地方立法与人工智能结合的客观背景,分析人工智能的应用可能带来的风险与挑战,探索规制地方立法应用人工智能的合理路径。

一、地方立法应用人工智能的价值分析

人工智能并非单纯的计算机学科分支,而是涵盖信息科学、神经科学、控制科学等多领域的复合学科。它具备像人类一样思考的潜力,能够通过“图灵测试”并在数据学习的基础上通过自然语言系统进行推理、规划、决策、交流和行动。从内容上看,它不仅包含简单的计算机程序,还涵盖当下信息革命最新的成果,如互联网、大数据以及人造神经网络、专家系统等。自2015 年《立法法》赋予所有设区的市地方立法权后,立法主体激增,各地掀起立法热潮,出台了诸多地方性法规。这些地方性法规在一定程度上促进了地方依法、有效治理,但也暴露出立法矛盾、粗糙、重复、无特色等问题。在依法治国和社会治理精细化要求推动下,地方立法面临沉重的工作量和人才储备匮乏的窘境。将人工智能引入地方立法领域有利于从立法程序的各个环节缓解地方立法的压力。

在立法资料检索上,当前地方立法面临着严峻的信息压力。对于接踵而至的新问题和新事物,地方立法机构囿于有限理性,很难及时掌握社会关系的最新动态,作出正确的立法决策。当前,大数据的采集和储存处理技术能够帮助地方立法机关快速搜寻多元化信息,并在预先设定好的算法逻辑下筛选和处理,保留有利用价值和潜在利用价值的立法数据,剔除无价值的立法数据。尤其针对当前地方立法中征求民众意见渠道单一不通畅、回应机制不完善的情况,人工智能可以帮助地方立法机关充分利用互联网平台,通过爬虫和数据API 技术,从互联网上采集微博、抖音、微信等评论意见并自动分类、排重和常识校对。[2]相较传统的调研调查、听证会、电子邮件、信件等途径,这种方式更具有全面性和高效率的特点。

在立法项目论证上,地方立法存在部门利益法制化的严重弊端。地方立法机关可能兼具规则制定者和规则裁判者的双重身份。借助大数据的处理和智能关联分析技术和知识图谱技术,地方立法者可以对立法项目进行交叉对比以及定性、定量分析,为评估活动提供科学参考,克服“部门利益法治化”的弊端;另外,目前人工智能已可以在分析评价标准、往届获奖数据的基础上高度准确预知奥斯卡获奖电影,相信不久的将来,在人造神经网络系统的基础上能够研发一套智能决策支持系统,精准预测地方立法项目的发展趋势,辅助立法者做出正确决策。

在法律草案编纂上,当前地方法律规范存在的立法抄袭、立法抵触和文本结构缺陷等情况。人工智能技术能够全面搜索上位法规定、类似的地方立法、案例、社情民意等立法资料并进行可视化分析,快速对法律草案的影响因子、依赖关系、可信度等进行科学测定,预测法律出台后可能产生的问题并通过快速的反馈机制对法律草案进行完善。

在法律备案上,未来的备案审查工作可以充分运用语义理解、实体或关系识别技术、动态增量更新技术,准确辨别不同法律表述蕴含的实质意义,对地方法律规范进行实时、动态和追溯式的审查,提高备案审查的科学性和效率,维护法律尊严和国家法制的统一。[3]

在立法后评估上,借助人工智能强大的信息搜集、处理、关联分析和可视化技术,立法后评估能够克服传统调研方式的弊端以及评价主体的主观化和单一化倾向,保证评估结果的科学性和客观性,最终呈现一份逻辑严密、数据丰富、案例典型的意见报告。

二、地方立法应用人工智能的风险挑战

人工智能可以给地方立法工作带来高效率、高细度和高精度的技术红利。但需要明确,当前人工智能参与地方立法的程度尚浅,正面、积极的影响占据上风,并不代表不存在负面影响。地方立法符合国家法规政策精神,也适应地方立法工作的实际需求。伴随着人工智能技术的发展,智能立法产品的应用将会愈加深入,由此产生的风险也将更加凸现。根据乌尔里希·贝克的风险社会理论,科学的副作用虽具备日益增长的不可计算性,但包含日益增加的可评估性。有关副作用的知识原则上是可具备的,也总是在场的(潜在的)。这些知识现已实现充分分化,可以辅助人们权衡关联范围和结果。人们会因为知道可能的影响而不得不采取行动,从这个意义上说,结果的不可计算性并不影响对结果产生过程的评估,也不影响在科学研究过程中采取规避风险的相关行动。对于地方立法而言,应用人工智能的风险虽不具备可计算性,但有关地方立法与人工智能的副作用的知识总是具备且可用的,这些知识可以辅助当下合理评估风险,并采取措施主动规避。地方立法应用人工智能的风险具体表现为两个方面:一是对地方立法本身的负面影响,二是对数据管理的挑战。

(一)对地方立法的负面影响

根据《立法法》的规定,地方立法应坚持科学立法、民主立法和依法立法相统一。[4]人工智能虽能提高地方立法的效率和质量,但也给地方立法的科学性、民主性和合法性造成一定的风险和挑战。

1.依法立法问题

依法立法包括依宪立法、依法定权限立法、依法定程序立法和贯彻党的方针政策这四个方面。在人工智能辅助地方立法过程中,算法偏见的合法化可能导致地方立法对宪法规定的法律面前人人平等原则的违背,智能产品的不当运用可能导致对立法权限的突破和立法程序的违背。

第一,算法偏见问题。算法和数据是人工智能两大核心要素。如果我们将人工智能视为一道佳肴,数据就是食材,算法就是食谱。算法通过将问题处理过程模式化,大大提高了计算机完成任务的效率。然而,算法是一种“偏见进,偏见出”的决策机制。一方面,算法以数据为基础,当数据存在偏差时,就会不可避免地产生歧视。另一方面,算法是人的产物,必然蕴含人的价值取向,如社会歧视或私人利益。就地方立法而言,从实施大数据战略开始,立法领域便有公开立法意见、公开听证等工作。但这里公开的并非原始数据,而是包含人的主观判断的信息,并不适合作为算法基础进行清洗和处理。[5]加上当前各个地方法律数据库建设仍在起步中,可供人工智能学习的数据并不全面。除此之外,系统设计者本身的主观偏见和价值判断也有可能融入到算法模型中去,且往往这种偏见是难以被发觉的。算法的运作逻辑是经验性的,如果数据和算法存在偏见,那么算法结果将会延续这种偏见,地方立法机关依照算法结果作出的立法选择将会使该偏见予以合法化。这种情况下,地方立法很容易忽视少数群体或个人的利益,导致弱势群体很难享受平等的法定权利,还没有积累充分个人信息的社会主体将会被排除在更多商业服务以外。[6]

第二,立法程序的违背问题。根据《立法法》的规定,立法应当依照法定的权限和程序。以地方政府规章为例,根据《规章程序制定条例》和《法规规章备案条例》的规定,地方政府规章的制定程序包括立项、起草、审查、决定、公布和解释。具体而言,政府工作部门或下级人民政府负责报请立项,并就规章制定的必要性等情况作出说明;政府法治机构负责对项目建议进行评估论证,并对规章送审稿进行统一审查;政府一个或者数个工作部门负责具体起草工作;地方政府规章公布后,国务院部门以及省、自治区、直辖市和较大的市人民政府负责备案审查监督管理职责。各个机关部门各司其职,相互配合,共同推进规章的出台。在信息压力、技术外包、官商勾结等多重因素的影响下,有限理性的政府工作者极易滋生懒惰心理,不再费尽心力研究如何“立好法”,而是不假思索地将智能化分析结果应用到地方立法中,放纵其代替自己进行“思考”并“立法”。智能立法产品是由程序员、软件工程师、数据处理商和高新科技公司共同研发的智能产品,内含主观倾向性的算法设置,部分产品的运作仍受到研发者的预测和控制,部分产品已脱离研发者掌控,自主形成具有不可预知性的算法结果。如果对人工智能的使用不加以控制,则大概率导致立法主体实质上的双重结构——一为法定的国家机关,二为研发群体或具有不可归责性的智能立法产品,甚至走向极端化——前者沦为附庸,算法支配立法。需要明确的是,目前对立法决策进行智能化分析并非法定和必经的程序。人工智能也不具备立法主体地位,而未来的实践倾向却将人工智能实质上置于该地位,参与并主导地方立法的制定过程。地方立法主体只能是地方人大、政府及其部门或法律法规授权和委托的主体,对人工智能过度的期待和利用可能导致现代法治的制度设计分崩离析,引发社会矛盾、混乱甚至失控。

2.民主立法问题

根据《立法法》第五条规定,立法应当体现人民的意志,发扬社会主义民主,坚持立法公开,保障人民通过多种途径参与立法活动。民主立法意味着立法公开,扩大公众有序参与,体现人民意志,确保利益各方机会均等、充分博弈。人工智能辅助地方立法可能导致公众参与机制流于形式,消解立法的民主性。人工智能虽有利于广泛搜集民众的立法意见并给予反馈,但这仅是民主的一个方面。收集民意并不代表一定会采纳民意。如果智能产品收集的社情民意与以科学技术得出的机器认知出现偏差时应当如何处理?有人认为,通过算法运作所得的决策结果即是科学的,应当采用智能化决策结果。但科学就一定是正确的吗?实则不然。第一,作为知识的科学需要不断积累,存在随时被证伪的可能。人工智能辅助地方立法需要把社会相关信息予以数据化。但错综复杂、动态变化的社会生活不可能被全盘数据化,而且一旦生活被数据化,其原本面目和价值都可能被扭曲。[7]第二,作为技术的科学在产生、使用过程中会受到创造者和使用者主观目的、价值观和社会结构的影响。算法的生产会受到设计者本身的价值取向的影响,算法的使用会受到数据不全面的影响。因此,人工智能作为一项发展中的科学技术不足以辅助地方立法做出完全确定、中立的权威决策,也不能完全代替民主渠道反馈的意见。然而,地方立法工作很容易滑向对人工智能的盲目崇拜。一方面,人工智能拥有强大的数据处理和智能分析系统,相比之下,民众缺乏必要的专业知识和技能,很难表达利益需要,同地方立法机关开展辩论和协商;另一方面,出于对科学的盲目信任以及地方立法者的“懒惰心理”,人工智能的产出结果便可能会被不假思索地应用到地方立法中。此时,公众与“科学”相左的声音便成为无足轻重的东西,民主参与和监督机制流于形式。更有甚者,地方权力机关可以借此机会,披着“自动化决策”和“算法黑箱”的外衣,声称“技术中立”,成为实质上法律的独裁者。如果在地方立法中处理不好科技与民主的关系,那么人工智能的引入就有导致民主消解的风险。

3.科学立法问题

科学立法一方面指立法应当根据实际,适应社会经济发展需要;另一方面指应当科学合理地规定国家机关的权力与责任,公民、法人和其他组织的权利与义务。地方立法应用人工智能会产生技术不确定、需求不匹配和算法干预的问题,影响地方立法的科学性。

一是技术不确定问题。人工智能同任何新技术一样,都具有不确定性,会给社会带来未知的安全风险。这是因为人类无法预估全部可能发生的问题,也无法绝对排除技术随机生成稳定性故障的可能性。以自动驾驶汽车为例,在人工智能自主判断路况信息时,可能出现误判或失灵,从而导致安全事故。这些事故有的可以通过技术溯源进行解释,有的却是无法解释的现象。就地方立法而言,一方面,法律是利益协调的产物,会牵涉眼前与长远、经济与社会、部门与公共利益之间当然的动态平衡。处理其间的价值判断不仅要以对数据的经验性分析为基础,更“以人们对法律涉及事物的先前认识为唯一的、绝对的依据”。这种先前认识是指人们出于伦理、情感等人文因素调整某一事态的历史进路,而不是这一事态由自然因素所决定的情势。[8]地方立法应用人工智能不可避免地涉及不同利益的协调平衡。然而,当前的人工智能最擅长的是经验性分析,在处理人类的感情和伦理上尚不成熟,从而很难去理解和解释数据背后的立法关系,以符合人类价值观的方式探索法律所调整事态的客观规律。这就有可能会导致依靠智能产品制作出来的法律隐含道德风险,不被公众所接纳。另一方面,智能立法产品必须要迈过一个鸿沟——法理学原则的有效运用。人工智能辅助地方立法需要具备基础的法律推理、论证和解释能力以及及时学习事态变化,如规则冲突、法律知识基础的变化、法律概念的变化的能力,[9]这些都需要基于法律语言才能开展。但法律语言本身具有模糊性和多元性,一个法律概念或法律问题在法律职业共同体内就可能有多种解释或看法。人工智能即使再高级,也只能作单向的精准推理。如果处理不好,其功能就会大大折扣,甚至成为“人工智障”,反而拖累立法进度。

二是需求不匹配和企业干预问题。[10]目前法律职业群体普遍缺乏基础的自然科学素养,立法领域的大数据、算法等智能技术人才更为稀缺。在此情形下,技术外包是地方立法应用人工智能的唯一途径。这就导致了诸多问题。一方面,立法和智能系统开发都属于专业性活动,技术人员需要了解该产品服务的立法环节在整个立法程序中的位置和作用、与其他立法环节的关系以及立法的整体运作。地方立法者需要具备将立法需求进行信息化描述的能力。如果二者之间的沟通出现毫厘差池,最终的成品就可能谬之千里。另一方面,研发机构可能通过这种技术外包的形式不当介入地方立法。诸如阿里巴巴、京东等公司通过线上购物等形式积累了海量的数据信息资源,甚至有时候政府也要求助于他们,如浙江高院就大数据、云计算等产业与阿里巴巴开展合作,建设“智慧法院”。阿里巴巴等企业完全有足够的动机篡改测评数据和算法法则,通过隐蔽手段获取更大利益。更甚者,技术外包容易造成政商勾结,滋生腐败。在此情况下,地方立法有可能使企业私益合法化,科学合理分配公民、法人和其他组织的权利与义务便沦为空谈。

(二)对数据管理的挑战

在数据管理方面,人工智能辅助地方立法面临着“法律的高需求和法律的零供给”[11]的突出矛盾。

1.法律的高需求

一方面,数据是人工智能时代的食材。随着法律科技的发展,人工智能辅助地方立法环节将会进一步扩展,对数据这种食材的需求量就会越来越大。在这个过程中会产生两个问题:其一,数据之于企业的影响。人工智能的研发多依靠企业完成,然而其赖以存在的数据资源是在政府提供的基础设施之上,且很多涉及法律保护的隐私内容。合理的政商关系的基础应当为公权力和资本划上明晰的界限,政府和企业在各自领域拥有明确的职权。人工智能辅助地方立法过程中将使该界限模糊化,产生该如何界定、企业对数据的使用权等问题。如果处理不当就容易导致两个极端:一是企业对数据的过度支配造成数据滥用甚至企业垄断,危害公共利益;二是企业对数据的使用权处处受限,经济被政治不当操控,智能立法技术研发进程缓慢。[12]其二,数据之于公民的影响,这是数据管理领域最核心的问题。普通公民作为数据的生产者和使用者,虽然参与“大数据的基本循环”,却无法把握或影响所使用的信息技术基础设施,从而处于“所有数据都由公民自身产生,但所有权却并不属于我们”的尴尬境地。[13]而在地方立法智能化过程中,地方立法者以及人工智能研发机构不可避免地需要搜集、整理和利用来自各方面的数据,不仅仅包括已经公开了的法规文本、司法裁判文书等,还包括非公开的软件后台运行数据。这些数据中可能包含公民的个人信息和隐私。目前存在某些地方立法机关利用大数据技术对目标群体的数据进行挖掘分析,依据画像模型所体现出来的信息决定是否采纳该群体的意见。[14]这明显超出了个人信息的使用范围。如何合理使用数据以防止对公民信息和隐私权的侵害是地方立法应用人工智能亟待解决的重大难点。

2.法律的零供给

我国关于数据和数据权利的立法尚不完备。新出台的《数据安全法》奠定了我国数据管理的基础,提出要“促进以数据为关键要素的数字经济发展”,明确了数据权的保护范围,并规定了行业数据监管机制、国家数据分类分级保护制度、国家数据安全审查制度、国家数据安全应急处置机制、以及数据处理者的合规义务等。但该法是针对数据管理领域的宏观规定,具体规则有待进一步细化,尤其是对信息脱敏和加工的具体要求。数据和信息是密不可分的两个概念。数据是信息在网络世界的表达工具,信息的内容主要通过二进制的方式加以储存和应用。尽管受法律调整的数据是对个人信息进行加工处理和脱敏以后的衍生信息,并不与信息主体直接关联,但数据本质上仍是信息的综合,并非绝对不能与信息关联,[15]因而法律对此应作细化规定。

三、地方立法应用人工智能的规制路径

科技发展的最终目的是为了实践应用,否则便失去了存在的意义。以往科技法治的经验证明,科技只有被有效转化,赋能经济社会的迅速发展,才能实现造福人类社会的价值。对于拥有极大发展前景的人工智能+地方立法,我们不能因其存在可能的负面影响就因噎废食,而应以积极、乐观的心态主动接纳,并采取相应的应对策略,实现节制的利用。

(一)以适度应用为前提,确保地方立法的合法性

针对人工智能的应用对地方立法程序的违背,人工智能辅助地方立法应当严格遵循上位法关于立法程序的规定,避免对智能立法产品的过度应用,具体而言:

第一,可以制定统一的智能立法产品应用标准。一为启动标准。地方立法应用人工智能不能设置强制性标准,而要根据地方立法工作的实际需要视情况而定;二为参考标准。明确规定智能化分析结果只能作为重要参考,而非唯一依据,立法的制定、备案审查和监督仍由法定的国家机关在广泛听取民意和专家意见的基础上决定;三为说明标准,凡在地方立法的重要环节中采纳了人工智能的分析结果,都需对采纳结果的科学性、客观性和必要性进行理由说明,制作陈述报告,并将不同于智能分析结果的意见和建议予以记录备案;四为责任标准。根据最新出台的《关键信息基础设施保护条例》,建立相关部门和运营者的安全保护和监督管理责任。

第二,可以建立明确的智能立法产品选用标准。技术外包情形下可能造成政商勾结,导致政府选用不合格产品并肆意滥用谋取私益。对此,国家可以确立以下标准:一为统一化的安全标准。根据《信息安全技术关键信息基础设施安全保障指标体系》(征求意见稿)确立的三级安全保障指标,建立智能立法产品的安全保障体系:(1)建设情况指标,主要评价该产品的安全保障措施的建设情况,具体包括地方立法主体对该产品安全保障的相关规章制度建设情况、人才队伍、资金投入保障等;(2)运行能力指标,主要评价该产品的安全保障措施体系的运行能力,具体包括安全防护、隐患发现、应急处置和攻击对抗能力等;(3)安全态势指标,主要评价该产品安全保障体系的态势情况,具体包括各种潜在的威胁、隐患和安全事件情况。二为差异化的性能标准。各地区经济、文化发展水平不一致,在选用智能立法产品时,各地方要充分考虑本地区信息基础设施建设水平、信息的数据化程度、地方立法水平和实际立法需求,选择与当前最适配的产品,避免人工智能的不当应用造成资源浪费。

(二)以智能辅助为核心,确保地方立法的民主性

针对智能化应用可能带来民主消解的危险,需要坚持人工智能在地方立法工作中的辅助地位。首先,就工作理念而言,要树立以人类为中心的立法合作理念。“以人类为中心”就是要求人始终处于立法工作的主导和核心地位,强调人的价值,理性对待新技术,看清其有限属性和工具属性;同时要树立“合作观”,机器学习在某些方面是人类判断的进化,将人工智能同地方立法工作有机结合,能够弥补人类智慧的短板,更好造福社会。其次,就辅助限度而言,要坚持“有限智能化”。“有限智能化”这一观点源于司法领域“智慧法院”建设。随着司法智能化的不断进步,人们开始思考在司法过程中是否能够只要效率而牺牲公平正义等法的价值,答案当然是否定的。[16]对于地方立法工作而言,也要坚持“有限智能化”。当前人工智能尚不能成熟处理关涉人类情感、伦理的价值判断,因而对于此类问题的决策,立法机关要采取保守态度,由经验丰富的法律专家、立法工作者结合公众意见作出决定。最后,就衡量标准而言,要坚持民主为主、科技为辅的衡量标准。[17]人工智能辅助地方立法过程中可能存在以科技获取的信息取代通过民主渠道获得的信息的现象。大数据、人工智能应用的反民主倾向,只有通过民主的方式才能遏制和破解,要确立民主原则高于科学技术的价值位阶。具体而言,当通过智能技术分析的结果同民主的认知相冲突时,要在充分保障公众或者公众的代表知晓该领域的实质知识的基础之上,通过民主机制作出决断。当有充分明确的证据证明民主决策是错误的情况下,也只能通过民主议事规则说服公众及其代表,严禁通过压迫手段强制改变民主决策的结果。

(三)以伦理算法为保障,确保地方立法的科学性

算法作为人工智能的“食谱”,控制着数据输入后结果的产出水平。影响地方立法科学性的算法干预、技术的不确定性问题乃至算法偏见问题都与算法相关。想要合理规避由此造成的负面后果,就需要从算法着手,为算法构建伦理框架。

设计一套“伦理算法”具有现实必要性:算法在运作过程中并非将人当作“主体”对待,而是将其数据化和客体化,视为可计算、可预测的电子痕迹的汇总。德沃金认为在人享有的所有权利中,关怀和尊重的平等权利是最重要的。[18]这项权利是最容易被忽视或者侵害的。另外,道德、伦理同法律一样,都是社会规范体系中最基础的调整手段。法律具有滞后性,在法律规范缺位时,往往需要伦理道德发挥先导作用,规制和约束新型的社会关系。技术比较发达的美国、德国、欧盟、日本对人工智能的规制研究多是从伦理规范出发。例如,德国的伦理委员会便遵循这个思路提出了一项人工智能报告。该报告里面列举了以人的生命安全为核心的20 条伦理意见,并要求算法设计者遵守这些伦理规则。[19]

算法的伦理设计应当遵循两个进路[20]:在外部进路上,设计主体应具备道德责任感,积极进行道德想象力的构建。道德想象力是指在既定情景中想象某种行为或结果所产生的利害关系以及采取多种行动的可能性。算法设计者通过道德想象力的练习,能够理解和积累有关道德责任的经验,从而提升做出道德决策的能力。在内部进路上,需对算法进行价值敏感设计,即将人类的伦理价值和行为方式通过技术转化嵌入算法中,这分为三个阶段:第一个阶段为概念研究阶段,即对算法设计可能涉及的价值如安全、公正等进行深入了解;第二个阶段为经验研究阶段,即通过访谈、实验等方法对算法设计进行价值评估,为概念研究阶段的伦理道德嵌入提供数据支持。第三个阶段为技术研究阶段,即对价值嵌入进行技术设计和性能分析。这三个阶段属于相互支持、相互影响的连贯过程。

(四)以协同治理为框架,实现安全与发展价值的平衡

对人工智能辅助地方立法的规则容易走向两种极端:一种是仅顾眼前的发展利益,忽视对风险的规制,另一种是为了避免可能的风险而对其加以严格管控,限制人工智能行业发展活力。就各国在人工智能治理方面的政策和态度而言,美国和日本更倾向推动技术创新,采取“无须批准式”的治理模式,即除非有充足的案例证明某一类人工智能的危害性,则该人工智能都为被默认为允许;英法更关注以个体数据为基础的机器学习对公民隐私和自由造成的危害,制定政策更倾向于“审慎监管”,也即只有在被证明没有危险的条件下,某一项新技术或商业模式才能够被使用。[21]“无须批准式”和“审慎监管”模式都存在很大弊端:前者预设的前提是事后监管的有效性,当事后监管失效时,公共政策便无法解决业已造成的危害后果。后者存在天然的逻辑漏洞和实践上的不可操作性,在人造神经系统支持下,算法结果往往具有不可预测性,其危险系数更是很难证立,因而该治理模式将会极大限制人工智能行业的成长。

当前国内学界对人工智能的治理有以下几种理论模式:一是传统的命令控制型。这种模式以政府为主导,行政机关单方面主动做出约谈警告、罚款、责令停产停业等行政行为。二是元规制模式。它包括两个维度:一方面,规制主体划定一个基础目标和底线,具体规制的内容和方式由被规制者自行制定。另一方面,规制主体应把更多精力放在提升学习能力上,避免在人工智能领域成为“外行”。当行业自治发生偏差且自治规则无法调节时,再采取必要手段维护公共秩序。[22]三是协同治理模式。它主张治理主体的多元化,提倡在利益依赖的基础上共同参与规则制定,实现资源共享、互利互惠、责任共担、深度交互的目标。也即在规范人工智能地方立法程序的研发过程中,规制主体与研发机构应当在算法规制、数据的使用和管理、研发成果的应用等方面充分协商,综合法律意见和专业意见形成治理规则。在这套规则下,研发机构可以自由发展,违反规则要承担相应责任。[23]

对于该领域的治理不能过松或过紧,应从地方立法活动的规律和特性出发,既要注重平衡二者之间的内在关系,避免因人工智能的应用损害地方立法的合法性、民主性和科学性以及其他法律功能的有效发挥,又要避免固步自封,挤压人工智能的正常发展空间,影响法律科技对法治建设的支撑和帮助。对人工智能的治理需要兼顾安全价值和发展价值,在对社会收益和风险成本进行分析的基础上,寻求合理对策,并可以为了保障技术进步适度扩容风险。

命令控制式下,由于人工智能具有高度专业性和发展不确定性,传统的科层制治理结构难以及时对不断变化的社会关系作出回应,且在管理过程中还存在无法跨越的技术壁垒,很容易导致干预不当,造成行政权不正当扩张。元规制模式与美日的“无须批准式”并无二致。元规制模式下,规制主体只能制定抽象的底线和目标,且只有行业自我规制出现问题时,规制主体才会出面解决问题,这就赋予了人工智能行业内部自治的优先权。人工智能行业不同于传统行业,如果放任行业自治,等到自我规制失灵时再介入干预,很可能已经造成无法挽回的严重后果。在法的价值位阶中,安全和秩序价值高于其他价值,元规制模式实质上颠倒了法的价值位阶。相较元规制模式,协同治理模式有以下优势:一方面,它不像审慎监管和命令控制式责令单方证明有无危险或做出单方行政行为,而是通过沟通的方式保留人工智能行业的话语权,又通过合力制定规则将可预见的风险消灭在源头。另一方面,规制主体通过与研发机构协商沟通,有利于在算法规制、数据管理等方面培养一批人工智能+法律复合型人才,更精准掌握该行业的基础信息和实际发展需要,为以后更好管理该行业奠定基础。

猜你喜欢

人工智能法律算法
哪种算法简便
法律解释与自然法
法律讲堂之——管住自己的馋嘴巴
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
根据问题 确定算法
人工智能与就业
数读人工智能
下一幕,人工智能!