论人工智能政策与法律协同治理
2024-10-30张宇帆
关键词:人工智能 人工智能法 法政策学 协同治理 评价基准 冲突协调
中图分类号:DF0 文献标识码:A 文章编号:1674-4039-(2024)05-0187-200
人工智能深刻影响着时代发展与人类生活。随着大量人工智能新范式不断涌入人类生产生活,如何有效地通过政策、法律手段进行治理,成为人工智能治理的研究方向。党的二十届三中全会公报指出“完善推动新一代信息技术、人工智能、航空航天、新能源、新材料、高端装备、生物医药、量子科技等战略性产业发展政策和治理体系,引导新兴产业健康有序发展”。国务院2017年发布的《新一代人工智能发展规划》确立了法律法规、伦理规范、政策体系共同促进人工智能发展的战略目标,人工智能法草案虽未进入全国人大2024年立法工作计划,但也迈出了重大一步。在实践中,人工智能的伦理规范及伦理法律化已有讨论。大量促进与规制人工智能的政策性文件成为人工智能治理的主流。同时,关于人工智能的立法也在按照分散式立法的模式进行。然而,如何有效统筹政策与法律共同发挥治理作用却有所缺位。从法律学科来看,一些学者呼吁尽快在人工智能各应用场景开展立法,通过法律对人工智能进行规制。从公共政策学科来看,学者们认为人工智能发展受益于政策调控,政策在人工智能治理中发挥着无可替代的作用。由于法学和公共政策学分属两种不同的学科,法学学者和公共政策学者站在自身的学科立场上各执一词,将二者割裂对立。《中共中央关于全面推进依法治国若干重大问题的决定》提出, 要“促进政策与法律互联互动”,“把行之有效的政策法定化”。政策作为法律的重要渊源,在法律供给不足的条件下发挥着重要作用。目前,对政策与法律协同促进人工智能治理的研究几近于无。基于此,本文以法律的视角,检视政策在人工智能治理中的效用及机理,并设计政策与法律协同治理的立法机制和实施机制,希冀为人工智能治理以及正在进行的人工智能立法添砖加瓦。
一、人工智能的治理困境
随着第四次工业革命浪潮的涌来, 人工智能技术的发展深刻地改变了人类的生产和生活方式。人工智能带来的冲击法律与社会伦理、侵犯个人隐私等问题均需要制度进行有效的回应。在《新一代人工智能发展规划》中,提出分三步走实现人工智能法律法规、伦理规范和政策体系共同治理。近年来,我国依据这一政策规划,制定了一系列政策与法律。然而,理论上政策和法律的割裂性与实践中政策和法律各行其是致使人工智能治理呈现严重的政策依赖性、法律无法因应人工智能新场景的迭代、政策与法律不协同等问题。
(一)人工智能治理呈现出较强的政策依赖性
我国关于人工智能的公共政策呈现出繁多的样态。人工智能治理的发展在很大程度上依靠政策驱动或控制。一般而言,往往是中央率先出台统摄性的政策文件,地方政府根据中央的文件,进一步以政策的形式进行执行与落实。这一模式自上而下表现出强大的/HvDSlAsq6CclGihLFeu+w==执行力。
一方面,人工智能治理理念主要由政策确立。党的十九大以来,国家陆续出台了“1+N”政策体系,为人工智能发展提供政策依据和制度保障。其中,“1”是指2017年国务院发布的《新一代人工智能发展规划》,这是我国在人工智能领域中首个系统部署的文件,也是面向未来打造我国先发优势的顶层设计文件。这一文件将人工智能正式上升为国家战略,提出了面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施。这份政策性文件确立了我国人工智能分三步走的战略目标。为之后的人工智能伦理、政策、法律的制定提供了价值基础。此外,《关于支持建设新一代人工智能示范应用场景的通知》《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》《新型数据中心发展三年行动计划(2021—2023年)》等产业政策也为我国人工智能产业发展提供了制度保障。2020年以后,人工智能进入产业化新时代,在政策上更加聚焦产业实践中出现的重大问题,包括重大场景应用、技术标准化、技术伦理等方面,政策制定的价值基准也由引导发展向加强治理转变。
另一方面,相对完善的政策体系已经建立。我国的人工智能治理政策已形成从中央到地方、从部门到产业的多层级、多领域的政策体系。截至2024年7月1日,中央和地方政府出台了100余部数字经济相关政策。人工智能相关政策大致可分为人工智能产业政策、人工智能治理政策、人工智能促进政策、人工智能创新发展试验区政策、“十四五”规划、综合政策、三年行动计划、高质量发展政策、人才政策等11个类型。政策内容范围广泛,覆盖基础设施、软件算法、行业应用等多个领域。可以看出,人工智能政策越来越注重对实体经济的全面影响,并从最初的智能制造领域向全社会多个领域进行拓展。地方政府纷纷依据自身优势和特点,出台与当地经济社会发展相融合的规划政策,由上至下的多领域、深层次的政策体系逐步建立。
(二)法律无法因应人工智能新场景的迭代
通过法律监管防范风险是人工智能治理的最终路径。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》也指出,“加强重点领域、新兴领域、涉外领域的立法”。近些年,伴随着人工智能新技术的发展,中共中央、国务院以及国家网信办等部门也出台相应的规制和管理办法。在国家层面,虽有数据安全法、网络安全法和个人信息保护法的有关规定作为基本的制度框架,但作为人工智能领域基本法的“人工智能法”尚在起草之中。目前,对于人工智能的法律治理,主要集中在这两个面向。一类是地方性法规,一些省市积极应对各式各样的人工智能新手段,采取立法措施,有效地进行治理。其中以立法形式呈现的仅有《上海市促进人工智能产业发展条例》与《深圳经济特区人工智能产业促进条例》。另一类是部门规章,我国先后颁布了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等部门规章。国家网信办为应对ChatGPT等生成式人工智能的出现,出台了《生成式人工智能服务管理暂行办法》。这一规章的颁布,标志着我国迈出了加快人工智能立法的重要一步。然而,人工智能领域随着技术的迭代更新,应用场景也越来越广阔,变换速率也日益加快。从区块链、元宇宙、生成式人工智能、通用人工智能,再到如今热火朝天的人形机器人、人工智能大模型,无不体现着人工智能应用的广阔空间。
法律虽然以其“特有的规范作用和社会作用对社会生活发生着深刻的影响”,但也不能陷入“法律万能主义”的误区,尤其是在人工智能这样的新领域。在人工智能治理中,法律也存在一定的局限性。首先,法律仅是调整人工智能领域的众多方式之一。人工智能也有各类产业政策、技术标准、行业伦理等调整方式。在各种调整方式中,法律并非成本最低的方式。法律的作用范围也不是无限的,亦非在所有问题上都适当。其次,法律对于千变万化的人工智能领域的涵盖性与适应性难免会存在一定的局限性。“法之对体系起稳定作用的连续性也常常使法落后于社会观念的变迁。”人工智能技术更新迭代速度极快,立法难以与技术更新速度保持同步,这可能导致法律规制难以适应新技术的应用和影响。最后,在相关条件不具备的条件下,法律制定也有一定的困难。即使法律被制定出来,也不可能充分发挥作用。由于人认识到自己的局限性,所以在设计规则的时候所考虑的都是所谓常人标准,即以具有中等智力和体力水平的正常人作为规则可行性的判断标准。而且,为了形成稳定的社会秩序,法律往往还会设置比常人标准更低一些的安全线。从这个意义上讲,法律是一种保守的社会力量,不能完全满足人工智能发展的需求。
(三)人工智能治理政策与法律不协调
“法律与政策的协同实施,是指相关法律和政策在体系上互相独立,在功能上相互补充配合的状态。”政策与法律不同特点决定了其在治理体系中的定位。政策以其灵活性、针对性、即时性,在提高人工智能发展效率、指明发展方向上有着明显的优势。但其也存在随意性、无预测性等不足。法律以其稳定性、规范性和权威性为人们提供确定的指引,在人工智能治理中对人权的保障、路径指引发挥着重要作用,但其滞后性与僵化性不利于人工智能的长久发展。因此,法律与政策在人工智能治理中相辅相成、缺一不可。政策与法律协同治理包括政策与法律相互配合和政策的法律化。而在当前的人工智能治理中,政策与法律并未形成协调有效治理的有机体系。
一方面,人工智能政策与法律配合度还不够。从法与政策的关系来看,法追随政策,是政策的表现。其理想状态应是法律和政策相辅相成,共同达到治理dV0YCGFO62pfCI3lxivw+MIFTSrUul50sHCcalt4fzg=的目的。然而,在实践中,作为人工智能领域调控工具的政策和法律配合度还有提升的空间。这主要体现在人工智能政策与法律的价值目标未达成一致。在人工智能立法中,世界各国均以风险作为治理的基础。在我国,无论是数据安全法等法律,还是《生成式人工智能服务管理暂行办法》等部门规章,均以风险要素为基础,提出分级监管制度和安全审查制度。这样的立法更多地体现了对国家安全、公共利益以及个人信息保护的安全价值。而在人工智能政策体系中,自从2017年国务院印发《新一代人工智能发展规划》以来,我国在全要素生产率、促进产业结构转型升级、加快企业数字化、智能化转型和实现高质量就业等方面相继实施了一系列促进人工智能发展和应用的政策及措施。这些政策以其自身的灵活性,在人工智能产业治理与发展中发挥着重要作用。人工智能政策的促进发展原则与人工智能立法的防范风险原则在某些情况下还没有形成充分的配合。由于价值目标未达成一致,法律与政策的治理范围也各有侧重。对于人工智能哪些领域应当立法、哪些领域通过政策治理为宜,尚无定论。以通用式人工智能为例,已有党和国家的政策以及地方出台政策对通用式人工智能发展进行治理。法律界也对通用人工智能立法作出了回应。但通用式人工智能政策与法律的讨论似两条平行线。
另一方面,人工智能政策法律化机制尚未形成。“政策的法律化就是有立法权的国家机关将有些成熟、稳定的政策上升为法律的过程,也称为政策立法。”在全面依法治国的当下,一个政策想要获得稳定、持久的发展,离不开必要的法治保障。纵观当前人工智能的规范体系,相当部分是带有行政计划性质的政策文件。这些政策作为目标性的计划,践行到一定时期即无法发生效力。而经过实践行之有效的模式制度,通过立法加以确认的机制并未形成。尤其在我国人工智能政策种类和层级繁多的现状下,如何积极促进政策法律化,实现政策法律协同治理,摆脱政策的强烈依赖性,成为当务之急。
总体而言,人工智能治理中政策与法律在理论与实践上各行其是,没有发挥有效的统合作用,造成了一定程度上治理效率的低下与资源浪费。
二、人工智能政策与法律协同治理的理论证成
人工智能科技创新与产业革命不仅在生产生活中运用广泛,而且技术快速发展也带来了社会运行机制、运作方式的深刻变化。虽然法律制度对于人工智能治理有着稳定性的作用,但仅仅依靠立法无法完全解决人工智能科技创新问题。为了更有效率地治理,监管部门会更多地运用政策进行引导与调节。虽然法律与政策分属于两个不同的学科,但实践中二者相互渗透、相互交融。“法律条文本身也是以先在的政策研究和决定为前提的,公共政策是现代社会法律的基础和依据。”在建构人工智能政策与法律协同治理机制之前,应从法律学科的视角,用法政策学的方法论,厘清人工智能政策在全面依法治国战略下的运作机理,为人工智能政策这一治理要素提供充分的理论基础。
(一)二者的同质性与互补性是协同治理的前提
政策与法律是人工智能治理的两种制度安排。人工智能政策与法律协同治理的前提在于,人工智能政策与法律具有一些自身的特性, 使得政策和法律能够在共同特性的基础上实现协同的可能性。从性质上看,二者协同治理的可能性来自政策与法律的同质性和互补性。
在同质性上,政策和法律都是人工智能治理的手段。一方面,法律与政策在治理目标上一致。法律的作业模式是规范模式,即在不同主体之间分配与调整权利(力)义务,以达至公平正义。政策的作业模式是“目的—决策”模式,即决策者想要达成何种目的,实现这一目的要采取什么样的手段。在价值上,法律侧重于规范的正当性,政策则追求手段的合目的性。尽管二者达至治理目标的方式不同,但治理的终极目标均在于防范风险与促进发展。对于政策来说,为适应科技发展,通常以促进发展为主,兼顾防范风险。例如,《“十四五”智能制造发展规划》《关于积极推进“互联网+”行动的指导意见》等政策文件均将融合创新、安全有序等价值纳入指导原则。对于法律而言,传统的网络安全法等的主要目的在于防范风险。但随着人们对人工智能认知的完善,促进发展也逐渐融入法律条文。例如,《生成式人工智能服务管理暂行办法》的立法目的即“促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益”。虽然有观点认为,法律的强制性与监管部门权力的扩张性会让规范实施天然偏向防范风险的立法目的。但其促进技术发展的促进型立法条款也“释放出法律的积极功能,具有明显的导向作用”。因此,二者在治理的目标上均为防范风险与促进发展。另一方面,人工智能政策在一些场合发挥着“试行法”的作用。我国人工智能发展以及制度调整往往以政策先行,一般由中央出台统摄性的政策引导,立法机关和地方政府进一步以立法和地方政策的形式对中央政策进行执行。我国对人工智能治理的整体制度安排,便是由国务院2017年发布的《新一代人工智能发展规划》所奠定的。此外,一些政策文件明确表示通过政策探索实践路径,并形成“可复制可推广”的经验。例如,《国家新一代人工智能创新发展试验区建设工作指引》将政策先行作为原则,并在指导思想中指明“打造一批新一代人工智能创新发展样板,探索智能社会建设新路径,形成一批可复制可推广的经验,引领带动全国人工智能健康发展”。
在互补性上,法律通过特定的逻辑结构和尽可能详尽的内容,给人们以特定的指引。但法律因制定过程长、权威性较高、稳定性强等特点,使其一旦制定之后,便无法根据人工智能技术的变迁,及时迅速地作出调整。“法律使规范性期望稳定化的功能远超调解冲突概念所能把握的内涵。”而我国话语体系中的政策,作为党和国家实现一定政治、经济目的而制定的行动指导原则与规则,具有宏观性、灵活性、针对性等特征,能适应人工智能产业的变化不断作出调整,并对未来的产业发展提供相关规范指引。但其灵活性也容易带来稳定性和权威性的不足。正因为二者在特征上的互补性,所以在人工智能治理中,需要二者之间的协调与转化。政策与法律的同质性与互补性,为人工智能政策法律协同治理提供了前提与可能。
(二)二者在我国治理体系中的定位是协同治理的基础
党的二十大报告把“国家治理体系和治理能力现代化深入推进”作为未来五年我国发展的主要目标任务之一。坚持在法治轨道上推进国家治理体系和治理能力现代化,确立了国家治理的基本命题。作为全面依法治国战略的顶层设计,《中共中央关于全面推进依法治国若干重大问题的决定》对于政策与法律的关系有着深刻的描述,“完善党委依法决策机制,发挥政策和法律的各自优势,促进党的政策和国家法律互联互动”,“制定文化产业促进法,把行之有效的文化经济政策法定化”。通过这些描述,可以概括我国实践中政策与法律的两种关系。
一种是发挥各自优势,实现互联互动。在我国,党的政策和国家政策也是法律制定的指导与先导。因此,应摒弃将政策与法律割裂的思维,充分发挥政策在调动新兴产业发展上的灵活性与实效性以及法律在应对风险上的稳定性与强制性,实现政策与法律的互联互动。尤其是在人工智能这种新技术、新业态层出不穷的领域中,更应发挥这两种治理工具的协同性。
另一种是积极促进行之有效的政策法律化。从立法政策学的角度看,“对政策的有益经验和要求进行总结,并以此为基础将其转化为法律,是对社会治理工具进行最优化选择的必然结果”。虽然政策能够灵活应对实践中发生的各种情形,并有针对性地提出解决方案,但其稳定性不足与权威性欠缺使其只能适用于完成一定阶段的任务。积极促进政策的法律化不仅能够让行之有效的政策变成稳定和权威的制度,而且让法律更加体现时代的价值。在我国人工智能的治理中,面对陌生的新事物,人们要有一定的认知过程。为了促进技术的发展与认识新技术的风险,监管部门通常秉持包容审慎的态度,首先运用政策来进行引导与规制,以便更好地对其观察。当这些行政手段达成一定治理效果时,推动政策的法律化便成了必要之举。
在推进国家治理体系和治理能力现代化的背景下,推动人工智能政策法律化与人工智能政策法律协同治理构成新时代人工智能领域治理的两个主要实践面向。
(三)法政策学方法论是实现二者协同治理的路径
人工智能法律与政策协同治理包含人工智能政策向立法转化以及政策与法律在实践中互联互动的实施机制两个方面。在法律方法研究中,传统的法释义学方法论“集中于探讨法律行为以及该法律行为如何适用法律之问题”,对于政策因素并未予以考量。因此,应采用以法律现实主义为基础的法政策学方法论作为人工智能政策与法律协同治理的研究方法。
在法律与政策关系上, 法实证主义和分析法学认为法律与政策两个学科有所联系又相互独立,法律“不为输送给他们的政治内容或它们运转其间的政治环境所动”。批判法学与法经济学认为“法律现象是嵌套在政治现象之中的”。然而,这两种观点在20世纪政府市场监管职能扩张与福利国家的推行中无法得到有效印证。作为法政策学方法论的指导理论,20世纪上半叶在西方法律文化中出现的美国和斯堪的纳维亚法律现实主义对法律与政策的关系给出了更为实践性的答案,其认为法律与政治应遵循一种交叉模型。“法律只是部分地与政治遭遇,而非完全嵌入政治之中,法律保持了一定程度的分离。”法律是一种独特的规范性现象,有着自身运转的空间和规则。法律不仅仅是落实于纸面上的封闭规则体系,而是一种经验现象,由人类的行为和相关的流行观念共同构成,是“行动中的法”。
法政策学是制度设计的学问,它“从法的角度对意思决定理论进行重构、并与现行的实定法体系相联系,设计出法律制度或者规则”。法政策方法论的研究目的在于促成政策与法律的协同治理。一方面着眼于使政策能够适法,并积极地转化为法律。另一方面使法律能够适应实践的需求与时代的变化,积极地吸收政策所体现的价值。最终做到从法律的视角看政策,从政策的视角看法律。这一研究方法立足于法律学科,遵循“目的—手段”的逻辑模式,由政策目标、政策工具、规制模式与评价基准四个支柱性基础概念组成,积极促进政策与法律的协同治理与立法转化。作为在风险社会背景下面向实践与时代的方法论,法政策学方法论与以风险为基础的人工智能治理不谋而合。运用法政策学方法论,有效促进人工智能政策与法律的互联互动,并推动人工智能政策的法律化是人工智能政策与法律协同治理的主题。
三、人工智能政策与法律协同治理的立法机制
法政策学方法论认为,法律与政策可以借助政策法律化实现相互连接,从而弥补二者的缺陷,最大限度地发挥两种制度安排的优势,实现治理能力。将关涉公民权益、社会发展的公共政策之内容诉求融入法律,实现符合公共政策治理目的的制度设计,是法政策学所秉持的基本立场与研究进路。从法政策学方法论的作业模式来看,其遵循“目的—手段”的思维模式,分为法政策目标的设定、法政策手段的选择、目标与手段的适配、评价基准设置四个步骤。人工智能政策与法律协同治理的立法机制就是将实践中成熟、稳定并在较长时间内调整社会关系的政策内容用明确的法政策目标适配合适的法政策手段,用立法的形式予以确认,从而实现良法善治。
(一)促进发展与防范风险是人工智能治理的法政策目标
2023年4月28日,中共中央政治局会议强调:“要重视通用人工智能发展,营造创新生态,重视防范风险。”这一论断为人工智能治理的法政策目标定下基调。法政策目标通常是一种追求最优的法秩序。如何设置法政策目标是政策向法律转化的首要条件,关乎着立法的价值。法政策目标的核心问题是“法律应当向何种目标发展”。在立法学中,立法目的是立法者制定整部法律的精神与目标,具有抽象性、开放性与评价性的特点。法政策目标在法律制定中体现为立法目的。人工智能政策向法律转化的第一步是设定法政策目标。在纷繁复杂的人工智能政策中,不同政策用以调整不同社会关系。总体来说,人工智能政策的法政策目标无外乎促进发展与防范风险。推动人工智能产业落地政策和推动人工智能技术创新发展政策是体现促进发展目标的代表,例如《廊坊市促进人工智能产业发展十三条措施》通过对人工智能产业建设的“补贴”“奖励”“引导”等手段,呼应促进人工智能产业发展的目标。人工智能政策的防范风险目标体现在一些总体规划性政策之中,例如《广东省新一代人工智能创新发展行动计划(2022—2025年)》规定“实行设计问责和应用监督并重的双层监管结构”,“防止人工智能技术滥用与侵犯个人权利”。这些政策中设计的制度与方法无不体现人工智能政策促进发展与防范风险的法政策目标。
当促进发展与防范风险通过党的政策和治理实践被确立为法政策目标后, 下一步需运用法政策目标对政策措施进行正当性与真实性分析。法政策目标的正当性,即法政策目标的适用是通过正当程序进行的。以人工智能政策防范风险目标为例,正当性意味着人工智能政策制定的监管措施应遵循法律保留原则、符合相关法律法规、不得在法律法规之外创设额外的监管措施。法政策目标的真实性,即法政策目标是政策措施的真实目的。以人工智能政策促进发展目标为例,真实性意味着行政机关制定政策的初衷是为了促进人工智能产业的发展, 而非借着发展人工智能产业的目的进行限制性竞争或地方保护。通过抽象的法政策目标再适用于具体的政策措施,行政措施得以通过价值的检验。
当然,法政策目标也会相互冲突,并随着人工智能技术的发展而不断变化。一方面,法政策目标会相互冲突。政策和法律的规制目标常常是多元的,在探寻政策措施所蕴含的法政策目标并进行归纳推理后,这些法政策目标往往存在对立与冲突。“各种相互对立无法兼容的政策目标并存于法体系之内,极易损害法律的一致性和安定性等内在品质。”因此,在人工智能政策法律化的过程中,如何处理促进发展与防范风险这两种法政策目标成为实现人工智能良善治理的前提。人工智能政策法律化的法政策目标确需在两种价值之间进行平衡,这种平衡最终表现为法律文本的立法目的排序与个案适用。在当前国际科技竞争加剧的背景下,促进发展与防范风险这两种政策目标的平衡基准应表现为在积极推动人工智能产业发展的前提下设定风险的底线,即不侵犯国家安全与社会伦理底线以及个人的基本权利。另一方面,随着人工智能技术的深入发展,由于信息不充分和认识能力不足带来的认知局限会不断得到修正。这时,法政策目标也会随之进行相应的调整。例如,在人工智能技术发展初期,人们对人工智能这种未知事物对传统生产生活模式的冲击带有一定的警惕性。因此,人工智能技术发展初期的立法将防范风险作为第一原则。这深刻体现在网络安全法、数据安全法等法律法规的制定中。但随着人们对人工智能认识的不断深入,其带来的产业发展与科技革命也极大地促进了生产生活快捷化与便利化。在国际科技竞争中,人工智能也成为新的竞争领域。此刻,人们逐渐认识到发展人工智能产业的重要性,促进发展便成了一种法政策目标。
总体而言,人工智能政策与法律协同治理立法机制首先应确立促进发展与防范风险的法政策目标,并用这两个法政策目标去检视人工智能政策措施的正当性与真实性。
(二)充分运用人工智能治理的多种法政策手段
在人工智能治理中,政策和法律通过制定各式各样的措施来达成促进发展与防范风险的政策目标。这些“为达成特定的政策(行政)目的所采取的各种手段和措施的总称”被称为法政策手段,也叫作“政策工具”或“行政手段”。在政策目标确定后,立法者可以采取何种手段达成政策目标,是立法过程或者行政监管过程的重心。我国学者陈铭祥按照法律与政策调整手段的强制程度,将法政策手段依次分为不予规定、提供资讯与教育、业者自律、业者与政府共律、国家直接规定五种手段。对于法政策手段的研究,应对各项政策措施采取的手法予以归纳,进而从政策和法律的角度分析各种行政手段的适用实效与方式,为政策法律化提供行政手段选择的空间。
在世界各国的人工智能治理实践中,不同国家选择了不同强度的政策工具来达成治理目标。欧盟推崇“产业未强、制度先行”的立法积极主义与保障安全强化监管的刚性规制模式,通过立法来规制人工智能的风险,以保障国家安全与个人权利为理念颁布带有强硬监管措施的法律法规。同时,以“分类分级”的方式对风险进行识别与监管。例如,欧盟通用数据保护条例秉持“用户权利至上”的制度理念,建立了严密的权利保护规定与繁杂的合规体系。2024年年中生效的欧盟人工智能法案也成为世界上首部人工智能基本法。同样采取这种立法积极主义的还有韩国和新加坡。韩国的国家网络安全法案扩大了国家的监管权,新加坡的《身份信息保护指导规则》强调保护公民的身份信息。与此相反,美国关于人工智能的立法则采取以激励创新、审慎监管为主的低强度规制手段。虽然美国各界对于人工智能立法的呼吁很高, 美国商务部也成立了国家人工智能咨询委员会专门推动人工智能立法。但总体来说,美国仍是通过低强度规制手段来促进科技的发展。例如,2023年10月,美国通过《关于安全、稳定和可信的人工智能行政令》,这一法令以“软法”的形式推行人工智能的“敏捷治理”。长期以来,我国对于人工智能的治理都是以监管型立法为主,无论是网络安全法、数据安全法还是《生成式人工智能服务管理暂行办法》,其所规定的手段大多为强化企业的责任,对违反规定的企业进行处罚。更有甚者,在行政法没有细化规则的情况下,刑法修正案(九)增设了“拒不履行信息网络安全管理义务罪”。
通过整理我国人工智能政策与法律文本及实践措施,根据调整手段的强制性程度,可将人工智能治理手段依次划分为强制、禁止、许可、激励、信息告知。首先,强制和禁止是强制性最强的两种政策手段, 这两种手段要求或禁止行为主体做出一定的行为。例如,《生成式人工智能服务安全基本要求》规定,提供者对未成年人提供服务时应限制未成年人单日对话次数与时长。其次,许可意味着企业在一些人工智能技术或应用场景需取得相应资质或技能才可从事生产生活活动。例如,《生成式人工智能服务管理暂行办法》第23条规定:“法律、行政法规规定提供生成式人工智能服务应当取得相关行政许可的,提供者应当依法取得许可。”最后,激励和信息告知带有一定的指引性质,强制性最弱。激励多代表行政机关对于人工智能企业向着某种目标发展或者从事某种活动的鼓励。例如,《上海市促进人工智能产业发展条例》第31条规定:“本市统筹各类专项资金,对人工智能基础研究、技术创新、成果转化、示范应用、人才引进和重要国际合作交流予以支持。”而信息告知则意味着企业在进行某种活动时需要告知相关人一定的风险与提示,使其具有可信赖性。例如,《新一代人工智能伦理规范》第16条规定:“保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。”这些手段共同构成我国人工智能治理的规制手段。
(三)区分人工智能领域确定规制模式
随着科技发展,人工智能应用场景逐渐增多,对传统的生产生活方式也带来了挑战。人工智能治理需区分不同的人工智能领域以确定相应的规制模式。规制模式,是将特定的法政策目标与法政策手段进行匹配。这种匹配通常会形成由多重政策手段共同保障同一政策目标而形成的法律调控模式组合。例如,我国网络安全法规定对于网络相关行业组织的行为,可以采取行业自律的形式。当网络相关行业组织违反了法律的强制性规定,主管部门责令改正并予以警告。如若拒不整改或者造成其他严重后果,则进而实施财产处罚或制裁。这一种为实现风险防范的政策目标配合一系列连贯的行政手段,构成行政机关惯用的规制模式组合。这一模式具有很强的实践性,一旦监管部门通过推行自由组合法政策目标搭配行政手段的政策在这一领域被证明行之有效,则这一模式就可以考虑在立法中予以推行,用法律的权威加以固定。
面对纷繁复杂的社会问题,应该选择何种政策手段、是否有替代性的政策手段、可否针对同一政策目标重新搭配政策手段达成更有效的治理,成为政策法律化应考虑的要素。在人工智能治理中,这一问题突出表现在促进发展与防范风险的张力上。如果用立法强制监管的方式去实现人工智能治理,反而会抑制产业的发展。例如,欧盟通过积极立法的方式去治理人工智能产业,但其并没有给欧盟带来人工智能产业的快速发展,限制数据流通的法律手段反而阻碍了数据收集与流动,严重阻碍企业的发展。尽管欧盟历经三年的时间最终于2024年3月13日通过世界上第一个全面的人工智能法律框架——欧盟人工智能法案,但该法案也受到一些欧盟成员国和大型企业关于扼杀创新与阻碍国际竞争的质疑。反观美国采取消极与克制的立法态度,通过地方自治、行业规则和资源倡导等软性政策调整人工智能产业,使其人工智能产业的发展获得竞争优势。
回归我国人工智能立法的视野,政策目标和政策手段的适配带来两个需要解决的问题。一是人工智能是否需要立法? 本文认为,在政策法律化的过程中,也会存在某些领域暂时不适应立法或者立法会阻碍产业的发展而终止的现象。事实上,并非所有行之有效的政策均需要通过立法予以固定。立法部门努力填补法律空白,将所有领域都纳入法律规制的立法政绩观是片面的。在人工智能众多领域中,不同领域所适用的法政策目标是不一致的。在一些技术发展相对完善、已经广泛进入人类生产生活等被人们所认知的领域,防范技术带来的风险成为主要的政策目标。例如,人脸识别技术自2014年被研发以来,迅速在多个场景中得到运用,促进人脸识别发展的相关政策进入密集出台期。而促进发展则是新技术初现阶段的政策目标。随着人脸识别技术在生产生活中的广泛运用,侵犯个人039be09753cd53f813f62b1f72ef2437隐私等问题逐渐显现。随着认识的深入,《App收集使用个人信息最小必要评估规范》等规制类的政策也相继出台。在运用政策进行调控人脸识别技术的基础上,最高人民法院《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》《人脸识别技术应用安全管理规定(试行)(征求意见稿)》等用以防范风险的规范性法律文件也随之制定。而对于人工智能新的应用场景,由于技术发展处于初期,其风险也尚未出现,促进发展是主要的政策目标。相较于稳定的法律,通过灵活的政策措施调节更具有可行性。因此,在促进发展与风险防范两种政策目标的平衡中,如若人类对这一人工智能领域认识相对不足,政策法律化会影响产业的发展,在衡量后可选5b82fbd8e7afbfa381b1dff420bd7cea择不规范的模式,通过政策的灵活性与时效性继续进行调控。二是用何种政策手段进行调控的问题。面对各式各样的政策手段,应当选取哪种手段或者哪些手段的组合能够更好地达成政策目标? 这不仅涉及政策与法律的治理手段实施能否带来实效,而且关乎规制模式的评价性问题。规制模式的评价基准是法政策学方法论的最后一步,后文将会提及。对于政策实施能否带来实效,应考虑政策手段能否达成行政目标以及是否在实践中有着更为缓和的行政手段组合能够在达成行政目标的同时更好地实现行政目标之间的平衡。
(四)设置适当的立法评价基准
在政策法律化的过程中,法律的评价基准不可或缺。这不仅能够防止立法者恣意促成政策的法律化,而且能够通过评价基准的衡量,确保立法品质的提升。同时,社会的发展也伴随着法政策目标的转变与法政策手段的丰富。适时地运用评价基准去考量法律,有利于在科技进步与人类认知提高的过程中不断更新法政策目标,选择更为适配的法政策手段,以达成治理的目标。
日本法政策学研究将评价基准分为一般评价基准和具体评价基准。一般评价基准是“任何法律都应遵守的基础性价值观,是法之所以成为法的必要条件,是对立法品质的最基本要求”。平井宜雄指出,效率性和正义性是法律制度设计的两大核心价值要素。效率性基准是指“没有浪费地将稀缺的财富分配到各种用途上去”;正义性基准则是指“如何将稀有的财富分割、从谁那里剥夺”。从效率性基准来看,如何更为经济、更加便捷地达成人工智能的治理目的是一个需要考虑的问题。是采取完全不规制的市场性决定,还是运用灵活的政策进行辅佐,抑或通过权威性的法律加以规制? 这一基准告诉我们,在人工智能法律化及立法后的运作中,应适时进行效率性评价,选出更为经济性的方法用以治理。从正义性基准来看,如何在科技发展的过程兼顾旧产能与新产能、照顾“数字鸿沟”是人工智能治理中不可回避的问题。这两种评价基准不是非此即彼的,因此,作为立法者难免受到两种对立价值观的“撕扯”,需要衡量法政策目标与法政策手段的适配性,并作出选择。
具体评价基准指部门法或者特定法领域应遵循的立法评价基准。“公法规制是技术发展的重要支撑与保护人类社会安全的基本手段。”人工智能治理涉及监管部门对人工智能领域的行政管理,应归为行政法的范畴。在行政法领域,原田大树将立法评价基准总结成两个标准:宪法规定和行政法的一般原则。一方面,宪法规定的基本权利条款发挥基本权利的客观法功能,提供一套完善的价值准则用以评判。人工智能政策法律化不可违背宪法的人权保障条款,这表现在人工智能不能作为主体等问题面向。另一方面,行政法的一般原则在制度设计上也防止行政机关肆意对人工智能进行规制。传统的行政法原则是以依法行政原理展开的,其中包括合法性、合理性、高效便民、程序正当等原则。在行政法治实践中,行政机关也因应社会的发展,创制出一些原则。包容审慎监管原则便是我国政府在面对新产业、新业态监管的原则。“包容审慎监管旨在追求效率与安全的动态平衡,其要求政府给予数字经济新业态必要的发展时间与试错空间,并根据公共风险大小进行适时适度干预。”在人工智能政策法律化的过程中,要坚持以包容审慎监管原则作为评价基准,对于ChatGPT等新生事物不能因未知而赋予其刚性的监管措施。
在对人工智能政策的法政策目标与法政策手段根据实际情况进行搭配后,应将一般与具体的评价标准进行套用检验,以保证制定出良善的法律。同时,也要定期对人工智能法律法规进行评估,使其根据实践和人类认识的发展而更新。综上所述,以人工智能政策法律化为核心的立法机制是人工智能政策与法律协同治理的关键一环,这一环将政策与法律串联,并建立起相应的转化机制。通过法政策目标和法政策手段的适配性构建起新的立法制度,并根据评价基准确保立法的良善性和可行性。
四、人工智能政策与法律协同治理的实施机制
人工智能法律与政策协同治理,不仅需要促进行之有效的政策向立法转化,而且还需要在监管过程中促进政策与法律的互联互动,消解人工智能的治理困境。其中包括人工智能政策备案审查机制、人工智能政策参照适用机制和人工智能法律与政策冲突协调机制。
(一)建立人工智能政策备案审查机制
面对多层级、多领域的人工智能政策体系,如何从政策制定层面确保政策制定的科学性与民主性成为政策能否有效施行的关键,尤其是在当今人工智能治理严重依赖政策的背景下。在国际人工智能竞争中,制定什么样的政策也影响着人工智能发展的走向。建立有效的政策备案审查制度不仅能使人工智能政策体系在发展方向上保持一致性,规避“政策打架”的情形,而且能够使单个政策在制定层面上得到控制。
在我国,人工智能政策的制定历经政策议程、方案规划、公众参与等流程。然而,对于制定政策的备案与监督制度并未有效建立。相较于政策,法律则有相对完善的备案审查机制。通过备案审查,宪法得以有效实施,法制统一的原则得到维护。政策仅有评估机制,这种评估机制更多地着眼于单个政策实施的实效与发展的走向,并未将其放置于整个政策体系中通盘考虑。为保障人工智能发展方向的一致性,保持人工智能政策体系共同作用发挥治理的实效,应参照法律法规的备案审查制度来建立人工智能政策备案审查制度。通过备案审查制度,保证政策在实施前得到有效监督,避免由于政策制定的不当造成科技竞争或生产生活中的问题。
对于人工智能政策备案审查制度,可由政策制定机关在政策文本成型后向上级主管部门或者同级科技主管部门进行备案,上级主管部门或者同级科技主管部门对该政策进行审查。审查的标准为是否与国家制定的人工智能政策以及上级部门制定的人工智能政策相抵触。如若抵触,则应将政策文本退回,责令重新修改。如此一来,可提高政策制定的质量,确保政策体系的一致性,进而促进人工智能的政策治理。
(二)确立人工智能政策参照适用机制
由于法律制定无法与人工智能新模式与应用场景相同步,在监管部门进行监管时,仅仅依靠现有的立法无法达到有效治理。因此,为了对人工智能新场景迭代进行有效监管,应确立人工智能政策的参照适用机制。在理论上,传统的行政法理论将依法行政作为首要原则。依法行政即“行政权的行使必须有法律依据,行政活动不得与法律相抵触,法律是行政机关的活动准则”。在我国,依法行政之法的范围通常限于立法法第2条的规定,即法律、行政法规、地方性法规、自治条例和单行条例及国务院部门规章和地方政府规章。为确保行政活动的明确性与稳定性,政策通常被排除在依法行政原则的范畴之外。然而,由于我国特殊国情与历史传统,政策始终活跃在我国行政法治实践的各个方面。在人工智能监管中,监管部门也在实践中积极落实政策的相关规定。例如,在以往的人脸识别监管中,由于个人信息保护法等立法的缺失,监管部门也需参照《信息安全技术生物特征识别信息的保护基本要求》《信息安全技术人脸识别数据安全要求》等政策进行综合研判。
在人工智能监管中参照政策不仅顺应实践WW0733UgE3th+I9mhJ7mMw==上的做法,也符合实质法治观的要求。纵观依法行政原则的演进过程,随着行政任务的扩张,传统的“依法律行政”也渐进扩展到“依法行政”。这说明依法行政原则之法的范围也随着实践和时代的发展不断发生变化。依法行政原则的范围也应对政策有所关注。实质法治观要求规范的制定需满足正义性等理念方可适用。政策作为治理规范体系的一种工具,在理论与实践发展中不仅具备了科学性与民主性,而且对党内法规、党政联合发文等政策也逐渐建立备案审查制度。因此,在相当程度上满足实质法治观的要求。同时,作为法律的非正式渊源,政策在一定程度上也作为法律制定的指导。面对人工智能这种新事物,为了弥补其更新迭代引起的法律规制滞后,应适时将人工智能政策作为监管部门执法的参照,在法律尚未出台时暂时起到规制的作用。
(三)设立人工智能法律与政策的冲突协调机制
在全面依法治国的当下,法律研究者大多认为,当政策与法律发生冲突时,应摒弃政策、适用法律。这种论断把法律置于高于政策的位阶,一定程度上否定了政策的合法性。一方面,作为新兴技术的人工智能更新迭代十分迅速。近年来,区块链、元宇宙、生成式人工智能、通用式人工智能不断登场。新技术的治理目标与治理策略也随着技术的发展有所变革。人工智能产业初出茅庐时,法律界多考虑其带来的风险,用以防范风险为中心的立法对其规制,以保障国家、社会安全和个人隐私。而在当下,随着国际科技竞争加剧,人类对人工智能的认识渐趋加深,促进人工智能产业发展也逐渐成为国际共识,促进发展也与防范风险相并列,成为人工智能治理的政策目标之一。另一方面,中国特色社会主义法律体系十分庞大,能够制定法律规范的主体也很多。不同立法主体制定的法律与政策冲突时能否简单地否认政策的合法性? 例如,当国家制定的政策与地方政府制定的地方政府规章发生冲突时,应当如何适用?从法律规范自身来讲,有些法律法规甚至存在上下位法以及内部的冲突。同时,我国的法律清理工作仍在进行之中,一些与时代脱节的法律规范未被清理。由此可见,人工智能政策与法律冲突时,不能简单地摒弃政策。建立人工智能政策与法律冲突协调机制有其必要性。
人工智能产业处于高速发展阶段,随着发展的推进,现行法与政策的冲突将会更加凸显,推动人工智能发展的政策可能会触碰原先阶段制定的法律法规。“只有在公共政策触及法律的底线或公共政策需要转化为立法的场合,方才需要开展有针对性的法政策分析。而既有之实定法是否有效达成了既定之政策目标(立法目的),同样也属于立法评价之重要内容。”本文认为,应仿造法律冲突的解决方式,建立人工智能政策与法律冲突协调机制。当人工智能政策与相关法律冲突时,由立法机关会同政策制定主体以及业内专家进行协商。以促进发展与防范风险为主要衡量价值,以法律的权威性与政策的前瞻性为基础,综合研判法律与政策冲突的原因并提出解决方案。这一机制不仅能够有效地解决人工智能政策与法律冲突的问题,也能及时地对法律的有关条文进行评估,为修改不适应时代发展的法律条文提供参考建议。
结语
人工智能治理是国家治理体系和治理能力现代化的一个重要内容,也是对于新事物、新业态治理的参考样本。在人工智能治理中,政策与法律发挥了无可替代的作用。本文虽提出政策与法律协同治理的论题,但除了这两种由立法机关与监管部门制定的法律与政策外,还存在着大量由行业协会、社会组织等制定的标准、伦理等规范。如何促进人工智能治理由政策法律协同治理扩展到具有强制力的“硬法”与非强制性的“软法”协同治理,可以是未来促进人工智能治理的一个研究方向。