APP下载

重述“技术公益主义”:人工智能立法的一般理论与实践

2024-08-17张玉洁

法治研究 2024年4期

摘 要:随着人工智能技术的不断发展,具有人文价值精神的“技术公益主义”理论正在全方位地渗透到人工智能立法之中。该理论既是对“技术中立论”“技术决定论”的批判,又推动了人工智能立法由“公众权益保障”框架向“公共风险规制”框架的转型。这种转型在欧盟、中国以及美国立法上展现出不同的形态:欧盟人工智能立法对“技术公益主义”理论采取了“半开放性”修正;中国以地方立法试验为主,并展现出强烈的包容性“技术公益主义”倾向;美国则更加注重“技术公益主义”的软法之治。然而,上述实践也表明,当前人工智能立法中“技术公益主义”忽视了市场驱动力(私利)保护,导致了权利义务责任的配置失衡,进而影响了人工智能立法的适用范围。综合上述理论发展与实践探索,“技术公益主义”的理论发展应当更加注重技术价值与法律价值的相互构建、技术公益与责任公益的紧密衔接、立法与软法的协同推进,从而进一步为全人类的可持续发展凝聚出人工智能立法共识。

关键词:人工智能立法 技术中立论 技术公益主义 软法

随着人工智能技术的不断发展,“人工智能立法”已经成为当前我国法学界争相讨论的热点命题之一。尤其在欧盟《人工智能法案》(AI Act)的影响下,关于人工智能立法理念的理论论争更是不胜枚举。所有这些论争均试图竞争人工智能立法的核心理念地位,并尝试以理念上的优势来推动人工智能立法的进步,如人工智能主体理论、权利保护理论、风险防控理论、行政规制理论。应当看到,在规范主义视角下,上述“人工智能立法理念”的理论论证均展现出一定的合理性,但也存在明显的不足,即上述理论均将人工智能立法的任务理解为“立法是对人工智能技术的一种约束”。这并不符合当前发展人工智能技术的整体趋势,也难以在历史主义视角上获得正当性支持。造成这种理解偏差的主要原因在于人工智能技术的快速发展改变了人工智能立法的总体背景,因而引发了人工智能立法领域的两种结构性变化:一是技术结构的变化。伴随着ChatGPT、Sora 等生成式人工智能技术的问世与应用,人工智能技术已经从基于识别的感知型人工智能迈入到了基于逻辑推演的认知型人工智能时代。因此,人工智能立法必须回应技术的滥用问题。二是立法任务的结构变化。面对人工智能技术的发展,人工智能立法的任务也从如何促进人工智能技术的产业化,转向到如何保证人工智能产业(包括人工智能技术及其创造物)发展的合法化。考虑到约束型立法理念无法为人工智能产业发展带来积极的影响以及创新的动力,与之相反的“技术公益”理念成为当前人工智能立法的重要补充,也为人工智能立法理念提供了一种全新的理论支持。

具有人文价值精神的“技术公益”,正在全方位地渗透到人工智能治理实践,并逐渐形成人工智能立法领域的“技术公益主义”理论。所谓“技术公益主义”,是指技术控制者以增加社会公共福祉为目标而开展技术研发、推动技术应用的理念和态度。由于技术公益主义带有明显的“公共人文价值”属性,使得人工智能立法逐渐摆脱公司法以及民法的制度束缚,并在社会法意义上成功地克服了市场经济所带来的“技术自利性”和“政治无涉论”陷阱,进而将人工智能技术纳入公共性轨道上来。这样,国家立法对人工智能技术的规范范围进一步扩展至人工智能技术研发者和应用者的社会责任上来,从而补充和完善了约束型立法理念的不足。有鉴于此,本文将从理论和实践两个层面来探究“技术公益主义”的法治意义,揭示出“公益”性对于规范人工智能技术的重要影响。这也意味着,“技术公益主义”理论不仅是约束型立法理论(以及理念)的有益补充,更是国家立法对人工智能技术产生积极效应的鲜有措施。当然,我国也应当重视“技术公益主义”的理论不足,并以法治化方式加以回应。

一、人工智能立法的“技术公益主义”理论探源

(一)“技术公益主义”的哲学基础

对于技术的认知,一直深刻影响着立法的走向。为此,科技哲学视角的思考有助于将人工智能立法拉回到技术治理的本源中来。恰巧的是,“技术”本源正是在此发生了分化,进而演化出两种完全不同的理论:第一种是技术中立论。该理论直接从技术本身的属性展开讨论,强调技术是对自然理性、数理逻辑的遵循,它不会因人的参与而发生变化。因而其本质上是“被捕获并加以利用的现象的集合,或者说,技术是对现象有目的的编程”。因此作为价值理性集合的立法,不应当要求技术本身承担额外的价值责任。技术本身的自然理性不会也无法参与到价值理性的整合中来。因此,技术中立论在法治层面分化出了“功能中立、责任中立和价值中立”三种状态,以便于从各种法律纠纷中抽身出来。“分离之后,技术成了可供一切用途使用的手段。”第二种是技术决定论。该理论是由托尔斯坦·凡勃仑(Thorstein Veblen)于1929 年在其著作《The Engineers and the Price System》中首次提出,并深刻影响了后世技术发展趋势。技术决定论强调技术本身是自主发展的,并且技术变迁是带动社会变迁的唯一要素。相较于技术中立论对自然理性的严格遵循,技术决定论显然更为进步。后者看到了技术本身附带的双重属性:自然属性和社会属性。但过度夸大了技术自然属性与社会属性之间的单向影响力,更未能注意到技术与社会的相互影响与相互制约的关系。因此,科技哲学对技术治理本源的探知,受到其学科的限制而未能窥见技术治理的全貌,进而也未能回答作为秩序建构者的“法律”与作为社会推动者的“技术”之间的相互影响问题。

对于“技术中立论”“技术决定论”的上述缺陷,早有学者提出了批判。海德格尔就认为,社会状态下的技术本质上已经脱离了技术本身的束缚,转而成为一种解蔽(un-concealedness)手段。事物通过技术手段能够呈现出其本质。按照这一逻辑,广泛应用于社会活动的技术,不仅可以成为解蔽事物本质的手段,还可以成为塑造需求、划分身份的门径。有技术辅助者更容易认清事物的本质,进而获得更多的社会资源;相反,缺乏技术辅助者虽然也能以其他方法辨识事物的本质,却必须承担更多的效率损失,进而无法成为推动社会发展的顶级驱动力。尤其是在技术的自然属性与社会属性相互影响下,人类社会发展方向同技术发展目标之间保持了高度的关联性。因此,立法对国家技术秩序的建构实际上就演变为立法对技术发展目标的严格把握。考虑到技术的“双刃剑”效应,国家立法必须保证技术发展的公益性,并积极抑制负面技术的研发与应用。因此,技术公益主义成为国家立法回应“技术中立论”“技术决定论”缺陷的必然举措。

(二)技术公益性是人工智能立法的制度起点

人工智能属于现代信息技术的核心组成部分,通常会被划归为“技术”“工具”的基本范畴之下。因此,虽然人工智能立法是一个晚近的新鲜事物,技术工具的立法规范却在法律史上保持了悠久的连续性。例如:中国古代秦朝时期对“度量衡”的立法规范;宋代《宋刑统》第二十六卷《杂律》亦对“营造舍宅车服违令”“器绍布行滥短狭”创设了相应惩罚;美国对蒸汽机船技术的行政监管等。抛开古今中外立法对技术的规范性、统一性价值,单从技术与立法的关系上可以发现,国家立法普遍认为技术的控制者在社会实践中处于优势地位,倘若不加以管制,极有可能损害社会公共利益。因此往往采取社会公益优先于技术控制者的私利的制度策略。换言之,国家在科技立法方面表现出了强烈的“公益”性倾向。但这并不意味着国家立法不保护技术创新,而只是说国家立法已经关注到了技术创新收益背后的技术“公益性”问题。这一立法理念在当前各国立法上均有所体现。最为典型的就是我国《科学技术进步法》第32 条第3 款规定的“项目承担者依法取得的本条第一款规定的知识产权,为了国家安全、国家利益和重大社会公共利益的需要,国家可以无偿实施,也可以许可他人有偿实施或者无偿实施”。而且,在各国物权法、知识产权法、经济法门类相对齐全完整的情况下,人工智能立法无需再将技术保护、技术创新置于首要位置,“延续部门法‘划域而治’的底层逻辑致使人工智能法规范无法在既有部门法谱系中找到栖身之所”。故此,当前人工智能立法应当围绕人工智能技术的公益性逻辑,延续古今中外技术工具立法的一贯风格,确立社会公共福祉优先于技术私利的立法理念。

然而,技术公益性在技术立法上的应用并不是一帆风顺的,它也会受到技术控制者的强烈抵制——这是立法过程的常态——在市场力量占优的人工智能立法上,这一现象表现得尤为明显。从2021 年4 月欧盟委员会提交《人工智能法案》开始,直至2023 年12 月欧盟27 国代表投票一致支持《人工智能法案》文本。历时近三年的欧盟人工智能立法先后受到多个国家和科技企业的抵制。其中,法国、德国等成员国担心该法案所设定的监管标准过于严格,可能阻碍人工智能的发展。苹果、谷歌、亚马逊、Meta 等科技企业也积极开展游说,阻碍法案的通过。由此观之,国家利益和技术控制者利益正在构成技术公益主义融入人工智能立法的最大障碍。这也意味着,人工智能立法的目标既不会严格保障技术控制者利益,也不会停留在一国利益之上,而是坚持一种更为广泛的、纯粹的技术公益主义理念。不仅如此,一旦技术公益主义真正融入人工智能立法,它还会反过来要求国家在人工智能监管层面、技术控制者在技术研发和市场推广层面均贯彻这一制度基础,并将“技术公益”提升为人工智能治理的基本原则以及重要评价指标。

(三)“技术公益主义”的治理框架演进

当以领土主权范围为边界的国家治理体系无力应对人工智能的跨境治理难题时,人类逐渐认识到调整“技术公益主义”治理框架的必要性。尤其是以OpenAI 为代表的通用人工智能技术的不断发展,使得“公益”的判断标准以及实现方式被大大的质疑。这些质疑中最为明显的就是作为治理理念的“技术公益主义”所呈现出来的“区域立法”与“长臂管辖”并存现象。而且,随着技术公益主义实践的不断加深+S6/vPC8PjAf3X7RFbSPQ6TZY+Pp+kB1yJXQW5DqR8k=,其立法范围与管辖范围上的分裂现象愈加明显。导致这一现象的根本原因在于技术公益主义的治理框架主要适用于有形状态的技术(如制造业机器)和能够设定明显许可使用区域的技术。与这两类技术相互对抗的是人类的劳动(休息)权保护、知识产权保护。因此,“技术公益主义”的法律框架就是以“基本权利-权益保障-公(私)力救济”事后制裁机制为主体的,在此简称为“公众权益保障”框架。然而,一旦区域范围要素不在技术研发和应用中占据核心地位,那么技术的公益性特征便不再明显,甚至无法判断——这也是为什么各国在人工智能技术、互联网技术治理上大谈“长臂管辖”的主要原因——立法者就必须在法律层面寻找到“区域”的替代锚定点,从而保证技术的公益性以及法律治理的可行性。对此,最优的调整方案是世界各国形成一种具有普遍约束性的国际公约,以要求本国及其人工智能研发者、使用者按照“公益”的方向利用人工智能,并且该国际公约具有实际上的高度执行力。这种设想在主权林立、技术发展水平不一的当今世界,显然有些不切实际。有鉴于此,既然事后制裁的“公众权益保障”框架行不通,那么作为事前防御机制的“公共风险规制”框架就进入到立法者的选择范围之内。换言之,立法者可以通过主权国家范围内人工智能技术风险的积极规制来实现“区域立法”和“属地管辖”上的统一性,从而避免本国人工智能立法的“长臂管辖”难题。

作为折中选择的“公共风险规制”框架虽然能够解决“长臂管辖”难题,但也在一定程度上减损了“技术公益主义”的“公益性”特征。“基于风险的治理需要对受监管对象的行为、制度环境、监管控制的相互作用、监管绩效和变化等五个要素做出反应性的监管。”因此,即便“公共风险规制”框架是以风险识别的“社会性”和规制效果受众的“广泛性”作为“公益”背书的,也很难经受得住“提升整体社会福祉”这一核心目标的检验,进而被划入到“行政规制理论”之列。况且“现有制度工具对于防范与应对大型语言模型所导致的新型侵权风险虽有作为而力有不逮”。因此在“公共风险规制”框架下,依然要警惕“技术公益主义”的狭隘理解,始终保留对“风险规制”的审慎态度。

二、人工智能立法中“技术公益主义”的实践探索

“技术公益主义”理论的发展,为人工智能立法提供了一种浪漫主义猜想。但随着生成式人工智能技术(特别是OpenAI 公司发布的生成模型ChatGPT、Sora)的不断发展,各国对于“技术公益主义”理论的认知与兴趣已经无法局限于理论学说层面。欧盟、中国以及美国人工智能立法上均透露出明显的“公益主义”色彩,并分化出不同形态的“技术公益主义”立法形态,从而为我们讨论“技术公益主义”理论的实践探索提供了一个合适的场域。

(一)欧盟人工智能立法的“技术公益主义”实践

当前欧盟人工智能立法已经成为法学界争相关注的焦点。与其说欧盟为各国人工智能立法提供了一种立法范式,不如说它为全人类有序开发人工智能、打破人工智能应用壁垒、达成人工智能治理共识提出了一种“国家磋商”机制。从欧盟《人工智能法案》的内容来看,它并未按照《通用数据保护条例》(GeneralData Protection Regulation,即“GDPR”)——该条例对全球数据隐私保护立法产生了深远的影响,甚至一度影响美国、中国的数据立法、个人信息立法——的严格权利保护范式,同时也弱化了风险防控理论、行政规制理论的立法影响,转而同《欧盟基本权利宪章》的整体性价值保持一致,旨在通过该法案来促进人工智能对个人、公司、民主和法治以及环境的保护,甚至是要求人工智能技术以人为本,在作为人类的“工具”的同时,最终能够提高人类福祉。由此观之,“技术公益主义”理论在欧盟人工智能立法得到了清晰地展现和适用。

然而,欧盟人工智能立法对“技术公益主义”理论采取了“半开放性”修正。这首先表现在立法目标上的“半开放性”。欧盟人工智能立法旨在促进人工智能系统能够通用于经济和社会的众多领域(包括欧盟内部的跨国界部署与技术流转)。这表明,该法案的核心目标是解决欧盟内部的技术壁垒,而非基于全球人工智能发展的整体利益——当然,这也受到立法主体固有缺陷的限制——这就导致欧盟人工智能立法对欧盟各成员国的人工智能技术研发与应用附加了更高的要求,进而导致德国、法国等国家一度担心欧盟《人工智能法案》会影响自身在人工智能技术上的国际影响力。其次是立法文本上的“半开放性”。作为“技术公益主义”典型范式的欧盟人工智能立法,旨在为欧盟内部达成立法文本上的共识,或者说为其成员国提供了一种人工智能立法的示范文本。各成员国要在本国人工智能上展现出欧盟《人工智能法案》的基本原则、规则以及秩序。但该立法文本对欧盟之外的国家和地区并没有形成约束力。由此也使得欧盟人工智能立法的“技术公益主义”效应无法直接作用于其他国家和地区。而且,该立法并非国际公约,后续也无法通过缔约的方式加入进来。最后是立法对象上的“半开放性”。欧盟《人工智能法案》在立法对象上包含甚广,囊括了公共机关和私营单位的人工智能活动、投放市场和未投放市场的人工智能技术、虽在欧盟研发但只在欧盟外使用的人工智能技术。因此可以说其立法对象上极具开放性。但该法案将“军事、国防或国家安全目的”的人工智能研发与应用活动排除在其适用范围之外。这不免同欧盟《人工智能法案》中的“提高人类福祉”背道而驰。因而也将该法案置于立法对象的“半开放性”之下。

但上述原因并不能遮盖欧盟《人工智能法案》对于当前人工智能技术发展所蕴含的杰出贡献,即立法促进了不同国家之间、不同人工智能技术之间的技术壁垒,有助于推动人工智能技术的社会化应用。特别是在欧盟作为网络全球化、经济全球化的重要组成部分的情况下,欧盟《人工智能法案》对“技术公益主义”的推崇和践行,能够为全球人工智能立法提供重要的实践平台和检验场域。

(二)我国人工智能立法中的“技术公益主义”探索

在人工智能立法上,我国一直保持积极且稳健的策略。国务院在2023 年立法计划中就将“人工智能法草案”纳入“预备提请全国人大常委会审议的法律案”之列,却未能在全国人大常委会5 年立法规划中得到体现。这表明,全国人大常委会认为当前从国家层面来制定统一的“人工智能法”的条件尚不成熟。但这并不影响我国地方立法机关、其他公权力机关对人工智能立法开展积极的探索。实际上,作为人工智能技术相对成熟的上海市、深圳市已经分别出台了《上海市促进人工智能产业发展条例》和《深圳经济特区人工智能产业促进条例》。国家网信办也联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局等七部门共同公布了《生成式人工智能服务管理暂行办法》。这三部条例(办法)在国家立法缺席的情况下,为我们管窥“技术公益主义”的中国立法实践提供了重要场域。然而,受制于地方立法、部门立法的固有“狭隘”缺陷,上述三部条例(办法)对“技术公益主义”的探寻与践行总是“欲行又止”。

从上述三部人工智能立法的内容来看,它们均展现出强烈的包容性“技术公益主义”倾向。所谓“包容”,首先是指立法者在人工智能“安全和发展并重”的原则下,将产业化发展置于公益性发展之先,并兼顾公益性发展的模式。这种“包容”现象在立法文本中得到了清晰展现。例如立法名称中的“产业……促进”;立法内容中“产业化发展”规定与“公益性发展”规定之间的数量比例。其次则是强调我国地方立法中的“技术公益主义”理念是多元主体相互包容、利害关系相互协调的折中结果,旨在推动形成具有广泛共识的人工智能治理框架和标准规范,促进人工智能产业的多元主体协同共治。再次是“技术公益主义”理念审查标准的包容性。两部地方性法规均设置了专门的人工智能伦理委员会制度以及行业自治机制,部门规章也对“人工智能伦理”予以了规范,并以“以人为本”“科技向善”为原则来干预人工智能技术研发与应用活动。从而在技术公益审查标准上涵盖了伦理委员会审查标准和行业自治标准。最后就是开放范围上的包容性。由于知识产权保护以及促进人工智能发展的客观需求,我国地方立法机关选择性地吸收、采纳了“技术公益主义”理念,仅在“数据开放”和“应用场景开放”这两个具体领域推进了技术的“公益”化,而未全面扩展到人工智能技术研发层面。这无疑是一种审慎、包容的立法决策,更有助于提升我国当前人工智能技术的研发热情和知识产权保护。由此观之,我国人工智能立法更多地展现为一部产业促进法,而非人工智能规范法;其在“技术公益主义”理念引入上,相较于欧盟的“国家磋商”机制,又展现出强烈的“行政主导”色彩。因此,要提升地方立法中“技术公益主义”色彩,势必要提升我国行政机关的公益性观念。

(三)美国人工智能立法的“技术公益主义”特征

为了保障科技方面的国际竞争力,美国一直在科技立法上保持着相当程度的活跃度。早在2017 年,美国众议院就围绕2016 年“美国国家人工智能研发规划”制定并出台了《基本理解人工智能的可用性和实践发展法案(2017)》(the Fundamentally Understanding the Usability and Realistic Evolution (FUTURE)of Artificial Intelligence Act of 2017,也可以简称为《人工智能未来法案(2017)》)。2019 年,美国总统签署“人工智能倡议”,并发布了《美国人工智能研究与发展战略规划:2019 年修订版》(The National ArtificialIntelligence Research and Development Strategic Plan: 2019 Update)。由于美国本土人工智能技术发展居于全球领先地位,因而其人工智能立法更多的是在确保美国的全球竞争力,同时兼顾了以提升整体社会福祉方式促进人工智能发展的规定。其中,《人工智能未来法案(2017)》成为美国当前遵循“技术公益主义”立法理念的典型例证。

从《人工智能未来法案(2017)》的文本内容来看,该法案要求美国商务部设立一个专门的人工智能联邦咨询委员会,并要求该委员会向商务部部长汇报人工智能发展方面的行政建议和立法建议。这些建议应当围绕如下四个方面的价值目标加以展开:“促进美国在人工智能方面的创新和投资,以确保在全球市场上的竞争力;解决美国劳动力在适应人工智能发展方面的需求;支持人工智能的公正发展;保护个人隐私”。透过《人工智能未来法案(2017)》的价值目标不难发现,美国联邦立法对人工智能的研发与应用持开放态度,同时也反映出国家对人工智能技术“公益性”发展的迫切需求。然而,即便美国联邦和州立法已经认识到“技术公益主义”的重要性,立法者也未对人工智能技术研发与应用给予强制“公益性”要求。造成上述现状的一个主要原因是美国已经认识到自身在人工智能技术全球竞争的优势地位,并且试图巩固并扩大这一优势。在此背景下,美国人工智能立法对待“技术公益主义”理论的态度并不是“引领”性的,而是“倡导”性的。纵使当前美国出现大量的“深度伪造”事件,也往往被置于“滥用人工智能技术”道德评价范畴之下,并缺乏对“人类威胁论”的考量。

吊诡的是,“技术公益主义”的立法缺失正在美国人工智能企业之间悄然勃兴。得益于美国在人工智能技术方面的国际竞争优势地位,“技术公益主义”软法之治才能够初见雏形。2023 年3 月,人工智能研发与应用领域内的多位颇具国际影响力人士呼吁“暂停对更强大的人工智能系统的开发和训练”,并认真研究“人工智能对社会和人类的潜在风险”。2023 年5 月,OpenAI 首席执行官兼联合创始人山姆·奥特曼在参议院司法小组委员会听证会上建议美国政府对人工智能技术加强监管。2024 年2 月,微软公司积极推动负责任和道德的人工智能开发和部署综合框架。这些软法措施虽然不具备国家立法的权威性和强制力,但胜在人工智能软法的制定者、实施者、引领者在整个人工智能行业内部具备极强的市场话语权。它们既能够约束自身来践行“技术公益主义”理念,又能按照市场法则来纠正其他人工智能从业者的行为。因此,软法之治正在成为美国人工智能立法中“技术公益主义”缺失的有效补充,而且其全球影响力也日渐壮大。

三、人工智能立法中“技术公益主义”存在的主要问题

(一)技术公益主义忽视了市场驱动力(私利)保护

技术公益主义与国家立法相互捆绑所引发的主要问题是:国家立法只能(或者说更倾向于)保护公共利益。这不仅违背了人工智能研发主体的市场活动规律,也忽视了人工智能研发主体的创新动力。以生成式人工智能的研发为例,一方面,研发企业在研发该项技术时就是以广泛的社会需求和应用前景作为融资吸引力的。倘若在技术公益主义的要求下忽视了这一市场机制的内在驱动力,无疑会极大地抑制更多人工智能技术的创新。另一方面,技术公益主义会导致企业性质的变更。我国《民法典》第87 条规定:“为公益目的或者其他非营利目的成立,不向出资人、设立人或者会员分配所取得利润的法人,为非营利法人。非营利法人包括事业单位、社会团体、基金会、社会服务机构等。”这意味着,技术公益主义在人工智能立法中的完全确立,会导致人工智能企业的性质从营利法人转向非营利法人。尽管当前已经产生一种介乎于营利法人与非营利法人之间的“营利慈善机构”,但其规模无法成为人工智能企业的主流形态。恰是因此,技术公益主义在缺乏市场机制的督促下,将转化为一种理想却脱离实际的立法理念,进而关闭了人工智能企业营利的大门,因而也无法在各国立法实践中得到贯彻。

技术公益主义与利己主义的结合,有助于消除人工智能立法的“公益性”困境。但这种结合并不是存在于一种简单的关系之下。尤其是人工智能立法要满足技术公益性与私利性两种需求时,持有技术公益主义理念的人工智能企业不仅无法在市场竞争中获得益处,还容易被排除在“技术壁垒”之外。在人工智能技术壁垒的形构中,公益往往被视为个体(而非公共)的抉择,但相互逐利却是公共体的悲哀。因此,技术公益主义与利己主义的结合,只能理解为一种理念上的成功。该理念要在立法上真正得到贯彻,还需要考虑到二者之间的内在构造。特别是在欧盟、中国与美国的人工智能立法路径的映射下,技术公益主义与利己主义的构造应当是以技术公益性为基础,兼顾人工智能企业的私利性。这种构造可以在人类群体意志较为统一的情况下稳定地发挥作用,但在国家竞争与市场划分明显的时期,其成效将大打折扣。考虑到上述两种情况,当前“技术公益主义”融入人工智能立法,势必需要平衡技术公益主义与人工智能市场(私利)的协同保护问题。

(二)技术公益主义导致了权利义务责任的配置失衡

技术公益主义融入人工智能立法的具体理念虽然有所区别,但在表现形式上却有一定的相似性。欧盟、中国以及美国立法均在一定程度上围绕着技术的公益性构建起了相应的权利保障体系。最为典型的就是中国的人工智能试验性立法。它要求人工智能技术的研发与应用应当同公共利益以及公民的合法权益保持协调,并赋予个人对侵权行为的追责权利。换句话说,当前人工智能立法上的技术公益主义理念已经充分地渗透到了权利保障层面,但在责任追究层面仍然固守传统的私力救济模式。即便行政处罚可以勉强视为“技术公益主义”迈向责任公益的一种努力或者尝试,但在各国人工智能立法上并不常见,处罚依据又回到传统的公共秩序维护层面。面对这一难题,各国人工智能立法倾向于将公益责任理解为“行政处罚”,并对人工智能企业侵犯本国(或地区)公共利益或者社会公众合法权益的民事行为责任进行行政法改造。但这种抛开“私法”属性的行政责任设计,实属避重就轻的归责策略,且只能就本国(或地区)内部的人工智能企业责任加以制裁。它既不可以越界,也忽略了民事责任。

特别是在当下,人工智能是一项能够影响国家治理和国际竞争的核心技术,在实践中表现出强烈的技术控制与立法管辖相互脱钩的现象。例如,欧盟人工智能立法和中国《生成式人工智能服务管理暂行办法》不仅是对本土人工智能技术的发展给予了规范,同时也对其他国家人工智能研发与跨国应用中的技术风险和社会风险给予了高度重视,甚至一视同仁地创设了法律责任。换言之,对人工智能技术实施立法管辖的国家未必是该技术的控制国,但一定可以对其控制者违反公益的行为行使处罚权。对此,欧盟《人工智能法案》甚至对没有投放欧盟市场,也没有投入使用,也没有在欧盟内使用的人工智能技术也享有合法的处罚权。由此可以发现,人工智能立法中的“技术公益主义”在当下立法中正在面临一种立法管辖上的实质性扩张,即从“技术研发与应用上的公益性”逐步拓展至“责任追究上的公益性”,从而将研发与应用风险防控扩展到了实质性的“法律责任追究”。在此,“责任追究上的公益性”要从全球视角加以观察才能明晰其含义。

(三)技术公益主义影响了人工智能立法的适用范围

理论上无论如何看待技术公益主义与人工智能立法的关联性问题,在具体条款设置上总是要识别到“技术公益”背后的实施主体。以前述各国人工智能立法为典型例证的专门性法律,也大多以“人工智能企业”为调整对象,甚至在专门性人工智能法未加明确规定的情况下,这些人工智能企业的行为认定又要回归到各国民商事法律规范中加以判断——需要判断人工智能企业究竟是营利法人还是非营利法人——这就不得不考虑人工智能立法的适用范围问题,或者说国家立法是否适合(以及能否完整)解决人工智能所带来的各种法律风险。从目前的立法方案来看,各国人工智能立法,均将“技术公益主义”堵截在公法视域之下,试图以国家强制力来打造人工智能技术“王国”的价值底座。其价值基石不仅是国家意义上的,而且是以自上而下的路径被诠释于法律中的。既然如此,那它就是非市场意义上的,其价值的规则输出也自然而然地缺乏了市场主体的参与。这使得那些自下而上、自技术向社会而凝聚的技术价值,被排除在人工智能立法的价值范畴之外;利己但不损害公共利益的人工智能研发与应用也被视为“技术公益主义”的对立面。由此导致大量的技术类立法始终无法解决如下问题:在立法条件不成熟但技术影响力巨大的领域,立法究竟该如何做出有效的回应?

面对上述疑问,立法者不得不在国家立法之外认可并鼓励人工智能的“软法之治”。“软法之治”并非对立法路径的背离,而是意在切断“价值共识”与“立法”之间的关联关系,补足人工智能研发与应用秩序中的“价值标准”——美国在人工智能立法之外的软法尝试便在一定程度上实现了这一目的——“技术公益主义”软法看似缩减了国家立法的适用空间,但从整体人工智能秩序维护的效果上来看,它又扩张了“技术公益主义”的价值内涵(即“技术价值”),将技术维度引入到公益理论中来,推进了人工智能立法中相关概念、原则以及规则的相对化,进而努力把当前社会与未来社会的对话与冲突纳入人工智能秩序建构之中。因此,技术公益主义自始至终也未将自己片面地限定在国家立法上,学界也不应把“立法”局限于自上而下的规则创制。从远高于“立法”的秩序维度来审视,国家立法与软法均应当被视为人工智能提升人类整体福祉的有效举措。

四、人工智能立法中“技术公益主义”的全新发展

(一)技术价值与法律价值的相互构建

立法语境下的人工智能治理难题,在本质上是技术价值与法律价值相互构建的问题。要推动人工智能的“技术公益主义”发展,立法者就必须面对传统立法实践在人工智能认知中所缺失的教义学成分——有关利他与自利的价值(目标)差异,以及人类面对人工智能的整体立场问题——一旦在价值共建问题上补足所缺失的教义学成分,“技术公益主义”就可以抽象出一个更高维度的解释,即技术利他性是技术自利性的价值基础,技术自利性是技术利他性的价值延伸。该解释在传统立法所强调的“多元化”价值追求下或许缺乏法治市场,甚至难以自圆其说。但在技术价值与法律价值相互构建、目标统一时,其立法效用就远远超越了以往任何时代的任何一部法律。因此,在价值共建背景下,当前的人工智能立法应当明确地将“技术公益主义”作为人工智能立法方式和立法理念现代化的重要依据,并以引导人与人工智能之间的协同善治关系作为推动人工智能治理的基本思路。否则立法对人工智能的杠杆效应也仅局限于社会政策层面,而缺乏社会价值维度的进步。

在技术价值与法律价值相互构建下,人工智能立法势必接受“技术公益主义”理论的全新改造。这种改造主要包括三种形式:一是以技术价值来改造法律价值。这就要求立法者对人工智能技术形成全面的理解,既包括人工智能技术所带来的潜在风险与责任,也包括它对人类社会的巨大推动力。立法者要善于利用人工智能技术来加强法律调整能力和纠正能力,提升法律规范的科学性,拓展技术领域的法律惩罚措施,实现技术与法律的协同进步。二是以法律价值改造技术价值。法律价值是立法者认识和处理人工智能的主观态度,主要体现在国家通过法律对人工智能的接纳或排斥情况——当前中国、欧盟以及美国人工智能立法中的法律价值,受到价值多元化的影响,始终在技术自利性与技术利他性之间的不同节点来回游离——而法律价值对技术价值的“技术公益主义”改造,就要求各个国家对各类人工智能技术的研发与应用保持统一的认识,将“价值共建”的方向锚定于“技术公益主义”(即增进人类社会的整体福祉),并明确技术利他性价值优先于技术自利性价值。三是实现技术价值与法律价值的融合。当前生成式人工智能已经具备了基于算法、模型、规则而生成文本、图片、声音、视频、代码等功能。因此,立法对人工智能的治理已经不再是单纯规范人工智能技术背后的研发者、应用者,还包括人工智能技术本身。这就要求法律价值本身同技术价值保持一定的重合度,确保人工智能本身能够基于法律规则来识别智能决策活动的合法性,从而将人工智能立法的规范效果推及虚拟世界与物理世界。

(二)技术公益与责任公益的紧密衔接

技术公益主义的发展正在从“技术研发与应用的公益性”逐渐扩展到“责任惩处的公益性”。一般认为,法律责任的承担是同本国法律所界定的违法行为紧密衔接的,而违法行为一定是与本国属地、属人以及利益具有关联关系。但在“技术公益主义”理论的影响下,“责任追究上的公益性”排除了传统立法管辖的关联关系学说,将人类公共利益受损作为法律责任承担的依据,进而催生了当前人工智能立法对无关联人工智能侵权活动的公益处罚期待。这无疑突破了传统立法下的“国家保护主义”学说,并将颇受诘难的“长臂管辖”理论同“技术公益主义”理论进行了实用主义改造,进而在人工智能立法上实现了技术责任同人类整体福祉的相互衔接、相互统一。

技术公益与责任公益的紧密衔接,一方面要设定具体的公益责任承担机制。一般认为,公益责任是一种社会责任,由企业根据自身的营利情况和自主意愿进行决策。因而也无法为法律所强制。但在技术公益主义理念下,技术的公益性成为一项法律的基础性规定,那么违反公益性基础的企业行为就应当承担相应的违法责任。只不过该责任将社会责任的软约束转化为了强制性约束。对此,我国人工智能立法可以承袭企业社会责任的基本规定来创设人工智能企业的公益责任承担机制。当人工智能企业违反技术公益性规定时,应当由检察机关对其降低或影响社会福祉的行为提起民事公益诉讼。人工智能企业据此所要承担的责任就是社会公益责任。在具体公益责任形式上,包括但不限于科技帮扶、技术宣传、技术改进以及同行业监督等,以此区别于行政法上的行政责任。

另一方面也需要建立责任追究上的立法管辖权冲突协调机制。具言之,在技术控制与立法管辖相互脱钩的前提下,各国均可以对本国和他国控制的人工智能技术违法活动追究公益责任。当同一违法活动已经受到公益责任惩处的情况下,其他国家是否仍有权力对其加以处罚呢?按照立法管辖权的基本理论,各国的立法管辖以及责任追究是相互独立的,因此前一个国家追究公益责任的先例会激发其他国家纷纷效仿。这种结果显然具备强大的法律威慑力,却不利于人工智能技术的稳步发展。因此,人工智能立法在技术公益与责任公益的紧密衔接上,应当采用“一事不再理”原则以及“纠正不可罚”原则。对于已经受到过“公益责任”处罚并及时纠正错误的人工智能技术违法活动,其他国家不再对该活动施加二次处罚。其他国家基于非“公益责任”所实施的处罚除外(如实质性的侵权损害责任、国家安全责任等)。

(三)立法与软法的协同推进

面对价值多元以及国家竞争,“技术公益主义”理论的发展应当从更为广阔的视角上加以理解和展开。其中一个极具实践价值的路径就是立法与软法的协同推进。这也意味着,“人工智能立法”既可以专门指向狭义的国家立法活动,也可以视为“人为技术立法”的哲学概念。倘若从实用主义结果论出发,那么人工智能立法与软法的结合,或许才是快速推进人工智能立法,增进技术公益性的最优策略。在此过程中,立法与软法的相互结合应当明确以下三个立场。

第一,“技术公益主义”是一个基本的技术伦理概念,表明了最低限度的技术秩序,因而在秩序建构上极具包容性、扩展性。它既可以向国家立法方面延伸,形成具有强制力的法律秩序,也可以向社会规范、行业规范方面发展,进行作为一种软法秩序来影响人工智能的研发者、应用者。基于上述两种方式构筑的人工智能治理方案,才能打破传统立法的国家保护理论和利益平衡理论的弊端,进而形成以“增进人类社会福祉”为目标的人工智能治理新秩序。

第二,人工智能立法并不排斥人工智能软法之治。一般认为,“软法”特指行业惯例、族规民约、风俗习惯等非正式规范。但随着人们对“立法”概念的深入理解,立法的意义在于为社会创立或认可某种具有普遍约束力的行为规范。德沃金就认为,法律适用意义上“法律”应当包括“对某特定类型之物理实体的描述”和“因该文件之制定而被创设的法律”两种含义。那么,人工智能立法应当包括但不限于国家立法机关通过正式立法程序制定并公布的规范性法律文件。其他不具备法定立法权限的主体所创制的、具有一定范围约束力的规范,也可以纳入“立法”的宏观解释之下。因此,在立法机关囿于人工智能立法条件的不成熟困境之时,诸如“示范法”“倡议法”“专家建议稿”等全新立法形式正在成为当前立法活动的有益补充。有鉴于此,“技术公益主义”融入人工智能立法,既可以体现为国家的正式规范性法律文件,也可以采用某一国家和地区的“示范法”“国际公约”方式呈现,当然也不排斥人工智能的行业惯例、行业协议等软法形式。

第三,在“技术公益主义”驱动力不足的情况下,软法或许比国家立法更容易实现人工智能技术的“公益”化发展共识。考虑到国界、法域以及法系等法律概念在人工智能领域的不断弱化,具有灵活性、开放性特点的“软法”模式比国家立法更具有治理效果,毕竟人工智能“软法”的形成得益于软法参与者的自愿,而正式立法的形成则严重依赖国家的强制力。因此,人工智能“软法”下的人工智能企业甚至可以理解为一种全新的国际法主体,跨国人工智能企业之间的人工智能“软法”则可以视为网络空间的“国际法”。这一假定——尽管论断是假设的、推定的,但它在实践中的影响力却是真实的、可供检验的。例如,马斯克的“暂停人工智能立法倡议”、2023 年首届全球人工智能安全峰会发布的《布莱切利宣言》等——可以表明,现代立法可能不单单需要国家的强制力支持,有时候软法更容易获得人们的支持。

五、结论

技术与法律的关系是当前各国破解人工智能有序发展问题的焦点。“技术公益主义”的贡献就在于它为技术价值融入法律价值提供了一个全新的初始节点。特别是在权利保障理论无力应对全球性人工智能研发与应用情况之时,“技术公益主义”将原本复杂且多元的利益竞争统一到“提升整体人类福祉”这一价值追求上来,成功化解了各个国家(和地区)的人工智能技术竞争和立法分歧,有助于从全人类可持续发展的高度上凝聚出人工智能的法治共识。当然,在人工智能国际竞争力日趋重要、道德约束力日益下降以及国家冲突不断加剧等现象的影响下,“技术公益主义”可能还需要很长的时间才能在各国人工智能立法中占据主导地位。但它的理论价值毋庸置疑,并且对整个人类社会对抗(及以降低)人工智能威胁具有十分显著的作用。或许在技术与法律的相互构建下,“技术公益主义”不再只是一种立法上的价值理念,而是内化为人工智能技术本身的内在运算逻辑之一。这种猜想,未必不是“技术公益主义”理论的最终形态。