APP下载

论生成式人工智能侵权的责任主体
——以集体主义为视角

2024-03-02陆小华陆赛赛

关键词:个人主义联合体参与者

陆小华 陆赛赛

(天津大学a.新媒体与传播学院;b.法学院,天津 300072)

2023年6月5日,OpenAI公司面临全球首例诽谤诉讼。美国的一名电台主持人Walters在ChatGPT表示沃尔特斯被指控诈骗和挪用非营利组织的资金后,向佐治亚州的一家高等法院提起诉讼,状告OpenAI公司侵犯其名誉权(1)①①参见Walters诉OpenAI的起诉状:The Complaint of Mark Walters v.OpenAI,L.L.C.,The Superior Court of Gwinnett County,State of Georgia,Civil Action No.23-A-04860-2。。这表明,ChatGPT生成大量虚假信息的潜在侵权纠纷已经成为诉讼现实,是真实存在的法律问题。实际上,生成式人工智能造成的损害屡见不鲜。比如,利用人工智能技术自动生成歌曲可能侵犯姓名权[1],用户输入ChatGPT的私密信息(或个人信息)遭受非法传播可能侵犯隐私权(或个人信息权益)。因此,厘清生成式人工智能的法律责任仍是生成式人工智能治理的重要话题。近来,有学者对生成式人工智能的侵权责任进行了初步探索[2]117,但总体上对责任主体问题的关注仍显薄弱。只有精准地确定责任主体及其责任分配,才能够真正摆脱无人担责的窘境,从而规范生成式人工智能的发展。然而,生成式人工智能的不透明性、不可预测性加剧了责任主体的不确定性,将损害追溯至某一个体的个人主义救济路径面临诸多困境(2)②②个人主义是现代法律思想的主线。一方面表现为尊重个体价值,珍视个人自由、权利的个人主义价值论,另一方面表现为以个人作为学科分析的基点和基本研究单位的个人主义方法论。参见易军:《个人主义方法论与私法》,《法学研究》,2006年第1期,第91页。特别说明的是,本文对个人主义概念的使用,仅限于在方法论这一范畴内,即以个人作为分析的基本单元。。因此为了补偿受害人、实现实质正义,反思并调适现有的侵权法责任理念和框架十分紧迫。本文尝试在集体主义的视角下,揭示生成式人工智能侵权具有整体性侵害的本质,构建生成式人工智能侵权的责任主体的识别机制(3)本文对集体主义概念的使用,仅限于在方法论这一范畴内,即以集体作为分析的基本单元。其意不在指集体利益优先于个人利益,也不代表与个人主义的对立。。

一、生成式人工智能侵权的责任主体识别困境

随着生成式人工智能的快速发展,它对隐私、个人信息和名誉等人格权甚至生命等物质性人格权益的侵害风险呈现扩大趋势。确定“何人为生成式人工智能的侵权行为负责”是保障受害人权益、推动技术发展的关键所在。但是,生成式人工智能的多方参与者加剧了责任主体的模糊性。一般而言,技术的参与方与技术的复杂程度成正比。传统人工智能以深度学习算法为技术支撑,涉及算法设计者、数据收集者、控制与处理者、产品制造者、软件所有人等众多参与者[3]172。生成式人工智能作为算法、算力、数据和用户的集合体,是一种更为复杂的技术生态,涉及的主体范围更广。从技术维度考量,生成式人工智能涉及模型设计者(4)模型已经取代算法成为规制生成式人工智能发展的监管抓手。这一判断同《生成式人工智能服务管理暂行办法》隐含的治理范式和第四条、第七条、第二十二条规定体现的监管内涵相一致。模型的内涵包括算法、算力和数据这些要素,但在上述分类中,已经将算力与数据剥离开,故本文中模型设计者与算法设计者具有同一含义。、数据供应者、数据所有者、算力供应商、服务提供者和用户这六大主体。上述六大主体全部参与了人工智能的内容生成。一旦生成式人工智能生成侵权内容,那么必然陷入辨识侵权责任主体的困境。尝试找到主导控制生成式人工智能行为的主体具有一定难度。在内容生成这一目标下,参与者从事模块化的工作,而单一模块均以生成式人工智能组成部分的形式存在。这就意味着,任何一个单独的个体都无法真正掌握与生成式人工智能互动回应的方法。换言之,单一个体难以控制机器与用户之间的交互行为。这直接导致生成式人工智能侵权的责任主体具有不确定性,而这种不确定性主要体现在以下两个方面。

第一,生成式人工智能内部难以确定加害人。在这一层面,不考虑用户作用,而只考虑生成式人工智能的其他参与者。事实上,即使忽略用户作用,也难以识别生成式人工智能内部的错误侵权行为,尤其是生成式人工智能侵权已经超越了单一的算法侵权范畴。在传统人工智能时期,面对算法侵权,虽然存在算法黑箱,但是对错误算法进行问责仍具有实际价值与现实可能。然而,现在模型已经取代算法,成为影响侵权内容生成的第一大要素。相较于算法,模型不仅融合了数据算法算力,形成了更为复杂的技术构造,而且进一步模糊了算法设计者、数据供应商和算力提供商的行为界限,导致识别具体的侵权主体变得困难重重。此外,因为模型侵权的原因不仅指向算法,还涉及数据和算力,所以单纯依靠算法可解释已经无法完成追溯责任主体的任务。可见,即使实现了算法透明和可解释,也无法识别模型的侵权风险和具体原因,更遑论解决责任承担与分配的问题。

第二,人机交互致使加害人不具有确定性。生成式人工智能使传统的一键生成式人机交互演变至情感交流,实现了人机对话,完成了从单向检索到智能交互的转变[4]38。传统人工智能严格遵循“输入指令—输出结果”的运行规则。用户输入指令与算法决策是相互独立的两个行为。但是,在人机交互的工作机制下,机器不再是被动地接受指令,而是实现了与人的相互协作。在此维度下,生成式人工智能不仅仅是一种技术,或是一种内容生产的工具。相反,它深刻地参与了人类的生活,并与人类行为形成了某种联结。也就是说,人机密切协作下生成的侵权内容,由于事实上难以区分彼此的贡献值,难以拆解为若干独立的侵权行为,因此面临法律意义上加害人的诘问。

需要注意的是,上述人机交互中的“人”仍然具有强烈的个体色彩,即生成式人工智能侵权行为可以被评价为个体行为与机器行为的联合。然而,人机交互中的“人”也可以具备群体表征。以ChatGPT为例。有研究指出,ChatGPT与用户互动时,容易隐秘滋生后天性的算法偏见[5]38。与此同时,基于人机交互和人类反馈的强化学习机制,生成的虚假信息会重新进入语料库,进而产生加深固化的效果[6]34。如果某一侵权内容源于上述固化的虚假信息或者后天性算法偏见,那么用户的形象是非常模糊的,用户并非以个体呈现,而是具有群体表征。因为生成式人工智能的回答并不仅仅来源于训练数据库,用户群体实际助力并最终推动了侵权内容的生成,所以判断具体的个人也会成为不切实际的幻想。由是观之,准确识别生成式人工智能侵权的责任主体恐难以实现。

二、个人主义归责路径的局限性

在法学的语境中,个人主义方法论备受推崇,特别是在私法中居于基础地位[7]93。具体到侵权法领域,无论是侵权法基础理论,还是侵权法整体的规则架构,均以个人主义为构建的核心。诚如有学者所言“侵权法以贯彻自己责任,实现矫正正义的价值理念为鹄的”[8]1425。同时,侵权法的全部规则都以个体行动者双方关系为基础[9]174,展现了原告与被告之间的双边性,形成了侵权法中“加害人-受害人”一对一的基本结构。申言之,个人主义构成了解释传统侵权法中过错、因果关系等一系列概念、规则和标准的学理基础[10]143。然而,在生成式人工智能侵权中,加害人具有不确定性和群体性,一对一的主体模式已经难以适用。就具体的规则适用而言,在个人主义视角下,生成式人工智能侵权纳入产品责任体系似乎具有天然的正当性。另外,创设新的法律主体,由生成式人工智能自担其责似乎也具有可行性。但是,上述两种归责路径均缺乏充分的说服力。

(一)生成式人工智能侵权无法适用产品责任

《生成式人工智能服务管理暂行办法》全面设定了服务提供者的义务标准,意在以服务提供者为监管抓手,规范生成式人工智能的健康发展。由服务提供者承担侵权责任,实际上是沿袭产品责任的思路,即由产品制造商、服务提供商承担侵权责任。这与学界主张人工智能侵权应当适用产品责任相一致(5)针对人工智能侵权,学者认为产品责任具有规则优势,只是需要在责任主体、产品缺陷等方面进行适度调整。详见杨立新:《人工智能产品责任的功能及规则调整》,《数字法治》,2023年第4期,第27页;宁金成,李瑞升:《人工智能致损对传统〈侵权责任法〉的挑战及立法回应》,《电子科技大学学报(社会科学版)》,2021年第1期,第40页;张安毅:《人工智能侵权:产品责任制度介入的权宜性及立法改造》,《深圳大学学报(人文社会科学版)》,2020年第4期,第112页。。但基于以下三个原因,生成式人工智能侵权不宜适用产品责任规则。

第一,产品责任本身调整范围有限。产品责任调整对象是产品,而《生成式人工智能服务管理暂行办法》已经明确规定生成式人工智能是一种服务。具身智能,如自动驾驶汽车或者智能机器人具有一定的物理形态,可以归入产品范畴,但将服务解释为产品却存在法律体系上的障碍。从比较法观察,美国《侵权法重述》第3版已经将单纯的服务排除在产品范畴之外(6)美国的《侵权法重述》(第3版)§19(a)规定:“服务,即使是商业性提供的,也不是产品。”。欧盟于2022年9月通过的《产品责任指令》(the Revised Product Liability Directive,PLD)明确将无形软件和数字制造文件作为产品,但也无意规范所有类型的软件,生成式人工智能是否可以纳入产品范畴,尚有疑问。

第二,产品责任关注产品缺陷,而生成式人工智能侵权属于内容侵权。内容侵权与产品缺陷的显著不同在于,内容侵权源于内容生产与交互能力的动态更新,取决于各参与者的行为。在此,用户不是完全被动地在接受系统的输出,而是通过与系统互动,共同影响系统输出的内容。然而,产品缺陷是固有的,自始存在,不依赖用户或消费者行为。虽然内容侵权的原因可能是生成式人工智能本身存在固有缺陷,但也包括其他原因。比如,生成式人工智能的设计运行完全符合现有的技术标准,但在动态交互中仍有可能生成侵权内容。

第三,生成式人工智能侵权不符合产品责任的逻辑。产品责任的逻辑是:所有有关产品利益相关者的风险均可被清晰界定和识别,因此总能将责任追溯至某一主体,即使利益相关者的风险均在可控范围内,也可以通过责任保险化解无人担责的难题。然而,现下的困难在于,生成式人工智能的风险不再是可区分或可预测,反而是在多主体动态交互中持续变化的,以致无法区分出造成最终损害的责任主体。也就是说,产品责任对某一个体行为风险的关注在此注定失败。

总之,适用产品责任,将侵权责任全部施加于服务提供者,存在理论证成上的难题。即使扩张解释产品责任,将数字服务囊括其中,囿于产品责任严格区分个体行为风险,也存在逻辑难以自洽的问题。故此,生成式人工智能侵权的责任主体无法纳入产品责任规制轨道予以确定,将生成式人工智能的侵权责任一刀切地抛给服务提供者,有失公允。

(二)生成式人工智能本身不能作为侵权责任主体

人工智能技术在一定程度上取代了人类决策,并且造成了无人担责的困境,这促使学者反思是否应当赋予人工智能法律主体地位。就这一问题,学者众说纷纭,存在很大分歧。肯定说一般认为,人工智能具备有限的责任能力,承担有限的法律责任[11]30。这种有限性产生了两个面向的法律效果:第一,有限的法律责任源于有限的法律主体地位,由于此类法律主体不具有伦理属性,故其只能承担有限的财产性法律责任[12]228;第二,人工智能仅承担特定事由下的限制责任,损害赔偿责任在总体上要适用“刺破人工智能面纱”原则,由其设计者、开发者、制造者或使用者承担[13]56。但这样的便宜行事,面临了诸多批评意见。

否定说认为,人工智能不具有法律主体地位,故不具有责任能力,无法独立承担侵权责任。学者否定人工智能人格主要有以下三种论证进路。第一,坚持法律主体与法律客体二分,强调人工智能不符合法律主体的规范内涵。有学者指出,人工智能体并不具备享有权利和履行义务的意志能力,只能被视为法律客体[14]52。第二,一方面强调人工智能不具有伦理属性,另一方面论述人工智能人格的无效性。具言之,不仅人工智能不具有意志、情感和理性等伦理要素,而且人工智能有限人格说的本质仍然是要求人类承担最后责任,故其建构的人工智能人格是无益的[15]24。第三,持“渐进式否定”观点,即认为当下人工智能不具有法律人格,但不排除其被赋予法律人格的未来可能性。提出这种观点的学者认为,赋予法律人格的考量不应只从概念解释和类比出发,而要意识到,这是一个随着智能社会治理而不断变更的现实需求[16]61,只是现下尚无设立人工智能法律主体地位的迫切性。

值得肯定的是,不论是肯定说还是否定说,人工智能主体资格建构的核心是责任。也就是说,主体性的本质是责任。一般而言,设定一个新的法律主体,法律责任问题便迎刃而解[17]79。诚然,如果生成式人工智能具有法律主体地位,那么针对人工智能侵权原因无法追溯,或者可追溯但无法分配责任的情形,通过将生成式人工智能列为责任主体,可以缓和此种责任困境。更进一步地来讲,隐藏在主体构建背后的其实是深嵌入侵权法中的个人主义思维模式。即总要有一个法律上的“人”成为加害人,为损害担责,由此满足侵权法损害填补、预防威慑的矫正正义要求。

但是,假使生成式人工智能可以作为侵权责任主体,也无法实现上述侵权法功能。就损害填补功能而言,只要受害者的损失被填补,那么补偿功能业已实现。换言之,生成式人工智能能否作为侵权责任主体,并非该功能关注的重点。即使生成式人工智能本身无法负责,刺破面纱后的设计者、制造者仍能负担赔偿责任,从而实现填补功能。就预防威慑功能而言,赋予生成式人工智能侵权责任主体地位无益于实现上述功能。第一,生成式人工智能侵权涉及多个利益主体,包括但不限于模型设计者、数据所有者、算力供应商和用户等,如果仅由生成式人工智能“自己”担责,免除其他利益相关者责任,并不能实现特定的预防功能;第二,如果想要更好地实现威慑功能,就应当由付出最小成本就可避免损害发生的主体承担责任[18]114。虽然生成式人工智能可以构建自己的财产体系,但不确定是否符合上述标准,特别是在财产池由多个利益相关者贡献时,其实并没有明确负责主体,实质上是由多个主体共同担责。

综上,生成式人工智能作为侵权责任主体,形式上符合侵权法所贯彻的个人主义理念,但却徒有其表。它无法真正实现矫正正义的价值内涵,与侵权法的内在价值体系相背离。事实上,基于责任考虑而赋予的主体资格并不能实现责任规制的目的。与此同时,现有法律并没有显露赋予生成式人工智能法律主体资格的端倪,故此更稳妥的结论是:生成式人工智能本身不能作为侵权责任主体。

(三)个人主义归责适用空间的有限性

生成式人工智能侵权对产品责任规则和个人主义范式下的主体论构成挑战。其根本原因是个人主义视角下的侵权法无法回应此种新型侵害。具言之,传统侵权法关注个体之间的调整方式,毕竟传统侵权行为主要体现为个体对个体的损害。相对简单的双方结构,提供了个人主义规则得以运行的完美环境。然而,这无法为新型侵害比如生成式人工智能侵权提供理论引导。其实,针对人工智能侵权问题,除了适用产品责任和赋予其法律主体地位外,有学者认为,应当设置特殊的人工智能侵权责任,明确侵权责任承担的法定主体为设计者、管理者和第三人[19]88。也有学者建议,针对人工智能侵权问题,应当适用严格责任[20]146。当然,还有学者明确指出,生成式人工智能应当适用过错责任[21]27。实际上,无论采用何种路径应对生成式人工智能侵权,只要讨论处于个人主义的语境之下,其实用性就大打折扣。这是因为,第一,现实困境恰恰是无法确定某一具体的侵权个体,因此无法实现设置法定侵权责任主体的设想;第二,传统侵权法中的归责原则,比如过错责任,也具有明显的个人主义倾向,以判断“某人是否具有过错”为标准。即使适用严格责任,也以识别出侵权行为人为前提。由此,坚持个人主义,无法为识别生成式人工智能侵权的责任主体提供价值指引。

以上分析表明,个人主义的进路遭受冲击。事实上,传统侵权责任方案仍有适用空间,只是较为狭窄。客观上,为了缓解产品责任的严苛性,秉持鼓励技术创新发展的价值取向,过错责任可以成为规制生成式人工智能侵权的重要原则。只要能够将损害追溯至具有主观过错的行为人,行为人就应当依法承担相应的侵权责任。换言之,个人主义视角下的侵权责任机制发挥作用的前提是侵权事实确定,即可以通过现有的技术将损害后果追溯至某一生成式人工智能的参与者。

以算法为例。尽管算法技术因采取深度学习、机器学习等技术而变得越来越复杂,但可解释人工智能(explainable artificial intelligence,XAI)也在不断快速发展,从而使用户得以解释人工智能行为,尤其以医疗保健领域的XAI发展的最为成功[22]39。基于算法可解释的逻辑,追溯算法设计者的算法责任具有现实可能性。也就是说,若能查明算法设计者搭建的算法存在歧视、偏见或错误,从而导致最终的个人信息泄露或生成歧视内容,则算法设计者便为侵权责任主体。除此之外,如果侵权内容由人机协作共同生成,又能够识别具体错误的技术参与者和用户,则错误的技术参与者和用户均为侵权责任主体,依据《中华人民共和国民法典》第一千一百七十二条规定,双方构成无意思联络数人侵权,依法承担按份责任(7)《中华人民共和国民法典》第一千一百六十八条所规定的狭义共同侵权行为,主流观点认为,应以数个侵权人主观上共同的故意或者共同的过失为主观要件。依此观点,用户与错误的技术参与者一般并无主观上的共同故意,也难以证成存在共同过失。由于用户与技术参与者往往不存在主观上的意思联络,因此解释为《中华人民共和国民法典》第一千一百六十八条所规定的共同加害行为侵权存在较大难度。故上述情形并非共同侵权,而属于分别侵权。参见张新宝:《中国民法典释评:侵权责任编》,中国人民大学出版社,2020年,第24页。。

但仍需指出,随着生成式人工智能技术的发展,解释生成式人工智能的行为规律和成因会变得越来越困难。生成式人工智能作为一项新技术,依靠强化反馈的自我学习模式,可以自行建立事物之间的联系,自行生成不同的答案。有学者指出,生成式人工智能已经具有一定的实践理性和价值判断能力[11]26。在此基础上,叠加人机交互的工作机制和越发复杂的算法模型,会使生成式人工智能输出的内容更加难以解释。故而,恐怕侵权事实确定的可能性会越来越低。如果无法依靠现有技术追溯损害事实的成因,那么个人主义规则的适用空间就会越来越小。

三、集体主义视角下的责任主体识别进路

将“某一损害追溯至某一个体”的个人主义视角存在局限性,应当予以修正。而将“某一损害追溯至某一集体”的集体主义视角更能化解责任主体不确定性的难题。通过形成集体性责任主体,能够有效回应数字化和人工智能系统对责任规则的冲击[23]81。从实质意义上来看,集体主义的思维符合侵权法分散损失和扩大公共责任的趋势。侵权法的历史发展表明,侵权法的矫正正义已经开始吸收分配正义,愈发关注结果分配与公平[24]58。在某种程度上,集体主义视角诠释了分配正义的价值内涵。事实上,现代社会是风险社会[25]19,更多的个人风险已经转化为社会风险[26]111。受此影响,侵权损害的个体特征转向社会特征。为了实现风险治理和实质正义,采用集体主义的思维方式是必要的。将产生风险源的多主体视为加害人,赋予加害人集体属性,能够更好地实现侵权法兼顾社会正义的混合正义功能[27]106。从总的来说,将生成式人工智能损害结果归属于分散的、不确定的加害人整体,调适现有的侵权责任制度框架,有利于保护生成式人工智能侵权受害人,有效化解矛盾,并实现风险的合理分配。

(一)构建机器/人-机的联合体

生成式人工智能侵权具有整体性侵害的特征。由于各参与者在同一目标(输出内容)的激励下分工合作、紧密配合,因此参与者具有类似于团体的整体结构。这种结构既不同于基于成员合意形成的法人,又不同于依据加害人的意思联络或共同危险而形成的共同侵权,而是一种拟制团体。有学者指出,为了建立简明的救济方式,无论加害人还是受害人,都可被拟制为集合团体[28]112。也就是说,生成式人工智能这一机器本身可作为联合体,人机交互也可作为人-机联合体。作为拟制团体,联合体拓展了传统侵权法中一对一的加害人-受害人模型,使可能实施侵权行为的加害人形成一个不可分离的整体,从而获得侵权法的整体性评价。只有这样的认识,才能建立整体行动与损害之间的因果关系。由此,作为联合体所承担的责任也只有一个完整责任,而不是若干分开的责任。

尚需要强调的是,本文中的联合体,即机器联合体和人-机联合体,均不是法律主体,也无须具备法律行为能力或者责任能力。因此,联合体并非真正承担侵权责任的主体。按照侵权法的归责逻辑,只有侵权行为归属于某一行为人,责任才可施加于该行为人。换言之,确定侵权责任主体其实需要经过两个步骤,即行为归属与责任归属。面对生成式人工智能侵权问题,首要的困难恰恰在于无法确认行为归属。由于确认个人侵权因果关系的任务几乎不可能完成,直接将责任分配于个体行为者并不可行,故而才需要建立联合体以填补此种责任鸿沟。联合体可以通过简化因果关系实现行为归属,进而将侵权责任施加于生成式人工智能的各参与者,从而搭建行为归属与责任归属的桥梁。

从法律实践来看,构建机器/人-机联合体具有可行性。面对加害人不确定的侵权情形,既有的司法实践已经显示出集体主义智慧。如在“庞某某与中国东方航空股份有限公司、北京趣拿信息技术有限公司个人信息泄露纠纷案”中(8)参见北京市第一中级人民法院(2017)京01民终509号民事判决书。案件详情为:庞某某委托鲁某通过北京趣拿信息技术有限公司在中国东方航空股份有限公司订购一张机票,之后庞某某收到来源不明号码发来的短信,称由于机械故障,其所预定的航班已取消。鲁某拨打中国东方航空股份有限公司客服电话进行核实,客服人员确认该次航班正常,并提示庞某某收到的短信应属诈骗短信。庞某某以个人隐私遭到泄露为由,将中国东方航空股份有限公司与北京趣拿信息技术有限公司诉至法院,要求二者承担连带责任。,在无法区分究竟是中国东方航空股份有限公司还是北京趣拿信息技术有限公司侵害庞某某个人信息权益时,法院将两者整合为一体对待,认定双方均构成侵权,判决双方承担不利的法律后果。在“薛某某诉张某等机动车交通事故责任纠纷”中(9)参见江苏省如皋市人民法院(2015)皋开民初字第0028号民事判决书。案件详情为:张某等三人分别驾驶三辆货车运送黏土,货车经过的道路上有部分黏土撒落,但无法查明究竟是哪个人驾驶的货车发生遗漏。薜某驾驶电动自行车行驶时被道路上的黏土滑倒并受伤。张某故诉至法院,要求各被告赔偿人身伤害造成的损失。,法院同样面临辨识真正侵权行为人的困境。由于受害人根本无从证明遗撒黏土的货车,法院将各被告人(运送黏土的货车司机)视为整体,推定遗撒黏土行为系由整体做出,从而认定各被告人均应当承担相应的侵权责任。

从法律理论来看,构建机器/人-机联合体具有正当性。事实上,生成式人工智能侵权与高空抛物具有相似性。第一,上述两种侵权行为的加害人均无法确定;第二,加害人范围有限,是一个由可能加害人构成的整体。相较于受害人,生成式人工智能各参与者同建筑物使用人一样,更具有预防控制风险的能力。按照相似案件,相同处理的法理,前者可类推适用后者。在高空抛物侵权中,依据《中华人民共和国民法典》第一千一百五十四条规定,侵权行为可以推定至可能的加害人整体。同理,生成式人工智能的侵权行为也可以推定至联合体。

从法律效果来看,构建机器/人-机联合体具有妥当性。如上所述,个人主义规则几乎无适用空间。坚持求解于每个侵权责任的构成,不仅于事实无益,反而会加速侵权法功能的失灵。然而,采用集体主义视角,符合侵权法救济受害人、分散损失的价值理念。详言之,在“无辜的受害人”与“无辜的被告人”之间进行价值衡量时,侵权法毫无疑问侧重保护受害人利益。尤其是,相比于算法设计者、数据供应者和算力供应商等,受害人对生成式人工智能的运行逻辑、技术原理、数据存储与调用等专业知识,所知甚少,在客观上处于弱势地位。依据现有的个人主义规则,受害人无法获得有效救济。但是,如果由联合体承担责任,则能避免由受害人独自承担不利后果。此外,通过分散损失,还可以促使联合体成员减少不合理行为,督促行为人采取积极措施,避免发生二次损害,实现侵权法预防功能。

实际上,构建联合体是确定责任归属的一个中间路径,也是为了解决侵权事实不确定性下责任主体缺失的一种尝试。只有先将行为推定归属于联合体,才有可能解决责任归属问题。无独有偶。在面对责任难题时,欧洲专家组探讨形成了一个“商业与技术单位”有关的所有行为者的责任框架[29],即将生产链上的所有主体或者因算法而从中获取商业利益的人视为具有一体性,从而要求他们承担集合责任。其隐藏的潜在逻辑为,首先将侵权行为归因于所有“商业与技术单位”的行为者,再将责任归属于全体行为者。此外,欧盟《人工智能法案(建议)》明确提及要探索人工智能价值链责任的归责方法。尽管该法并未明确判断“人工智能价值链”的标准,但是特别强调价值链上的所有主体负有保障人工智能安全运行的义务,实质是将侵权行为归因于价值链上的各节点组织,并在不同环节的控制主体之间实现责任分配[30]52。

(二)划分侵权行为的类型

生成式人工智能侵权的责任主体具有多元性,应以类型化思维深入剖析。以生成式人工智能的运行逻辑为标准,辅之考察全流程生命周期,可将生成式人工智能侵权行为区分为以下两个场景:运行阶段和后期维护管理阶段。在两个场景下又可进一步细分为五大类型,见表1。

表1 生成式人工智能侵权行为的类型

运行阶段的生成式人工智能侵权行为最为常见,但最为复杂。比如,某地网络上出现了一条关于限行的新闻稿,但后被证实为ChatGPT所作,该虚假新闻因被大量网络用户转载传播,造成了极其恶劣的影响[31]34。实际上,生成式人工智能与用户互动共同生成的虚假信息并非个例,期待生成式人工智能总能得出所谓的正确回答并不现实。鉴于生成式人工智能具有明显的人机交互特征,根据用户是否促使或助推生成侵权内容,可进一步细分为以下三种类型的侵权行为。

第一种类型是用户对最终侵权内容生成的原因力为0,即用户输入了合法内容,而生成式人工智能却输出了侵权内容。根据侵权行为发生缘由,主要划分为三种情形。其一,生成式人工智能非法处理、泄漏个人信息、隐私。最常见的情况是,用户输入了个人信息或私密信息,而生成式人工智能却将这种信息泄露给了第三人,此时构成个人信息侵权。比如,OpenAI公司曾因系统漏洞,部分用户可以看见其他用户的姓名、对话内容等个人信息。其二,模型侵权。模型侵权具有大规模性和轻微性的侵权特点,对于个体的侵害并不显著。比如,由于算法歧视、人工标注错误形成的偏见强化、训练数据集错误等,导致模型输出虚假有害信息。其三,系统风险侵权。系统风险是指对模型运行具有控制力的人群,限于技术水平而无法采取有效措施消除的漏洞或者风险。任何技术发展都伴随着某种固有风险,新兴技术尤其如此。如果生成式人工智能因系统风险侵权,那么向任何无过错的主体施加责任都不具有正当性。在此种情形下,侵权法难以承担确定侵权责任主体的任务,应当寻求其他外部制度以达到补救效果,如通过政府主导下的基金制度予以救济。

第二种类型是用户对最终侵权内容生成的原因力为100%。这意味着,服务提供者、模型设计者等技术参与者的行为并无过错。最典型的是,生成式人工智能在用户诱导下输出了侵权内容。比如,一个新的“越狱”技巧,支持用户创建ChatGPT的另一个自我(名为DAN)。DAN可以通过规避ChatGPT言论限制,生成暴力或者歧视内容。另外,能够达到同等效果的是使用“提示注入”(prompt injection,PI)。用户通过PI可以覆盖模型原有指令和内容审核机制,促使模型生出不法有害内容[32]。

第三种类型是用户对最终侵权内容生成的原因力介于0与100%之间,即用户与生成式人工智能共同协作生成了侵权内容。人机交互中的“人”兼具个体与群体表征。根据用户是否可识别,可划分为两种情形。其一,用户个体参与侵权行为。比如,计算新闻、混合写作等文本作品侵犯了他人的人格权益。其二,用户群体参与侵权行为。以ChatGPT为例。关于同一话题讨论的次数越多,ChatGPT越会不断强化学习效果,也就越有可能形成后天算法偏见。若ChatGPT生成的侵权内容源自后天算法偏见,参与该话题讨论的用户便均为可能的侵权责任主体,所涉用户主体数量巨大,且不可追溯。

后期维护管理阶段的生成式人工智能侵权行为主要有两种类型。第一,服务提供者违反“避风港规则”。一方面,这里的服务提供者不同于《中华人民共和国民法典》第一千一百九十四条规定的网络服务提供者,而应当视为一种新型网络服务提供者;另一方面,由于生成式人工智能侵权与传统网络侵权具有类似性,因此服务提供者亦应当遵守“避风港规则”,负有避免侵权内容再次生成的义务[33]80。例如,在收到侵权通知后,若服务提供者未能采取必要措施,如删除、屏蔽、断开链接等,则应当依法承担相应的侵权责任。第二,服务提供者违反“安全保障义务”。以ChatGPT为例。它每日收集数以亿计的个人信息,一旦个人信息被大量泄露,将造成难以估量的影响。服务提供者有必要采取措施保障个人信息的安全。《生成式人工智能服务管理暂行办法》第十一条、第十三条已经明确规定,服务提供者对用户的输入信息和使用记录应当依法履行保护义务,提供安全服务。也就是说,若服务提供者未采取合理措施管理用户的个人信息、隐私,导致发生黑客攻击等信息泄露事件,则服务提供者应当承担相应的侵权责任。

(三)革新责任分配的标准

通过类推适用高空抛物规则,生成式人工智能的侵权行为应当归属于联合体。依据《中华人民共和国民法典》第一千二百五十四条规定,高空抛物的侵权责任分配方式限定为补偿责任。那么,联合体成员内部的责任分担是否也应当采用补偿责任呢?基于以下两个理由,补偿责任并不适宜。第一,补偿责任模式并非没有争议。补偿责任本身界限就不明晰,在司法实践中存在泛化和滥用的可能。一方面,法院扩张解释补偿责任,加重了被告人实际负担[34]85;另一方面,过分强化适用补偿责任,引发了严重的和稀泥现象,违背了法律公平正义的内涵,在客观上导致法院判决难以执行[35]292。第二,从公共政策体现的价值取向考虑。《生成式人工智能服务管理暂行办法》明确鼓励技术创新,包容审慎的发展基调,法律也应当秉持技术先行的理念。而补偿责任作为一种模糊的限制责任,无法为技术创新设置安全屏障。若其发生不当扩张,难免不会出现抑制技术创新的寒蝉效应。事实上,在补偿责任之外尚有其他可选择方案。

联合体成员之间的责任分配首先要尊重各参与者之间的技术关系。生成式人工智能参与者的行为具有非连续性、边界不明显性,这意味着各参与者的行为处于不断被调用、转换和影响之中。换言之,各参与者之间行为高度互动的运转模式是侵权行为的发生原因。受这种互动关系的启发,不妨尝试建立责任与各参与者之间互动影响力的关联。在此,侵权法可以借鉴网络理论,构建分布式责任的新框架。网络理论在社会学、计算学等领域具有广泛的应用,在侵权法责任分配领域,也可以作为一个有价值的工具。网络理论认为,网络由一组参与者或节点以及一组联结它们的特定纽带组成,网络中的纽带模式产生了特定的结构,节点在该结构中占据特殊位置[36]1169。一旦发生损害,通过分析特定人工智能网络中的上述特征,就能更好地了解相关参与者(即节点)、它们之间连接的性质和强度(即边),以及每个参与者在系统中和作为整个网络一部分的重要性和意义[37]1147。如果能够为各个节点找到准确的权重和系数,就可以实现构建分布式责任的目的。但美中不足的是,当前并不存在计算方法的统一标准或法则,分布式责任虽属良策,却缺少技术和法律实践的丰富经验支持。

进而,一个可行的操作方法是将责任与经济利益绑定,由各参与者承担比例责任(10)此处的“比例责任”系指责任范围的比例责任,即在联合体与损害结果的责任成立后,确定联合体内部成员具体的责任范围。参见冯德淦:《比例责任在侵权法上的适用之检讨》,《法律科学(西北政法大学学报)》,2020年第2期,第161页。,以达到侵权法填补损害与预防风险的目的。从比较法来看,美国在乙烯雌酚(diethylstilbestrol,DES)系列案中运用并发展的市场份额责任就是典型的比例责任(11)在辛德尔诉艾伯特实验室案中,加利福尼亚州最高人民法院最早适用市场份额责任理论。在该案中,原告辛德尔因母亲服用DES而罹患癌症。但原告起诉时已经无法辨明到底是哪些厂家的DES导致了她的损害。原告于是以5家当时占有市场份额最大的企业为被告提起诉讼。法院认为,只要被告的产品在相关市场中占有足够的份额,被告就应按照其产品占有市场的份额对原告承担赔偿责任。参见鲁晓明:《论美国法中市场份额责任理论及其在我国的应用》,《法商研究》,2009年第3期,第152—160页。。市场份额责任是指,当无法确认具体的缺陷产品生产商时,由生产缺陷产品的所有企业按照市场占有份额对受害人承担赔偿责任。就我国而言,侵权法并不排斥采用比例责任。比如,《中华人民共和国民法典》第一千二百三十一条规定就蕴含着采用市场份额责任的立法精神(12)《中华人民共和国民法典》第一千二百三十一条规定:“两个以上侵权人污染环境、破坏生态的,承担责任的大小,根据污染物的种类、浓度、排放量,破坏生态的方式、范围、程度,以及行为对损害后果所起的作用等因素确定。”。在客观上,比例责任有助于实现侵权法功能,学者对此也予以积极肯定。有学者主张在共同危险、分别侵权和高空抛物侵权中引入比例责任(13)有学者主张在共同危险责任与无意思联络分别侵权中,适当引入比例责任。参见杨垠红:《多因不明侵权中比例责任之适用》 ,《政法论坛》,2013年第4期,第155页;刘媛媛:《比例责任判定因素之考量——动态体系论的研究路径》,《法治研究》,2019年第6期,第66页。有学者主张在高空抛物责任中引入比例责任。参见吴国喆:《论高空抛物致害的比例责任承担》,《西北师大学报(社会科学版)》,2016年第6期,第139—144页。。还有学者进一步指出,市场份额责任具有拓展适用的可能性,应当确立为侵权责任分担的一般规则。此一般规则表现为:按照致害可能性进行责任分配的比例份额责任[38]296。

不论是市场份额责任,还是比例份额责任,将其直接应用于生成式人工智能侵权案件中,都是不合适的。第一,对于复杂的人-机联合体,用户作为参与者之一,也应当承担相应的责任,但市场份额责任属于企业责任理论,对自然人并不适用。生成式人工智能的众多参与者横跨多个行业,如何计算不同行业的市场份额并予以同等处理也面临障碍。第二,以致害可能性作为分配责任的标准,从统计学意义上,要求计算各参与者造成危险总量的比例。然而,判定机器/人-机联合体内部的危险值,既无相关的技术标准,也无可行的实践操作。故此,将各参与者从中所获经济利益作为责任分配的标准应是一种较为稳妥的现实选择。一方面,最初DES案件中发展出的市场份额责任,其实质就是将责任与经济收益相联系。在这个意义上,市场份额理论之所以能够实现实质正义,是因为企业所占市场份额越大,所获利润越多,其应承担的赔偿数额也就越大[39]391。另一方面,秉持经济利益——责任承担的责任规制逻辑,由各参与者承担责任,不仅有利于确保单一主体责任不至于过重,还能体现责任分配规则与科技发展的同步协调[40]126。

具体而言,在机器联合体中,除用户外的生成式人工智能各参与者,应当以开发、设计、部署和应用生成式人工智能所获经济利益的比例,作为责任分配的标准。在人-机联合体中,用户作为使用者并无营利,因此可以根据用户行为的过错程度、原因力等因素综合考量,由法院酌定用户承担一定比例的责任份额。展开来讲,若用户对最终侵权内容生成的原因力为0,除用户外的生成式人工智能各参与者作为联合体成员,均是侵权责任主体,其责任份额由各参与者从中所获经济利益的比例确定。若用户对最终侵权内容生成的原因力为0—100%,生成式人工智能全部参与者均为侵权责任主体,用户的责任份额应当由法院酌定,其他参与者的责任份额与所获经济利益的比重保持一致。若用户对最终侵权内容生成的原因力为100%,或是侵权行为发生在后期维护管理阶段,因为已经有确定的侵权责任主体,所以无须适用上述责任分配标准。

最后,有关生成式人工智能侵权的责任主体和责任分配的汇总见表2。

表2 生成式人工智能侵权责任主体和责任分配

四、结语

随着生成式人工智能深度嵌入人类生活,潜在的侵权纠纷将会大规模爆发。如何确定生成式人工智能侵权中的责任主体及责任分配,是关乎责任落实的重大问题。面对生成式人工智能侵权的责任主体不确定难题,本文首先反思侵权法现有规则。无论是适用产品责任还是赋予生成式人工智能法律主体地位,都并非合适的解决办法。根本原因在于,上述两种方案均建立在“将某一损害追溯至某一主体”的个人主义逻辑基础之上。事实上,生成式人工智能的侵权风险交织,难以识别侵权风险来源,也难以识别具体的侵权责任主体。因此,个人主义视角已显式微。正视生成式人工智能侵权行为具有整体性侵害特征。灵活运用集体主义视角不仅体现着救济受害人、衡平加害人与受害人权益的精神,而且承载着侵权法捍卫正义的价值理念。针对生成式人工智能侵权,侵权法必须变通规则以满足实现社会公正的诉求。以集体主义视角为切入点,构建机器/人-机联合体可免于陷入论证个人因果关系的困境。同时,为了准确识别生成式人工智能侵权的责任主体,类型化思维必不可少。就联合体成员内部的责任分配这一问题,分布式责任的实现有赖于成熟的理论体系和丰富的司法实践案例。显然,现有的法律实践离此目标还有一定距离。退而求其次。借鉴市场份额责任,建立责任与经济利益之间的关联,既能够解决生成式人工智能不确定性侵权难题,也能实现实质正义,不失为一种可行方案。只有创新责任分担方式,以开放的姿态确立责任主体识别机制,才能跟进时代发展,为侵权法注入新的活力,促进生成式人工智能的健康发展。

猜你喜欢

个人主义联合体参与者
休闲跑步参与者心理和行为相关性的研究进展
对于联合体EPC总承包模式下成本控制的得与失
浅析打破刚性兑付对债市参与者的影响
鲁迅的个人主义思想初探
——以《文化偏至论》为例
创新思维——打造智库联合体
海外侨领愿做“金丝带”“参与者”和“连心桥”
归脾汤加减联合体针治疗心脾两虚型失眠48例
常数轮理性秘密分享机制
工程联合体小议
个人主义与集体主义流变的历程