APP下载

生成式人工智能民事责任规制研究

2024-06-21彭梅

华章 2024年9期
关键词:生成式人工智能责任主体

[摘 要]在《中华人民共和国民法典》(以下称《民法典》)背景下,生成式人工智能的民事侵权责任可以从一般侵权责任和产品责任两种责任承担方式进行分析。从生成式人工智能的本质、鼓励产业发展和保护个人权利之间的权衡出发,宜将其纳入产品责任的范畴。内容责任主体方面,不应简单地将服务提供者定性为内容生产者,仅由其对外承担责任,而应划定符合生成式人工智能特点的责任主体范围。

[关键词]生成式人工智能;产品责任;责任主体

近日,为了促进生成式人工智能健康发展和规范应用,国家网信办联合国家发展改革委及有关部门公布了《生成式人工智能服务管理暂行办法》(以下称《办法》)。《办法》将生成式人工智能服务提供者视为生成内容的生产者,由其直接承担生成式人工智能生成内容的生产者责任和相关个人信息处理者的责任。作为应对新兴生成式人工智能治理问题而快速出台的新规定,《办法》在责任主体划定方面仍存在探讨空间。本文以ChatGPT为例,对生成式人工智能进行解构,并在现有的法律基础上,进一步对生成式人工智能侵权的责任主体及相关的归责原则进行分析,就生成式人工智能的侵权责任规制进行研究。

一、我国生成式人工智能的规制现状

2022年11月,美国OpenAI公司推出的以ChatGPT为代表的生成式人工智能在全球引起了广泛关注,推出两个月后,积累了逾3000万用户量。随后,百度的文心一言、阿里的通义千问、谷歌的大型视觉语言模型PaLM 2,以及清华大学开发的以中英语言模型为基础的ChatGLM等生成式人工智能也相继出台。与依赖于预定义规则模式的传统人工智能模型不同,生成式人工智能模型能够通过学习大量先前的数据产生不同的输出结果。生成式人工智能目前有两种主要框架:GAN(生成式对抗网络)和GPT(生成式预训练转化器)。GPT生成型预训练变换模型,是一种自回归语言模型,这种模型利用深度学习产生类似于人类语言的文本。值得注意的是,最新版本的GPT模型的训练语料库来源该公司并未公开。基于生成式人工智能数据语料库的广泛性及生成内容的复杂多样性引发的一系列治理问题,我国目前有一些法律法规可以对其进行相关性规制。

当前,我国对生成式人工智能的规制主要有:在法律层面,《民法典》规定了任何组织和个人不得通过利用信息技术手段伪造等方式侵害他人的肖像权,体现了对使用“深度伪造”技术生成虚假信息侵害他人名誉行为的规制。在部门规章层面的立法则较为丰富,从已生效的部门规章来看,最主要的是《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》),该规定从技术的角度采用了“深度合成”的概念,即利用算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。广义的“深度合成”概念可以涵盖生成式人工智能的技术,该规定的规制范围涵盖了人工智能内容。《深度合成管理规定》之外,《互联网信息服务算法推荐管理规定》和《网络音视频信息服务管理规定》(以下简称《网络音视频管理规定》)两部法规中都有条款对人工智能生成内容的披露进行了规定。《网络音视频管理规定》还规定了服务提供者和使用者不得基于深度学习技术制作、发布和传播虚假新闻信息,服务提供者基于深度学习技术提供服务时要通过安全评估、部署非真实音视频鉴别技术及建立辟谣机制,与生成式人工智能内容的规制具有相关性。在上述已生效的法律法规之外,中国已经有专门针对生成式人工智能的立法。如前所述,即国家互联网信息办公室于2023年7月正式颁布的《生成式人工智能服务管理办法》。

以上规定更多强调开发者和提供者的行政责任与刑事责任,未涉及民事侵权责任,更没有规定承担责任的原则,对生成式人工智能内容风险规制相对全面,但对于生成式人工智能具体的民事侵权的规制仍需进一步完善。责任主体方面,《深度合成管理规定》为服务提供者和技术支持者规定了法律责任,《办法》第九条仅为服务提供者规定了法律责任。可见,相关规制生成式人工智能产业的法规规定的责任主体主要是服务提供者,对处于开发核心位置的算法模型设计者、数据提供者等主体则不作要求,具有一定的不合理性。基于大型语言模型的复杂性和自动生成过程的不透明性和难以解释性,使得用户对于有害、非法或侵权内容的责任难以确定,且可以通过用户与服务提供者之间的合同进行相关规制,因此本文不将用户列入侵权责任承担的主体范围。

对于具体的生成式人工智能侵权的规制,有学者认为应当重新订立适用于生成式人工智能相关的新的侵权责任法律,即在已有的侵权责任法律体系中添加关于人工智能责任的相关条款;有学者则主张在旧的框架法律下对已有的条款进行解释,应对当前的生成式人工智能侵权现状。王利明(中国人民大学常务副校长,教授、博士生导师,国务院学位委员会法学学科评议组成员兼召集人,中国法学会副会长,中国法学会民法学研究会会长)教授认为:因生成式人工智能引发的侵权,目前为止还没有完全超出《民法典》和《个人信息保护法》的相关规定。如适用《民法典》的侵权责任编对生成式人工智能的侵权进行规制,也应当结合生成式人工智能的本质属性,予以特殊的综合考量,对于承担责任的主体范围、具体归责原则进一步探讨。

二、生成式人工智能侵权责任主体分析

生成式人工智能,是通过算法模型在数据语料库的基础上进行无监督大量广泛的学习及有监督的强化引导学习,即对模型“投喂”大量数据再到生成文本的过程。可见,生成式人工智能的核心离不开算法模型和数据。《办法》将生成式人工智能服务提供者直接作为对外承担责任的主体,忽视了模型设计者与数据提供者在生成式人工智能的研发中发挥的关键作用,否定其承担责任的可能性。仅由服务提供者作为风险高发的生成式人工智能的责任主体,范围较为狭窄且不利于受害人行使相关救济权。从生成式人工智能生成内容的本质缺陷出发,也不宜仅将服务提供者作为责任主体。首先,基于输入数据的庞大性,算力的复杂性,算法的多重迭代性,不可避免会使生成结果变得无法解释,这是人工智能本身的固有缺陷。其次,生成式人工智能也因其生成内容的特点,生成结果还容易受到生态谬误(Ecological fallacy)的影响。如ChatGPT在基于相同的数据语料库提供通用的安全建议时,不适用于特定群体或某些环境,特别是人口中的个人用户或少数群体。以全概偏的输出结果可能会侵害特定群体的合法权益。从其具有的客观固有缺陷来看,《办法》将责任主体仅仅限定为服务提供者,使得承担责任的主体不太公平,也不利于对被害人权益的完整保障。应从生成式人工智能的本质属性和固有缺陷出发确立“链条式”的责任承担主体,不仅对于责任的分担以及受害人的救济具有重要意义,对于生成式人工智能的健康发展也具有重要作用。

侵权责任,是民事主体侵害他人权益应当承担的法律后果。承担责任的前提是具有民事主体资格。有学者主张,按照技术逻辑去划定承担生成式人工智能内容侵权的责任主体;或主张可以根据物种位阶的规范主义立场,为人工智能构建一种以责任承担为基础的特殊财产性法律主

体[1]。显然,按照这两种观点,将生成式人工智能技术或者说ChatGPT本身作为承担责任的主体。这类构想存在一定的合理性,但是在现有的法律体系下难以实现。在无法赋予生成式人工智能主体地位的情形下,只能将自然人作为责任主体,其侵权责任也只能在原有的责任归责理论中进行适当选择。

三、生成式人工智能侵权的归责原则探讨

就侵权责任而言,以ChatGPT为例,因其所生成的内容具有虚假、错误、误导或有害性,主要是侵犯人格权和相关知识产权,部分情况下,也会侵犯财产权和生命身体健康权,如在提供与健康和安全相关的建议时,ChatGPT可能会提供不正确或潜在的有害陈述。相关研究指出,适用ChatGPT(3.5版)作为安全相关问题的信息和建议来源时,存在重大的风险,如在提供健身计划、紧急情况预防措施、操作重型机械等方面,其生成的误导陈述可能致使用户或第三人受到损害,对于识字率和受教育程度较低的人群来说,ChatGPT生成的内容风险则更高。对于来自金融、医疗、环境保护等专业领域的问题,如果没有足够的数据资源供ChatGPT进行有监督学习训练,ChatGPT可能将无法就相应内容生成适当的回

答[2]。在当前的法律框架下,就生成式人工智能的侵权责任原则而言,一般适用一般过错责任原则和产品责任进行规制。

(一)适用一般过错责任分析

涉及侵权责任,必先谈归责原则。有学者指出,由于法律没有特别规定,对于人工智能生成内容场景下相关主体侵权责任的判定只能采取过错责任的归责原则[3]。对生成式人工智能侵权采取过错责任原则,受害人举证难度较大。首先,作为受害人的用户或第三人需就对方存在过错进行举证,难度不言而喻。由于被害人和服务提供者可控制资源的不对等以及生成式人工智能本身具有的专业性和复杂性,作为“门外汉”的受害人就对方存在过错的进行举证将处于明显的不利地位。因此,适用一般过错责任将造成对被害人的救济难以实现。过错推定方面,生成式人工智能的侵权明显不能纳入《民法典》规定之下的九种过错推定责任情形框架之下来进行解释,即不存在法律上的明文规定,因此无法适用过错推定责任,倘若适用该归责方式,需增补相应条款。

(二)适用产品责任分析

生成式人工智能的侵权能否适用产品责任?首先需考虑,生成式人工智能能否纳入符合“产品”的内涵或外延之中。就ChatGPT的聊天生成预训练转化器而言,作为一种人工智能聊天机器人程序,该转化器是产品还是服务?我国《办法》中将生成式人工智能程序运行视为一种服务;有学者亦主张,产品具有大规模生产和批量销售的特点,且产品之间需具有同质性[4]。从这个意义上来说,生成式人工智能生成内容不能算作产品。而欧盟《产品责任指令》,美国《侵权法重述》(第3版)将生成式人工智能的性质界定为软件。根据生成式人工智能的设计过程、运行模式以及用户使用结果来看,本文更倾向于将其视为一个软件,同时也是一种产品。软件,即一系列按照特定顺序组织的电脑数据和指令,是电脑中的非有形部分。电脑中的有形部分称为硬件,由电脑的外壳及各零件、电路所组成。电脑软件需有硬件才能运作。软件不分架构,有共通的特性,在执行后可以让硬件执行依设计时要求的机能。软件存储在存储器中,不是可以碰触到的实体,可以碰触到的都只是存储软件的零件或介质(光盘或磁片等)。也即说,软件和硬件二者相互作用,缺一不可,否则无法运行。产品,是用以满足人们需求和欲望的有形物体或无形载体。而软件作为一种依附于有形载体的无形体,向消费者提供基本效用和利益,满足一般意义上产品的要求。

软件是否属于我国产品责任法意义上的产品,相关法律法规没有明确规定。产品是指经过加工、制作、用于销售的产品(动产)。生成式人工智能作为一种聊天生成预训练转化器,在研发过程中,经过算法模型设计、数据投入的加工,最终成为一个面向消费者的无形且可通过网络传输使用的程序软件。就ChatGPT而言,在开始向消费者投放时虽未收取相关费用,但无形中获得的流量及收集的数据信息,背后隐藏着潜在的收益。如ChatGPT、文心一言、通义千问等生成式人工智能,从设计加工到面向用户提供使用,不可谓不是一种产品,也就可以适用产品责任进行规制。

适用产品责任进行规制,首先要考虑产品是否存在缺陷。一般来说,产品缺陷包括三类,即制造缺陷、设计缺陷、指示缺陷。在辨别生成式人工智能生成内容有害或有误是否属于产品缺陷?属于何种缺陷?仍需要被害人结合各种因素具体认定,对其举证要求较高。但适用产品责任无须证明对方存在过错,在这方面减轻了受害人的举证压力,使得受害人在举证上达到一个平衡。在产品责任中,生产者与销售者对外承担无过错责任,对内销售者系过错责任。依前所述,将作为研发核心的数据提供者、算法模型设计者,以及作为“总抓手”的服务提供者确立为生成式人工智能侵权的责任主体。在产品责任中,服务提供者应作为销售者的角色;而处于研发核心的数据提供者、算法模型设计者则是生产者。二者既要履行产品的跟踪观察义务,亦可以适用产品责任的特别免责事由。从生成式人工智能的本质出发确定责任主体链条,并适用产品责任进行规制。不仅有利于受害人方便行使救济权,也有利于督促核心主体不断优化算法模型、积极提升设计理念,实现生成式人工智能产业与个体和谐共生。

结束语

以ChatGPT为代表风靡全球的大语言模型已经成为人工智能领域竞争的新轨道,隐藏着巨大潜力的同时也蕴含巨大风险。我国在面对该技术挑战时应保持谨慎态度,只有符合我国现实发展和国际局势的监管与治理制度,才能促进我国生成式人工智能产业长远健康发展。就生成式人工智能侵权方面的规制而言,若可以通过释法予以应对,则不必也不应当修法或立新法。通过解释将其纳入规制不仅成本和风险低,符合人们对法律预期的同时也能维持法律的稳定性。

参考文献

[1]郑文革.人工智能法律主体建构的责任路径[J].中国应用法学,2022(5):221-231.

[2]于文轩.ChatGPT与敏捷治理[J].学海,2023(2):52-57.

[3]昂格鲁玛.论大型内容生成式人工智能模型设计者及提供者的侵权责任[C]//上海市法学会.《上海法学研究》集刊2023年第6卷:2023年世界人工智能大会青年论坛论文集.北京化工大学,2023:7.

[4]周学峰.生成式人工智能侵权责任探析[J].比较法研究,2023(4):117-131.

作者简介:彭梅(1998— ),女,汉族,贵州毕节人,贵州师范大学法学院,在读硕士。

研究方向:民商法。

猜你喜欢

生成式人工智能责任主体
生成式人工智能的教育启示:让每个人成为他自己
挑战·融合·变革:“ChatGPT与未来教育”会议综述
生成式人工智能时代的政治传播走向
生成式人工智能重塑教育及教师应对之道
人机共生时代国际传播的理念升维与自主叙事体系构建
生成式人工智能的教育应用与展望
虚假药品广告违法责任的探究
版权公有领域侵权责任主体范围研究
论东北老工业基地全面振兴中的软环境建设与优化策略
对无过错责任原则的再思考