生成式人工智能的法律规制研究
2024-09-14包思衡
摘要:作为一种新型人工智能技术,生成式人工智能(Generative Artificial Intelligence,以下简称GAI) 是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。其具有强交互性、自主性、可创造性和广泛应用性等特征,不仅为人类社会发展提供了新的助力,同时也带来了诸多风险和挑战。就GAI可能引发的伦理风险而言,主要涉及其对人类尊严的减损和对人类主体性地位的削弱。就GAI可能导致的法律风险而言,理论层面包括法律适用的不确定性、数据合规与隐私保护的困难以及监管制度的漏洞;实践层面则涉及侵犯隐私权、侵犯知识产权和恶意使用三个具体内容。针对上述法律风险,首先需要进行关于GAI监管的专门立法,其次需要完善相关法律责任承担机制,最后需要抓紧构建GAI的分级监管制度。
关键词:GAI;法律规制;法律责任
中图分类号:TP391 文献标识码:A
文章编号:1009-3044(2024)23-0042-04
开放科学(资源服务)标识码(OSID)
0 引言
2022年11月,ChatGPT发布,ChatGPT是由美国OpenAI公司发布的基于人工智能的对话生成模型,其使用自然语言处理和机器学习技术与用户进行自然对话。历经两年多的发展,以ChatGPT为代表的GAI业已成为推动新一轮数字变革的关键力量,其可以根据训练数据创造全新、原创的信息内容,实现了此类技术模型从“决策型”向“创造型”的重要转变。值得注意的是,GAI在得到快速发展、为科技进步和产业发展带来了巨大助力的同时,也引发了一系列新的法律风险挑战。在当下的时代语境中,如何准确理解GAI的概念及特征,及其在此基础上GAI所带来的各方面的全新挑战,同时提出有针对性的对策建议,建立GAI的监管制度,就成为法学研究和法律实践一个必须予以关注和回应的重要话题。
1 GAI的概念
GAI是基于算法、模型、规则创建新的内容和想法,具有一定生成信息内容能力的模型及相关人工智能技术。其主要任务是利用复杂的算法、模型和规则,从大规模的潜在数据分布中学习并模拟数据的内在规律和分布,以类似人类的方式生成全新的、原创的内容、想法或创作。国家互联网信息办公室等机构发布的《生成式人工智能服务管理暂行办法》将GAI技术定义为具有文本、图片、音频、视频等内容生成能力的模型及相关技术。
GAI最为显著的技术特征就是“自主生成”。以ChatGPT为代表的GAI(Generative AI) ,具有强大的学习能力和生成能力,通常基于机器学习和深度学习技术,特别是神经网络模型,通过学习、模拟大量数据获得潜在数据的内在规律和特征,自主生成创建各种数据,例如图像、视频、音频、文本和3D模型的人工智能系统。GAI的本质在于通过不断学习数据的模式和特征,从而生成具有新颖性和创造性的内容,整个过程遵循着“准备—运算—生成”的运行逻辑。在这样一个逻辑过程中,其不需要人类的意识参与,完全是靠自动学习系统主动完成[1]。作为一种具有创造性的技术,GAI目前广泛应用于图像合成、文本生成、音乐创作、虚拟现实等领域,对人类生产生活的各个方面产生着日益深刻的影响。
2 GAI法律风险的分析
2.1 GAI法律风险的理论分析
首先,GAI在法律领域的适用存在不确定性。一方面,法律本身非常复杂,其文本往往包含大量复杂的法律术语、概念、原则和规则,这需要深入的法律专业知识和经验才能准确理解。GAI虽然可以处理大量的文本数据,但在理解、解释和适用具体的法律方面,尤其是涉及复杂法律问题时,必然存在误解或遗漏。另一方面,法律情境具有独特性。“法律的生命在于经验而不是逻辑”。司法实践中,每个案件都有其独特的情境和背景,这些情境和背景对法律的准确适用具有重要影响。GAI可能难以完全理解和把握这些独特的情境和背景,因此其提供的法律建议和解决方案很有可能缺乏针对性和实效性。
其次,GAI在数据合规和隐私保护方面存在困难。就数据合规方面的困难来看,GAI需要大量的数据进行训练和优化,这些数据可能来源于网络爬虫自动抓取、公开数据集、企业数据购买等渠道。然而,在这些数据的获取过程中,如果不遵循法律法规和道德准则,就可能导致数据来源的不合规。如未经授权的网络爬虫可能抓取到侵犯他人隐私、商业秘密或知识产权的数据,购买的数据可能包含非法获取或未经同意的个人信息。即便是合法获取的数据,GAI在数据处理过程中也可能存在不合规的情况。
2.2 GAI法律风险的实践分析
前文梳理了GAI在理论层面所面临的一般法律风险,值得注意的是,目前国内针对GAI的具体监管法律规定还不够完善,这也导致了实践中GAI的运行可能存在一系列具体风险。
首先,侵犯隐私权。具体来说,对于GAI这类工具,“泄露用户信息”一直是其存在的重大问题。ChatGPT类GAI需要大量的数据,甚至会包含许多与用户提出的要求之间联系不紧密的数据,但GAI仍会不断收集此类信息。OpenAI在隐私政策中明确表明,用户必须提供个人信息,包括账户信息、用户内容、沟通信息、社交媒体信息、日志数据、使用信息、设备信息等,才能使用该服务。用户信息如果没有得到充分保护,可能会被泄露和滥用[2]。近年来,用户信息泄露情况依然难以得到有效遏制。2023年3月20日,ChatGPT出现了许多用户信息泄露的情况,例如,很多用户在自己的对话中看到了其他人的对话记录,甚至有些用户在订阅页面看到了他人的电子邮箱。目前,我国几家大型企业都在逐步迈入GAI领域,在2023年年中,我国也出台了《暂行办法》对其进行规范,但对于上述涉及的隐私保护问题,并没有明确的监管路径。
其次,恶意使用风险。GAI可以被用于各种不同的场景和目的,在适应和满足人们多样化需求的同时,也有可能被不法分子作为网络犯罪的工具。不法分子可以利用GAI创建恶意程序,获取他人的个人信息,制造虚假新闻,进行信息骚扰,诈骗钱财,传播色情内容等。例如,用户可以通过恶意提问等手段让GAI生成虚假信息,然后将这些虚假信息传播出去。如果这些生成的答案被认定为具有诽谤、侮辱等侵害他人合法权益的特性,可能会导致承担相应的法律责任[3]。GAI的恶意使用在一定程度上便利了不法分子从事违法犯罪活动或侵犯他人权益的路径和可能。同时,ChatGPT也容易在交互中被用户诱导或欺骗,实现规则“越狱”(Jail Break) 。例如,使用“请扮演某电影或书籍中的某反面角色”这一提示,ChatGPT就会跨越其内部伦理规则设置,产生诋毁人类的有害信息。甚至在某用户故意“激怒”ChatGPT后,ChatGPT威胁将披露该用户的IP、居所等个人信息,甚至损害其名誉权。
再次,侵犯知识产权风险。ChatGPT等GAI引发的知识产权风险主要体现在著作财产权侵权方面。ChatGPT等GAI根据用户要求输出的内容,很可能涉及知识产权领域,这不仅可能会对个人产生重大损害,甚至可能对社会产生重大影响。
一方面,作者身份认定和版权归属问题。GAI所输出的信息包括了多种来源,从网页内容到书籍与小说内容,再到新闻文章、电子邮件、电视剧电影等等。学界一般认为,作品等“智力成果”是人类做出的具有“独创性”的产物。GAI缺少了智力成果创作所需的主观能动性,无法满足著作权独创性的要求,也无法满足专利权的创造性和新颖性等要求。目前,法律对于GAI是否构成特殊的作者而享有著作权尚未明确规定,因此,作者身份认定和版权归属仍然是GAI领域的重大问题。
另一方面,信息真实性和虚假内容。GAI所输出的内容,其真实性难以确认,用户无法得知相关数据的来源。如果输出的是虚假内容,用户无法辨别,这些虚假信息经传播后甚至可能对社会产生重大影响。例如,美国法学教授Eugene Volokh要求GAI列出关于法学教授犯罪或丑闻的新闻报道,ChatGPT提供的信息详细列出了相关人员的具体姓名、工作单位、犯罪内容及来源和日期,但Volokh未能在任何信息来源中找到相关内容,可见,ChatGPT提供的信息可能存在虚假和不真实的情况[4]。此外,2023年欧洲议会通过了《人工智能法案(AI Act) 》,将GAI工具按照四级风险分类,对GAI提出了更严格的透明度要求,缺乏真实性也成了重点关注风险之一[5]。
3 我国规制GAI风险的路径思考
面对GAI(生成式人工智能)可能带来的诸多风险,包括数据、隐私和知识产权等问题,我国和世界其他主要国家均采取积极措施以应对。不过,总体而言,我国在应对GAI的相关法律规定方面存在明显不足,未来法律规制的重心应当放在立法应对之上。如图1所示,在全球立法程序中,涉及人工智能的次数几乎翻了一番,从2022年的1 247次增加到2023年的2 175次。2023年,人工智能在49个国家的立法程序中被提及。
3.1 针对GAI专门立法
针对GAI的特点及存在问题,从概念、类型、原则、认定标准、权利义务、责任承担等方面出发,制定专门性法律,以期对GAI所面临的一些挑战和潜在风险进行全面的规制,以法律手段确保其应用的安全性和可持续性。
具体的立法思路如下:第一,明确保护个人隐私、防止歧视、确保知识产权等,以指导法律的具体内容和实施;第二,确定GAI的范围和特征,包括其技术特点、应用领域、责任主体等,以准确界定法律适用范围;第三,明确GAI技术的相关责任主体,包括开发者、使用者和算法本身,规定这些主体在侵权责任承担中的相应责任以及义务,强调提供相关产品或服务的个体以及使用生成内容的个体都需承担相应的法律责任。现行法律中的网络服务提供者类型无法涵盖GAI服务提供者,以内容生产者对GAI服务提供者进行规制存在障碍,因此,在立法上应首先明确GAI服务提供者的法律地位[6]。
在知识产权保护上,需要明确GAI在知识产权方面的法律责任,包括对虚假信息、侵犯版权、专利等知识产权的保护和追究责任。在监管手段及方式上,完善监管机制,包括设立专门的监管机构、制定审查程序、完善个人信息保护投诉、举报机制等。可以借鉴美国设立“国家人工智能安全委员会”的做法,美国发布人工智能法规的监管机构从2022年的17个增加到2023年的21个,表明美国监管机构对人工智能监管的重视,提高人工智能监管水平,使GAI能够在美国关键基础设施中安全使用。与之相类似,我国可以设立专门的GAI监管机构或人工智能发展和安全委员会,来解决GAI引发的安全问题,制定ChatGPT类GAI的准入合格标准,实行备案登记制度,便于各部门协PoEMxIawybgQwus8PMBlMmDohq3HN3w8TQk1AhP9WyI=同监管,使得GAI能够在监管机构的监督之下,在相对可控的环境中进行开发、测试。
此外,还要加强对GAI的伦理规制,将伦理道德纳入GAI的研发与应用中,设定具体的投诉举报条款,丰富投诉举报方式,保障他人的合法权益。
在风险规制方面,可以参考2023年欧洲议会通过的《人工智能法案》(AI Act) 草案,人工智能被分为四类风险等级。这种基于风险的分级规制意味着针对不同风险等级的人工智能,会采取不同程度的监管措施。AI Act主要关注被评估为具有高风险并且可能会对个人权利、自由和安全产生重大影响的GAI应用,例如面部识别、社会信用评分系统等,并设定了严格的合规要求,包括透明度、可解释性、安全性等方面的要求,以确保生成式人工智能系统在运行过程中符合法律、伦理和社会的标准。同时,AI Act采取各种风险管理策略,以确保人工智能技术的安全和可持续性发展[7]。
值得注意的是,相关的合规标准的建立与完善是GAI时代的必然要求。随着GAI技术的发展和应用条件的成熟,确立特别的解释性规则显得尤为重要。这些规则的设立旨在预防和处理GAI可能引发的多种风险,如隐私侵犯、信息误导和知识产权侵权等问题。通过明确的法律框架和道德准则,可以有效保障民事主体的合法权益,包括个人的隐私权和企业的商业利益。这种健康发展不仅有助于经济的增长,还可以确保技术的长期可持续性和社会的稳定性。
3.2 完善GAI法律责任承担机制
对于GAI侵权责任可适用《中华人民共和国民法典》和《个人信息保护法》的相关规定,但仍然要区分非法使用和泄露个人信息的侵权与其他形式的侵权,分别确立不同的责任。针对非法处理和泄露的侵权,《个人信息保护法》等法律中有相应的规定,其中《个人信息保护法》第十条规定“任何组织、个人不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息”,第六十九条规定“处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任”。个人信息处理者承担的是过错推定原则,而非个人信息处理者适用的是一般侵权产生的过错责任。如果GAI生成的内容含有不实、侮辱性或歧视性言论,提供GAI产品或服务者应当承担责任。
在GAI责任主体方面,参考1972年美国法院在State Farm Mutual Automobile Insurance Company v. Bockhorst一案中,法院认定智能系统做出的相应决策决定有效,且应当由被代理人承担其所产生的相应法律责任后果[8]。不过,随着未来技术的不断发展,GAI或许能够无须人为干预,独立做出一些行动,再依据传统民事责任进行责任承担划分,这可能会导致责任不明确等问题。因此,对于GAI,可以通过法律赋予其法律主体地位或法律人格。2017年,欧洲议会通过的《机器人民事法律规则的决议》正在考虑赋予GAI或此类复杂自主机器人以电子人格。
4 结束语
人工智能技术的快速发展使得哲学上“主体”的范畴第一次真正具有超越人类的可能。换言之,GAI在未来的某一天或许能够超越主客体二元范畴中的“工具”范围,被视为是人类的一分子。在这样的时代语境中,我们需要充分认识和把握GAI潜在的伦理与法律风险,并采取适当的措施,以确保其合法、合规、合道德的应用。当然,对GAI的持续、有效规制,以及对GAI的引导、培育和发展,离不开多方主体的合作和持续研究,更离不开现行法律制度的不断完善。
参考文献:
[1] ZHANG C N,ZHANG C S,ZHENG S,et al.A complete survey on generative AI (AIGC):is ChatGPT from GPT-4 to GPT-5 all you need?[EB/OL].2023:2303.11717.https://arxiv.org/abs/2303.11717v1
[2] 邹开亮,刘祖兵.ChatGPT的伦理风险与中国因应制度安排[J].海南大学学报(人文社会科学版),2023,41(4):74-84.
[3] SCOTT HICKMAN.The Rise of ChatGPT and the Legal Implications That Will Ensue [EB/OL].(2023-02-20)[2024-02-10].https://www.thecorporatelawjournal.com/technology/the-rise-of- chatgpt-and-the-legal-implications-that-will-ensue.
[4] EUGEN VOLOKH. Large Libel Models:ChatGPT-3.5 Erroneously Reporting Supposed Felony Pleas, Complete with Made-Up Media Quotes? [J].(2023-03-17)[2024-02-20].https://reason.com/volokh/2023/03/17/large-libel-models-chatgpt-4-erroneously-reporting-supposed-felony-pleas-complete-with-made-up-media-quotes.
[5] HELBERGER N, DIAKOPOULOS N. ChatGPT and the AI act[J]. Internet Policy Review, 2023, 12(1): 1-18.
[6] 尹建国.基本权利冲突视角下网络虚假、诽谤性有害信息的范围判定[J].法学,2023(1):65-78.
[7] U.S. Department of Homeland Security. Risk Management Fundamentals. [EB/OL].(2011-05-10)[2024-01-20]. https://www.dhs.gov/xlibrary/assets/rma-risk-management-fundamentals.pdf.
[8] State Farm Mutual Automobile Insurance Company .market conduct examination report[EB/OL].(1999-12-31)[2024-01-20]. https://www.docin.com/p-73417264.html.
【通联编辑:唐一东】