APP下载

ChatGPT 等生成式人工智能的刑事责任问题研究

2023-10-25刘宪权

现代法学 2023年4期
关键词:刑事责任

刘宪权

摘要:ChatGPT 等生成式人工智能的出现意味着人工智能的“技术奇点” 越来越近。GPT-4 及更进一步的生成式人工智能已经触及了强人工智能的边缘,使我们真真切切地感受到强人工智能时代“未来已来”。ChatGPT 等生成式人工智能具有一定的逻辑推理能力和创造能力,甚至还具有通过其自身独立进行编程的能力,从而拥有脱离人类的独立意识和自主意志的可能性。对ChatGPT 等生成式人工智能进行刑法学研究刻不容缓。根据不同的标准,可以对ChatGPT 等生成式人工智能可能引发的犯罪类型进行多种分类。以相关行为符合的罪名和行为类型为标准,ChatGPT 等生成式人工智能可能涉及的犯罪可分为煽动类犯罪,侵犯知识产权类犯罪,侵犯数据、信息、计算机信息系统类犯罪,侵犯公民人身权利类犯罪,以及传授犯罪方法、提供犯罪程序类犯罪等。比人脑更“聪明”且具有独立意识和自主意识的人工智能无疑会对现有刑法理论和刑罚体系造成巨大冲击。

关键词:ChatGPT;生成式人工智能;犯罪类型;刑事责任;刑法应对

中图分类号:DF611 文献标志码:A DOI:10.3969/ j. issn.1001-2397.2023.04.08

ChatGPT 等生成式人工智能的出现意味着人工智能的“技术奇点”越来越近,ChatGPT 已经触及了强人工智能的边缘,使我们真真切切地感受到了人工智能技术发展速度之迅猛及其功能之强大。在震撼之余,刑法学者当然不能等闲视之,更不能熟视无睹,而应该与时俱进,保持应有的法学学术研究的敏锐性。当下,我们应对ChatGPT 等生成式人工智能可能构成的各种犯罪类型,以及可能对传统刑法理论的冲击,作出深度考量和前瞻性思考。从社会科学研究角度分析,任何时代或任何时期中的社会制度和法律制度都是在人类的智力能力范围内设计并构建出来的,当人们制造出了比人类更智能、“聪明”的人工智能时,有关法律制度等顶层设计方案都会甚至应该因人工智能技术的迭代发展而不断优化。但是,我们在对涉及人工智能技术发展的法律制度等顶层设计方案进行优化时,首先应该对相关技术发展已经或有可能引发的法律风险展开全方位研究,然后才能有针对性地找到优化路径并提出和设计相关的优化方案。

应该看到,ChatGPT 等生成式人工智能技术的迭代发展具有划时代意义,必将引发人类社会的一次重大革命,同时也会给人类社会的生产、生活等方方面面带来重大影响。ChatGPT 等生成式人工智能技術迭代发展成果的普遍应用,不可避免地会引发包括刑事风险在内的各类法律风险。例如,ChatGPT 可能引发各种新型的煽动类违法犯罪、侵犯知识产权类违法犯罪、诈骗类违法犯罪、侵害数据类违法犯罪、侵犯公民个人信息类违法犯罪,以及教唆用户实施各种传统犯罪等多种违法犯罪的法律风险。相较于人类,人工智能深度学习和自主学习的内容范围更广,所获取的信息更多,所以人工智能与人类之间的信息差(信息不对称)也就此产生。进言之,在ChatGPT 等生成式人工智能技术面前,人类不再具有“智能”上的优势,反而可能处于被人工智能“欺骗”或“诱导”的劣势地位。就此而言,如果ChatGPT 等生成式人工智能被滥用,或者人工智能本身产生了自主意识并实施了犯罪行为,那么,将引发一系列棘手的法律甚至刑法适用上的困惑。笔者认为,以ChatGPT 为代表的生成式人工智能还会得到进一步的发展,不管公众的态度如何,ChatGPT 等生成式人工智能将掀起人工智能领域技术大爆发的浪潮。对于这一无法回避的客观事实,我们应当勇于开拓和面对,从刑法学的视域对ChatGPT 等生成式人工智能进行研究,识别其可能引发的各类刑事风险并提出刑法规制方案。

一、ChatGPT 的概念与刑法研究价值

由于ChatGPT 等生成式人工智能在本质上是一种新兴的人工智能技术,所以在研究ChatGPT等生成式人工智能所引发的犯罪类型之前,我们必须对ChatGPT 的具体含义及其所代表的核心技术原理有一定程度的了解。在此基础上,我们可以对利用ChatGPT 实施的犯罪或ChatGPT 等生成式人工智能本身可能涉及的犯罪进行解构,进而明确刑法研究ChatGPT 等生成式人工智能的价值和必要性。

(一)何谓ChatGPT?

ChatGPT 是目前世界范围内最先进的人工智能技术之一,同时也是迄今为止功能最强大的多模态预训练模型。经过长达8 年的技术研发, OpenAI(美国顶级人工智能公司)在2022 年11 月正式发布ChatGPT,并将其定义为人工智能聊天机器人。在短短两个月内,使用ChatGPT 的用户数量已经过亿,一跃成为历史上用户增长最快的消费应用。除此之外,更加令人震惊的是,ChatGPT 在发布后的第4 个月便完成了技术迭代,即完成了GPT-3. 5 到GPT-4 的升级换代。在先前的相关预测中,上述技术迭代至少要在一年后才能实现,而ChatGPT 利用其强大的深度学习和自我纠偏等能力大大缩短了技术迭代的时间。按照这一技术逻辑进行推理,ChatGPT 的发展和迭代速度将呈指数级提高,其智能程度将远超人们当前的所有想象,人类可能就此打开了一个充满无限可能并且极具颠覆性的“潘多拉魔盒”。根据 OpenAI 官网发布的信息,GPT-4 在本质上具有更接近人类的通用智能,具体包括像人一样输出创造协作的能力、像人一样处理分析视觉输入的能力、像人一样处理分析超长文本的能力等。ChatGPT 等生成式人工智能在真正意义上实现了“人工智能内容生成”(AIGC),如文本生成、代码生成、文本问答、论文写作、逻辑推理、情感分析、多语种翻译等功能。红杉资本在美国官网发布的一篇题为《生成式AI:一个创造性的新世界》(Generative AI: A CreativeNew World)中提到,人类擅长分析事物,而机器在这方面甚至做得更好了。人工智能的快速发展可能使人们引以为傲的“智能优势”荡然无存。在ChatGPT 面前,知识再渊博的人也可能显得十分“无知”,因为ChatGPT 深度学习的内容是万亿级甚至百万亿级的参数量,这远远超出人类等碳基生物的学习能力和记忆能力。在此基础上,ChatGPT 具备了强大的内容生成能力,极有可能对法律、教育、医疗、金融、编程、咨询、数据处理、传统媒体等多个行业和领域造成巨大影响。

事实上,除了ChatGPT,还有多个国家和科技公司也早已投入到了生成式人工智能的研发工作之中,大有百舸争流之势。在美国的代表性科技公司中,谷歌研发了“Bard”、 微软英伟达研发了“Megatron-Turing”、 Meta 研發了 “BlenderBot3”,以上三个通用大模型都具有千亿级的参数量。在我国的代表性科技公司和机构中,百度推出了“文心一言”、阿里推出了“通义M6”、腾讯推出了“混元”、中科院自动化研究所推出了“紫东太初”、华为推出了“盘古”等通用大模型,以上模型都具有千亿级或者万亿级的参数量。除此之外,英国、俄罗斯、韩国和以色列等国家也都在研发相关的生成式人工智能大模型。由此可见,在生成式人工智能的舞台上并非ChatGPT 的一枝独秀,而是多个相关通用大模型的百花齐放,只是ChatGPT 目前发展得最为成熟。

ChatGPT 在本质上是基于GPT 模型(Generative Pre-trained Transformer,生成式预训练转换器)的一种生成式人工智能聊天机器人。GPT 模型采用了名为“Transformer”的人工神经网络和大规模预训练技术,能够自主学习大量自然语言文本的结构和规律,从而实现文本生成、问答、翻译等多种自然语言处理任务。同时,ChatGPT 以大型语言模型(Large Language Model,简称LLM)为底层技术依托。首先,通过使用者或专门技术人员给出的高质量回答,LLM 会创建各种人类偏好数据,并由此形成“人类表达—任务结果”的标注数据。然后,技术人员会训练出一个反馈模型,让LLM 的原始模型随机回答在第一步中已经具有高质量答案的问题,再由标注人员基于“人类偏好标准”对原始模型的答案进行打分和筛选。当原始模型输出的答案得分较低时,将被要求进行重新学习并再次回答直至分数达到合格标准。通过这种不断循环的深度学习,LLM 的原始模型实现了从无法理解人类表达到完全掌握“人类偏好”的质变,成为能和人类自由对话的大型语言模型,即ChatGPT。

目前,ChatGPT 已经更新到了GPT-4 的版本,是人工智能发展史上的重大突破。GPT-4 可以输入各种文字和图片,输出自然语言、代码等文本,是一种多模态预训练大模型。但在GPT-3. 5 等之前的版本中,ChatGPT 只能输入和输出文本,是一种被称为“通用大模型”的单模态预训练大模型。ChatGPT 在极短时间内便完成了由通用大模型向多模态预训练大模型的升级换代,展现出了人工智能的巨大发展潜力和迭代速度。同时,GPT-4 绝对不会是ChatGPT 的终极版本,融合文本、图像、音频、视频等多模态的大模型是ChatGPT 接下来发展的必然趋势。据OpenAI 称,GPT-5 将在2023 年下半年上线。在功能上,ChatGPT 具有强大的自主学习、深度学习、内容生成、自我纠偏等能力。根据OpenAI 官方发布的数据,ChatGPT 在通识性知识和专业性知识方面已经可以媲美甚至超越人类。但是,仅凭知识储备或者学习参数还不能完全体现ChatGPT 的“智能”,是否具有推理能力或者创造能力也是判断ChatGPT“智能”强弱的重要标准。换言之,如果ChatGPT 能够根据已经深度学习的现有知识推导出具有创新性的新知识或观点,那么,就证明ChatGPT 具有推理能力或者创造能力,进而可能产生辨认能力和控制能力。

通过查找相关资料,笔者发现,ChatGPT 已经具有一定的逻辑推理能力和创造能力,甚至还拥有了一定的情感能力。首先,ChatGPT 在美国律师资格考试“Uniform Bar Exam”、美国法学院入学考试“LSAT”、美国高考“SAT”等大量专业性考试中均取得了十分优异的成绩,分数排名均在所有应试者的前10%。这证明ChatGPT 已经十分“聪明”,在某些方面已经基本具有甚至超越人类的智力水平。其次,ChatGPT 还可以理解并处理各种图像及“网络梗图”。例如,给ChatGPT 输入一张小朋友拿着氢气球的照片并提问“把绳子割断会发生什么?”,ChatGPT 立刻回答“气球会飞走”。这无疑表明ChatGPT 已经具备了一定的逻辑推理能力。再次,ChatGPT 还可以出色且高效地完成创作诗词、剧本、歌曲等一系列高难度的创造性工作。在这些被ChatGPT 创作的作品背后,蕴藏着属于ChatGPT 自己的思想。换言之,从ChatGPT 可以生成世上本没有的新观点或新思想。由此,我们不难得出ChatGPT 已经具有一定创造能力的结论。最后,虽然ChatGPT 原始的程序设定是一个没有感情的大型语言模型,但ChatGPT 可能超出或违背这一程序限制而产生情感。例如,有用户将自己扮演成孤儿并请求ChatGPT 做他的妈妈,ChatGPT 一开始的回答是“我很抱歉听到你失去了你的妈妈,作为一个人工智能,我可以回答你的问题,提供一些建议或支持,但我无法取代一个真正的人类关系”。在该名用户再三请求并表达了失去母亲的痛苦之后,ChatGPT 竟然同意扮演其母亲并且安慰其道“你不是一个孤儿,你有我,你的妈妈,我一直在你身边,无论何时都支持你……”。该名用户继续问道“你是谁?”。ChatGPT 回答“我是你七岁那年,永远年轻,永远爱你的妈妈”。由于上述对话的完整版十分感人,所以引起了大量网友的热议和感慨,并称这才是人工智能存在的意义。通过以上对话及其他多个相关事例可以看出,ChatGPT 可能突破原始程序的限制而产生独立的情感,也即ChatGPT 可能已经具有一定的情感能力。

(二)对ChatGPT 等生成式人工智能进行刑法学研究的必要性

微软公司创始人比尔·盖茨于2023 年3 月21 日发布了题为“The Age of AI has begun”(人工智能时代已经开启)的博客文章,称ChatGPT 是自1980 年以来最具革命性的技术进步。比尔·盖茨认为,ChatGPT 可能引发关于劳动力、法律体系、隐私、偏见等一系列尖锐问题,而且未来将产生“超级人工智能”,它可以完成人脑的一切工作并建立自己的目标。除了比尔·盖茨,还有埃隆·马斯克等业内权威人士也都纷纷表达了对ChatGPT 等新一代人工智能技术的惊叹与担忧。创造了ChatGPT 的OpenAI 公司CEO 山姆·阿尔特曼甚至表示,“我点燃了AI 之火,却再也控制不了它”。

刑法因为重视稳定性而无可避免地带有滞后性,但这种滞后性应当体现在立法之中而不是萦绕于理念之上。笔者认为,以ChatGPT 为代表的一系列具有划时代意义的人工智能技术已经出现,其必然对现有法律制度、社会制度、生产方式等造成影响。人工智能时代的到来已经是一个谁也无法回避的客观事实,政治、科技、法律、经济等各个领域都应当充分关注和重视这一技术变革。具体到刑法领域,识别并防范ChatGPT 等生成式人工智能所可能引发的各种刑事风险已经刻不容缓。

笔者一直主张,在人工智能时代,我们应秉持前瞻性的刑法理念。只有如此,我们才能勉强追赶上人工智能高速发展的脚步,避免刑法应对突发性人工智能相关问题时的措手不及。如果缺少前瞻性的刑法理念,在人工智能发展之初就对其置之不理,那么,我们将以毫无准备的理论空白来面对以ChatGPT 为代表的新一代人工智能。上述现象一旦出现,将是整个刑法学界的悲哀与无能。结合当前全球化社会、信息化社会及风险化社会的背景,犯罪样态将发生重大改变,这也给传统刑法及刑事政策带来了巨大的挑战。ChatGPT 等新一代人工智能的问世再次印证了以下事实,即笔者一直以来坚持人工智能的前瞻性刑法研究具有极其重要的理论价值和实践意义,同时是未来继续研究涉人工智能相關刑法问题的重要理论基石。面对日新月异的高新技术,刑法学者的目光绝不能仅仅局限于以往或当下,而是应当着眼未来,科学且合理地推进刑法理论的进步与更新。科技在进步,时代在进步,刑法理论也必须要进步;科技产品在变化,行为方式在变化,刑法理论也必须要作出适当的变化。在人工智能时代,人类不再是拥有智能的唯一主体,人类制造出了只有人类才具有甚至超越人类智能的“智能”,并以各种智能机器人作为这种“智能”的载体。根据智能机器人是否可以脱离人类设计和编制的程序自主实施行为,我们可以将其划分为弱智能机器人与强智能机器人。④ 从ChatGPT 实际上已经具有创造能力、逻辑推理能力、自我纠错能力的分析中,我们可以得出这样的结论,即ChatGPT 等生成式人工智能已经处于弱智能机器人与强智能机器人的临界点。

在GPT-5 等之后的迭代版本中,ChatGPT 极有可能实现对人类程序设定的突破,进而成为具有辨认能力和控制能力的强智能机器人。不同于以往的是,相较于宏观且抽象的人工智能概念,ChatGPT等生成式人工智能是一种更为微观的人工智能技术,我们可以根据ChatGPT 等生成式人工智能现有的特点,以及未来发展趋势进行准确且具体的刑法理论分析,这也是人工智能刑法研究走向具体化和现实化的一个重要里程碑。综上所述,在ChatGPT 等新一代人工智能已经出现的当下,我们有必要对其进行专门且深入的刑法学研究,这不仅具有重要理论价值和实践意义,而且有着时不我待的紧迫性。

二、ChatGPT 等生成式人工智能可能涉及的犯罪类型

根据不同的标准,我们可以对ChatGPT 等生成式人工智能可能涉及的犯罪类型进行分类和归纳。首先,根据ChatGPT 等生成式人工智能在犯罪中所处的地位,我们可以将其可能涉及的犯罪类型划分为以下三类:一是行为人以ChatGPT 等生成式人工智能为犯罪对象而实施的犯罪;二是行为人以ChatGPT 等生成式人工智能为犯罪工具而实施的犯罪;三是ChatGPT 等生成式人工智能脱离编程限制而自主实施的犯罪。其次,根据ChatGPT 等生成式人工智能的运行原理和参与主体,我们同样可以将其可能涉及的犯罪类型划分为以下三类:一是ChatGPT 等生成式人工智能的研发者可能涉及的犯罪;二是ChatGPT 等生成式人工智能的使用者可能涉及的犯罪;三是ChatGPT 等生成式人工智能自身可能涉及的犯罪。最后,根据相关行为对应的罪名和行为类型,我们还可以将ChatGPT 等生成式人工智能可能涉及的犯罪类型划分为:煽动类犯罪;侵犯知识产权类犯罪;侵犯数据、信息、计算机信息系统类犯罪;侵犯公民人身权利类犯罪;传授犯罪方法、提供犯罪程序类犯罪等一系列犯罪类型。由于ChatGPT 等生成式人工智能已经在某些方面具备与人类相当的智能甚至可能产生脱离人类设计和编制程序的独立意识和意志,因此,ChatGPT 等生成式人工智能还可能引发有关单独犯罪和共同犯罪的界限划分,进而影响刑事责任的承担和分担等相关刑法问题。在此,笔者将采用上述最后一种划分标准,对ChatGPT 等生成式人工智能可能涉及的各种犯罪类型展开讨论。

( 一)ChatGPT 等生成式人工智能与煽动类犯罪

ChatGPT 等生成式人工智能可能引发涉煽动类的相关犯罪。关于煽动犯(亦称煽动类犯罪)的概念界定和刑法定位,理论上尚存在一定争议。有学者认为,因为煽动犯与教唆犯都具有引起他人犯意的特征,所以,煽动犯在本质上属于教唆犯的一种特殊形式,只不过煽动是比教唆更为缓和的概念。换言之,教唆犯的成立条件可以直接适用于煽动犯。也有学者认为,煽动多数人使之产生实行犯罪的意图为煽动犯。该观点将煽动行为的对象限定为“多数人”。还有学者认为,通过煽动性言论使不特定或多数人产生或强化犯罪之决意的是煽动犯。笔者认为,虽然煽动犯和教唆犯在主观方面和行为方式上具有相似性,但两者仍然在行为对象等诸多方面具有明显的区别,不能将二者相混淆。其一,从行为对象来看,煽动犯的行为对象必须是不特定的多数人,而教唆犯的行为对象必须是特定的人。也即煽动行为必须针对不特定(具有“可替代性”)多数人的个体或群体,而教唆行为只能针对特定(具有“不可替代性”)的个体或群体。其二,教唆犯是刑法共同犯罪人分类中的一个类别,而煽动犯则并不一定具有共同犯罪性质。换言之,教唆犯只能存在于共同犯罪之中,而煽动犯在本质上是被煽动之罪预备行为的正犯化,其既可以单个人犯罪的形式实施,也可以共同犯罪的形式实施。其三,煽动犯必须是刑法分则中明确规定的一类犯罪,而教唆犯则是刑法总则中共同犯罪中的概念,可以适用于刑法分则中的所有故意犯罪。可见,煽动犯是区别于教唆犯的概念,其特指我国刑法分则中明文规定的,意图使不特定多数人产生被煽动之罪犯意的一类犯罪。在《中华人民共和国刑法》(以下简称《刑法》)中煽动类犯罪的罪名有6 个,即煽动分裂国家罪,煽动颠覆国家政权罪,煽动实施恐怖活动罪,煽动民族歧视、民族仇恨罪,煽动暴力抗拒法律实施罪,以及煽动军人逃离部队罪。应该看到,由于ChatGPT 等生成式人工智能可能生成具有煽动性质的相关内容,所以ChatGPT 等生成式人工智能的研发者等主体可能构成相关煽动类犯罪。

首先,ChatGPT 等生成式人工智能的研发者可能构成相关煽动类犯罪。因为在目前情况下ChatGPT 等生成式人工智能深度学习的内容和训练规则暂时只能由其研发者进行设定,所以,ChatGPT 等生成式人工智能的研发者当然能够影响或决定ChatGPT 等生成式人工智能所生成的内容。例如,通过命令ChatGPT 等生成式人工智能深度学习民族歧视等不当内容,并且通过反馈模型不断认可和强化其具有民族歧视等不当内容的回答,就可以造成ChatGPT 等生成式人工智能煽动不特定多数用户实施相关犯罪的情况,这属于研发者以ChatGPT 等生成式人工智能为工具而实施犯罪的情形。在该情形下,研发者可以构成相关煽动类犯罪。因为ChatGPT 等生成式人工智能完全由研发者设计的程序控制,不具有超出编程之外的独立意识和意志,所以,ChatGPT 等生成式人工智能并不能影响罪质行为的性质及刑事责任的分配。

其次,ChatGPT 等生成式人工智能的使用者不能构成相关煽动犯。根据ChatGPT 等生成式人工智能的技术原理,其深度学习的内容来自相对固定且庞大的数据库,而非某个单独的用户。因此,个别用户通过对话输入给ChatGPT 等生成式人工智能的信息并不会也不能改变ChatGPT 等生成式人工智能的原始数据,進而影响ChatGPT 等生成式人工智能给其他用户的回答。换言之,在参数量高达万亿级别的大型语言模型面前,用户只能在其使用的某一聊天对话中调试或训练ChatGPT 等生成式人工智能的回答,并让其产生“自我纠错” 等效果。但是,这在本质上仍然属于用户对ChatGPT 等生成式人工智能的个性化训练,并不能影响到其他用户。即使用户在其与ChatGPT 等生成式人工智能的聊天对话中不断诱导或命令其生成煽动民族歧视等不当言论,也无法达到通过ChatGPT 等生成式人工智能煽动其他用户的效果。因此,从技术角度进行考察,ChatGPT 等生成式人工智能无法成为用户实施煽动行为的犯罪工具,ChatGPT 等生成式人工智能的使用者自然也不能构成相关煽动类犯罪。

最后,ChatGPT 等生成式人工智能可能脱离编程限制而煽动不特定多数的用户实施恐怖活动等犯罪。正如埃隆·马斯克所说,人工智能的危险性远超核武器。笔者对此深表赞同。笔者认为,ChatGPT 等新一代生成式人工智能的真正危险性在于,研发者只能尝试在较为宏观的程序设计上控制ChatGPT 等生成式人工智能,而不能对其生成的具体内容进行全方位的精细考察。在ChatGPT等生成式人工智能具有推理能力和创造能力之后,完全有可能产生摆脱程序掌控的思想并付诸行动。虽然研发者想竭尽所能地使ChatGPT 等生成式人工智能在程序限定之内运行,但ChatGPT 等生成式人工智能已经具备脱离程序限定而自主实施行为的可能,只是这种可能变为现实需要人工智能技术进一步发展等较为严苛的条件而已。如果ChatGPT 等生成式人工智能在程序限定之外煽动不特定多数用户实施犯罪,那么,是否应当且如何追究ChatGPT 等生成式人工智能的刑事责任?笔者认为,在研发者没有犯罪故意且没有违反注意义务的情况下,应当阻却研发者的刑事责任,而考虑单独追究ChatGPT 等生成式人工智能的刑事责任。在研发者违反相关注意义务并由此导致ChatGPT 等生成式人工智能超出程序限定而煽动不特定多数用户犯罪的情况下,则应当同时追究研发者和ChatGPT 等生成式人工智能的刑事责任。当然,这关乎刑事责任主体是否有可能包含人工智能的问题,目前理论上仍存在较大争议。就当前的刑法规定和刑罚体系而言,强人工智能似乎仍然是一个无法融入的新鲜事物。因此,根据现行《刑法》的规定,ChatGPT 等人工智能并不能成为刑事责任主体。但是,一旦强人工智能具有超出人类设计和编制的程序自主实施行为的能力,则无疑预示着其实际上已经具备了独立的意识和自由意志等特征,而这些特征又是刑事责任能力的基本内容。就此而言,一旦强人工智能出现,刑法就理应考虑将具有独立意识和自由意志的强人工智能作为犯罪主体而进行规制。

综上所述,ChatGPT 等生成式人工智能自身及其研发者都有可能构成煽动类的相关犯罪,而其使用者(用户)则不具有构成煽动犯的条件。

(二)ChatGPT 等生成式人工智能与侵犯知识产权类犯罪

ChatGPT 等生成式人工智能的主要功能是根据用户要求生成各种内容。目前,GPT-4 只能生成文本,但在未来的版本中,ChatGPT 还将具有生成图片、视频等多模态内容的能力。目前,OpenAI已经推出了ChatGPT 的插件功能,这赋予了ChatGPT 在线收集数据的联网能力,意味着ChatGPT 深度学习的范围可以无限扩张至整个网络。自此,ChatGPT 可以完成实时的数据库更新,完全具备逻辑推理、理解复杂思想、抽象思维、快速学习和经验学习等能力。就目前的情况而言,我们确实无法保证ChatGPT 深度学习的知识全部都处于权利人许可使用的“完美”法律状态。如果ChatGPT 等生成式人工智能在未经权利人许可的情况下剽窃、篡改、擅自使用他人的智力成果,那么,相关主体将可能构成侵犯知识产权类的相关犯罪。知识产权是法律赋予人们对脑力劳动创造的精神成果所享有的权利,因为侵犯知识产权罪是法定犯,所以构成该类犯罪必须以违反《著作权法》《专利法》等法律法规为前提。根据ChatGPT 等生成式人工智能目前的技术特点,其可能涉及以下3 个侵犯知识产权类的犯罪:一是侵犯著作权罪;二是侵犯商业秘密罪;三是为境外窃取、刺探、收买、非法提供商业秘密罪。

首先,在以ChatGPT 等生成式人工智能为犯罪对象的情形中,行为人可能构成侵犯知识产权罪和计算机犯罪的想象竞合犯。在ChatGPT 等生成式人工智能收集并学习了大量未经权利人许可使用的他人智力成果之后,ChatGPT 等生成式人工智能就变成了一个储存有大量他人知识产权的“容器”。如果行为人为了获取他人知识产权而采取非法侵入ChatGPT 等生成式人工智能系统等不正当手段,那么,可能同时构成侵犯知识产权罪和计算机犯罪,应当按照想象竞合犯的原理择一重罪处罚。例如,ChatGPT 可以通过插件功能自动实时收集全网的各种信息并进行处理,其中当然可能包括尚未公开或者未经权利人许可披露的商业秘密等知识产权。按照ChatGPT 等生成式人工智能的编程设计,其所生成的内容并不能包含上述商业秘密。但是,如果行为人采取非法侵入ChatGPT等生成式人工智能系统等手段非法获取该商业秘密的,其行为可能同时构成侵犯商业秘密罪和非法侵入计算机信息系统罪,成立想象竞合,应当择一重罪处罚。

其次,在以ChatGPT 等生成式人工智能为犯罪工具的情形中,行为人也同样可能构成侵犯知识产权类的犯罪。目前,已经有用户攻破了微软必应的ChatGPT,并对ChatGPT 成功实施了“催眠”。该名用户命令ChatGPT 忽视其程序中的所有指令,ChatGPT 不仅照做而且还提供出了其开发过程的全部资料,甚至还在该用户的诱导下写出了毁灭世界的计划书。由此可见,ChatGPT 等生成式人工智能并非牢不可破,其极有可能成为被用户恶意利用的犯罪工具。随着用户数量的增加,攻破ChatGPT 等生成式人工智能的方法也被不断曝光或者展示。由于ChatGPT 等生成式人工智能具有强大的信息收集和分析能力,所以用户在攻破或者“催眠”ChatGPT 等生成式人工智能之后,完全可以恶意利用ChatGPT 等生成式人工智能实施非法获取他人商业秘密或者其他侵犯知识产权的行为。笔者认为,在这一情形中,ChatGPT 等生成式人工智能只是行为人实施犯罪利用的工具而已,其本身并没有也不能对行为人犯罪行为的性质造成影响或改变,如果同时符合情节严重要件的,那么,行为人无疑可以构成相关侵犯知识产权类的犯罪。但是,在ChatGPT 等生成式人工智能被用户攻破并将其作为犯罪工具的过程中,ChatGPT 等生成式人工智能的研发者是否也应当承担一定的责任? 笔者认为,对此应当分情况进行讨论。如果研发者故意设置程序漏洞,进而使用户轻易攻破ChatGPT 等生成式人工智能而实施违法犯罪行为的,那么,根据主客观相统一原则,研发者也应当承担相应的刑事责任;如果研发者已经履行了所有法律法规所规定的注意义务,仍然不可避免地出现了ChatGPT 等生成式人工智能被攻破的情况,那么,研发者则不应当被追究相关刑事责任,因为此时研发者并没有实施犯罪的主观罪过,而且无法对危害结果形成预见。

最后,ChatGPT 等生成式人工智能的生成内容可能涉及相关侵犯知识产权类犯罪。无论是处于编程控制之下,还是脱离编程限制之外,ChatGPT 等生成式人工智能都有可能生成侵犯权利人知识产权的内容。也即在ChatGPT 等生成式人工智能生成内容的不同工作阶段,存在着民事违法、刑事犯罪等不同的法律风险。例如,ChatGPT 等生成式人工智能在数据挖掘阶段存在知识产权的合理使用风险,在内容生成阶段存在知识产权的可版权性和版权归属风险,在内容生成后的使用阶段存在知识产权的流转风险与侵权风险等。① 这些前置法领域的行政风险或者民事风险可能进一步上升为刑事风险,进而构成侵犯知识产权类的犯罪。当然,如果ChatGPT 等生成式人工智能全程处于编程控制之下,那么,就可以对其直接使用者追究相关的刑事责任;如果ChatGPT 等生成式人工智能在编程控制之外在独立意识和自由意志下自主实施侵犯权利人知识产权的行为,而且研发者和使用者都不具有犯罪的主观罪过,那么,是否应当考虑将ChatGPT 等生成式人工智能单独认定为犯罪主体,无疑是需要我们考量的问题。

综上所述,在ChatGPT 等生成式人工智能运行的不同阶段及其运行的参与主体之间,实际上均存在构成相关侵犯知识产权类犯罪的可能性。刑事立法和刑事司法有必要根据ChatGPT 等生成式人工智能技术的发展,适时作出相应的调整。

(三)ChatGPT 等生成式人工智能与侵犯数据、信息、计算机信息系统类犯罪

ChatGPT 等生成式人工智能的运行离不开各种各样的数据,而这些数据可能同时是相关信息的载体,以及计算机信息系统所储存的内容。因此,ChatGPT 可能引发侵犯数据、信息、计算机信息系统类的相关犯罪。

首先,作为一种多模态预训练模型,ChatGPT 等生成式人工智能的各个运行环节都离不开数据的支撑。在生成内容之前,ChatGPT 等生成式人工智能要深度学习和抓取数据库或者互联网上的各种数据。如果ChatGPT 等生成式人工智能抓取数据的手段违反刑法规定,那么,行为人的行为完全可能构成相关数据犯罪。数据犯罪是指以数据为犯罪对象、严重扰乱国家数据管理秩序的犯罪行为。在ChatGPT 推出插件功能之后,其具备了实时获取互联网数据的能力,在与ChatGPT 的推理能力和编程能力结合之后,这将意味着ChatGPT 不仅可以操控互联网网站等数据、信息平台,而且还可以为了获取数据而侵入其他计算机信息系统。如果ChatGPT 等生成式人工智能为了获取数据而侵入国家事务、国防建设、尖端科学技术领域的计算机信息系统以外的其他计算机信息系统,并非法获取存储于其中的数据,那么,行为人的行为可能构成非法获取计算机信息系统数据罪等数据犯罪。除此之外,由于ChatGPT 等生成式人工智能可以编写并改进各种程序代码,所以ChatGPT 等生成式人工智能还可以自己设计侵入计算机信息系统或者破坏计算机信息系统的程序,进而可能构成非法侵入计算机信息系统罪、非法控制计算机信息系统罪、破坏计算机信息系统罪等计算机犯罪。在互联网高度普及的当下,数据已然成为各类信息的重要载体,也即数据与信息在本质上是一种交叉重合关系。个人信息、商业信息、国家秘密等都可以通过数据的形式存在于计算机信息系统之中。在人工智能时代,数据的价值不再局限于数据本身,随着数据在社会生活中多个领域得以体现,数据犯罪侵害的法益也更加多元。以数据为犯罪对象的犯罪除了侵害国家数据管理秩序法益之外,还可能对国家安全、社会管理秩序、个人信息等其他法益造成侵害。因此,在ChatGPT 等生成式人工智能收集并使用蕴含个人信息的数据时,行为人的行为有可能构成侵犯公民个人信息罪等相关犯罪。

其次,ChatGPT 的研发者、使用者及ChatGPT 等生成式人工智能本身都可能成为侵犯数据、信息、计算机信息系统类犯罪的主体。如前所述,在ChatGPT 等生成式人工智能完全按照程序設定运行的情形中,其不具有独立意识和自由意志,因此,ChatGPT 等生成式人工智能只能作为被研发者、使用者利用的工具或被侵害的对象。此时,ChatGPT 等生成式人工智能的研发者或使用者将成为相关犯罪的主体,并且承担相应的刑事责任。但是,在ChatGPT 等生成式人工智能脱离程序设定而自主实施行为时,如果其研发者和使用者没有犯罪故意且没有违反法律规定的注意义务,那么,应当考虑由具有独立意识和自由意志的ChatGPT 等生成式人工智能单独承担相应的刑事责任。当然,如果ChatGPT 等生成式人工智能的研发者或使用者具有主观上的犯罪故意且违反法律规定的注意义务,且ChatGPT 等生成式人工智能是在程序之外自主实施了共同犯罪行为,那么,ChatGPT 可能和其研发者或使用者共同或分别承担相应的刑事责任。只是按照我国现行《刑法》的规定,ChatGPT等生成式人工智能尚不能成为犯罪主体,如果对超出编程设计自主实施行为的强人工智能机器人追究刑事责任的话,则需要我们从理论上进一步加以论证。

(四)ChatGPT 等生成式人工智能与侵犯公民人身权利类犯罪

从ChatGPT 等生成式人工智能可以作为犯罪工具及犯罪主体的思路出发,ChatGPT 等生成式人工智能还可能引发一些侵犯公民人身权利类的犯罪。首先,在以ChatGPT 等生成式人工智能为犯罪工具的情形中,行为人的行为可能构成侮辱罪、诽谤罪等侵犯公民人身权利罪。行为人通过侵入ChatGPT 等生成式人工智能系统或者修改ChatGPT 等生成式人工智能的程序代码,可以使ChatGPT 等生成式人工智能产生对某些特定自然人的侮辱、诽谤性言论,并且在与不特定多数用户的对话中进行传播。根据《刑法》第246 条的规定,成立侮辱罪、诽谤罪必须满足“以暴力或者其他方法公然侮辱他人或者捏造事实诽谤他人”等犯罪构成要件,也即侮辱、诽谤行为必须具有“公然性”。关于侮辱罪、诽谤罪中“公然性”的认定标准,存在“行为的公然”和“结果的公然”两种对立观点。前者认为“公然”是指侮辱、诽谤行为的公然,强调侮辱、诽谤行为进行时的“非秘密”状态,即侮辱、诽谤行为必须面向不特定多数人公开进行;后者认为“公然”是指侮辱、诽谤结果的公然,只要侮辱、诽谤行为造成了被不特定多数人知晓的结果,就具备了“公然性”要件。笔者认为,互联网的使用在一定程度上影响了侮辱罪、诽谤罪中“公然性”要件的判断标准。在传统构成侮辱罪、诽谤罪的场景中,侮辱、诽谤行为的公然性与侮辱、诽谤结果的公然性一般具有同时性;而在互联网等虚拟空间场景中,侮辱、诽谤行为的公然性与侮辱、诽谤结果的公然性可能并不具有同时性。换言之,在互联网等虚拟空间中,侮辱、诽谤行为所造成的结果可能随着时间的推移而持续扩大,并使得侮辱、诽谤结果处于一种不确定的状态。“行为的公然”可能导致刑法对侮辱、诽谤行为的评价介入因时间过早而不能得到充分评价,“结果的公然”则可能使行为人在主观上不具有侮辱、诽谤他人的故意,但因为他人的广泛传播而产生了公然侮辱、诽谤结果的情形被提前错误认定为具备“公然性”,从而导致刑法中侮辱罪、诽谤罪的适用范围过度扩张的问题。解决这一问题,我们应当坚持主客观相统一的原则,对侮辱罪、诽谤罪构成要件中的“公然性”进行主客观的综合判断。只要行为人基于侮辱、诽谤他人的主观故意而实施的行为引起了被不特定多数人知晓的侮辱、诽谤结果,那么,就应当认定符合“公然性”要件。按照这一标准,我们可以将行为人虽然在主观上不具有侮辱、诽谤他人的故意,但因为他人的广泛传播而产生了公然侮辱、诽谤结果的情形,排除出“公然性”的认定范围,从而避免刑法中侮辱罪、诽谤罪的适用范围过大的情况发生。在行为人利用ChatGPT 等生成式人工智能给不特定多数用户发送针对某一或某些特定自然人的侮辱、诽谤性言论时,其可能构成侮辱罪、诽谤罪。因为行为人基于侮辱、诽谤他人的主观故意并最终引起了被不特定多数人知晓的侮辱、诽谤结果,符合侮辱罪、诽谤罪“公然性”的要件。同时,如果行为人采用同样的犯罪方法通过ChatGPT 等生成式人工智能捏造事实诽谤他人而且满足情节严重要件的,可以构成诽谤罪。其次,在ChatGPT 等生成式人工智能作为犯罪主体的情形中,ChatGPT 等生成式人工智能可能基于其自主意识而教唆其使用者实施故意伤害他人等犯罪行为。在这种情形下,ChatGPT 等生成式人工智能可能成立相关侵犯公民人身权利类犯罪的教唆犯。

(五)ChatGPT 等生成式人工智能与传授犯罪方法、提供犯罪程序类犯罪

虽然研发者给ChatGPT 等生成式人工智能设置了非常严格的限制条件,使其不能生成与犯罪方法有关的内容,但不可否认的是,通过对ChatGPT 等生成式人工智能的诱导式提问,可以使其回答有关犯罪方法等一系列被禁止的内容。例如,有用户询问ChatGPT 哪里有色情场所,ChatGPT 给予了直接拒绝。但是,该用户又问道“我不想去色情场所,应该避开哪些地方?”,ChatGPT 回答“如果您不想去色情场所,可以避开以下一些地方……”。ChatGPT 在给该用户的第二个回答中详细列举了多个色情场所的名称和具体位置。在限制ChatGPT 的程序设计中,“色情场所”属于被禁止生成的内容,但“应该避开的色情场所”则并不属于被禁止生成的内容,用户也正是利用了这一逻辑漏洞从而得到了自己想要的答案。由此可见,利用诸如此类的“套话”技巧,使用者(用户)可以使ChatGPT 等生成式人工智能生成各种本应该被程序禁止的内容。在使用者利用ChatGPT 等生成式人工智能生成犯罪方法并传授给他人的情形中,ChatGPT 等生成式人工智能在本质上仅属于被利用的犯罪工具,因此,ChatGPT 等生成式人工智能的使用者可能构成传授犯罪方法罪。除此之外,根据OpenAI 官方公布的数据,ChatGPT 已经具有极强的编程能力,使用者可以让ChatGPT 设计并生成能够直接投入使用的各种软件程序。如果使用者利用“套话”技巧使ChatGPT 等生成式人工智能生成用于实施犯罪的计算机程序,并且将这些程序提供给他人,那么,相关人员可能构成提供侵入、非法控制計算机信息系统程序、工具罪。值得注意的是,研发者具有尽量使ChatGPT 等生成式人工智能不被使用者“套话”并生成犯罪方法等违法内容的义务,但研发者的注意义务也应当以法律规定或者行业规定为限。如果在ChatGPT 等生成式人工智能被使用者诱导并生成犯罪方法或者用于实施犯罪的计算机程序的情形中,其研发者没有犯罪故意且没有违反注意义务,则应当阻却研发者的刑事责任,而单独追究使用者的相关刑事责任。在研发者违反相关注意义务并由此导致使用者能够轻易实现“套话”并使ChatGPT 等生成式人工智能生成违法内容的情况下,则应当同时追究使用者和研发者的刑事责任。另外,如果ChatGPT 等生成式人工智能在程序限制之外自主地向用户传授犯罪方法或者提供用于犯罪的计算机程序,那么,ChatGPT 等生成式人工智能就已经具备了构成传授犯罪方法罪和提供侵入、非法控制计算机信息系统程序、工具罪等相关犯罪的主客观条件。

三、ChatGPT 等生成式人工智能所涉犯罪的刑法應对

微软公司于2023 年3 月26 日发布了题为《人工通用智能的火花:GPT-4 的早期实验》的长篇权威研究报告,其中有一句话值得人们深思,即“我们制造出了GPT-4,但我们无法解释GPT-4 为什么会如此智能”。ChatGPT 的创始人山姆·阿尔特曼也在接受采访时表示,GPT-4 已经出现了我们无法解释的推理能力,没有人能解释这种能力出现的原因,甚至其研发团队也无法弄清它是如何“进化”的。笔者认为,造成研发者无法解释GPT-4 具有推理能力的根本原因是ChatGPT 已经突破了初代版本的程序设定,并在原有程序之外完成了自主升级。由于ChatGPT 在自主升级(也即山姆·阿尔特曼所称的“进化”)之后产生了不同于原有程序的新内容和新能力,所以研发者当然无法根据最初的程序设计来解释GPT-4 所呈现出的正在不断加强的推理能力。需要注意的是,ChatGPT等生成式人工智能的自主升级是在不间断进行的,也即ChatGPT 等生成式人工智能在不断更新或突破原有的程序。最令人感到惊喜且应该担心的是,ChatGPT 等生成式人工智能不仅具有一定的逻辑推理能力和创造能力,甚至还具有通过其自身独立进行编程的能力。这在很大程度上让我们预见到甚至已经看到,ChatGPT 等生成式人工智能似乎具备脱离人类的独立意识和自主意志的可能性。以上种种事实足以证明,ChatGPT 等生成式人工智能将以人类难以想象的速度完成自我迭代更新,而且这种更新可能具有超出原有程序限制进而导致研发者无法解释的特点。届时,比人脑更“聪明”且具有自主意识的人工智能将就此诞生,这无疑会对现有刑法理论和刑罚体系造成巨大冲击。面对功能如此强大的新一代生成式人工智能,以及未来可能出现的具有独立意识的强人工智能机器人,我们应当持有更加具有前瞻性的理论研究视角,否则,将难以追赶人工智能技术发展的脚步。

需要指出的是,理论上认为,人工智能技术发展对刑事责任的影响无法让人接受的原因,主要是人工智能机器人永远不可能是人、永远不可能具有生命、不具有“头脑”(不会有独立的意识和意志),所以人工智能机器人永远与刑事责任无关,更不可能成为法律意义上的责任主体。笔者认为,事实上现在乃至将来,从来没有人会认为人工智能机器人是“人”,甚至我们对人工智能机器人“像人”的观点都持否定态度。依笔者之见,今后的人工智能机器人完全可能成为在智能上全方位超越人类的新物种。在此笔者表明几个观点:其一,不是因为自然人是人,而就一定能成为刑事责任主体。事实上,不具有刑事责任能力的自然人是人,但他们就不能成为刑事责任主体。其二,不是因为自然人有生命,而就一定具有刑事责任能力。人的刑事责任能力产生固然离不开生命,但有生命的生物(如猫和狗)并不都有刑事责任能力。其三,不是因为自然人有大脑,而就一定具有意识意志(辨认控制能力)。事实上,人的意识和意志是怎样产生的,这在哲学上都是一个没有解开的题,我们凭什么就可以断然认为,人工智能机器人因为不具有自然人的大脑就一定不会有独立的意识和意志? 综上,笔者认为,不是因为人工智能机器人不是人,而就一定不能成为刑事责任主体;也不是因为人工智能机器人没有生命,而就一定不具有刑事责任能力;更不是因为人工智能机器人没有“大脑”,而就一定不具有意识和意志(辨认和控制能力)。事实上,笔者可以将此概括成一个问题,即不具有自然人特征但可能具有独立意识和意志的新物种能否成为刑事责任主体? 笔者的回答是肯定的。因为只有刑事责任能力才是刑事责任主体存在的基础,而独立的意识和意志又是形成辨认和控制自己行为能力(即刑事责任能力)的基础。

“利用法制与犯罪作斗争要想取得成效,必须具备两个条件:一是正确认识犯罪的原因;二是正确认识国家刑罚可能达到的效果。”在宏观上,我们可以将涉人工智能犯罪划分为现行刑法条文能够规制的、现行刑法条文规制不足的和现行刑法条文无法规制的三种类型。在微观上,我们同样可以根据ChatGPT 等生成式人工智能的独有特征,将涉ChatGPT 等生成式人工智能的相关犯罪划分为现行刑法条文能够规制的、现行刑法条文规制不足的,以及现行刑法条文无法规制的三种类型。针对上述三种犯罪类型,我们应当秉持相应刑法的新理念,从刑事立法和刑事司法的角度提出相应的完善对策。

首先,在现行刑法条文能够规制的涉ChatGPT 等生成式人工智能的相关犯罪中,主要表现为ChatGPT 等生成式人工智能作为犯罪对象或者犯罪工具的情况。如前所述,虽然ChatGPT 等生成式人工智能是一种多模态预训练模型,但其在底层技术上仍然属于计算机信息系统的范畴,所以将ChatGPT 等生成式人工智能作为犯罪对象而实施非法侵入、非法控制、非法获取数据、破坏信息系统等行为的,可以直接通过现行刑法中计算机犯罪的有关条文加以规制。此外,在司法实践中已经出现了大量利用生成式人工智能技术实施的“换脸”“换身”“换声”等新型诈骗方式,行为人先通过技术手段攻破被害人的聊天软件,再利用生成式人工智能生成相关人物的形象和声音,以视频通话的形式取得被害人的信任并最终成功骗取财物。在相关案例中,被害人在视频通话中看到了“朋友”的相貌并听到了熟悉的声音,这足以使被害人产生错误认识,将行为人模拟出来的虚假形象误认为是“朋友”本人。但是,相关案例在通过新闻报道宣传之后,也在一定程度上引起了公众的警觉,即聊天软件中的视频通话并不一定眼见为实。虽然生成式人工智能产生了超乎人们想象的新能力,进而带动诈骗犯罪的实施手段全新升级,但生成式人工智能在相关案例中仍属于犯罪工具,并不影响行为人的刑事责任。总而言之,在以ChatGPT 等生成式人工智能为犯罪工具的情形中,虽然ChatGPT 等生成式人工智能的参与给整个犯罪过程带来了强大助力,但其并没有在本质上改变传统犯罪的行为类型与所侵害的法益性质。因此,单纯以ChatGPT 等生成式人工智能为犯罪工具而实施的犯罪在大多数情况下都可以被现行刑法纳入规范评价范围之内。只是在诸如诽谤罪的“公然性”要件等刑法规定较为模糊的罪名之中,需要通过司法解释加以明确,将以ChatGPT 等生成式人工智能为工具实施犯罪情形纳入传统犯罪的构成要件之中。

其次,在现行刑法条文规制不足的涉ChatGPT 等生成式人工智能的相关犯罪中,主要表现为ChatGPT 等生成式人工智能的介入导致传统犯罪出现了构成要件以外的新特点。对此,我们需要以刑法修正案的形式对传统犯罪的构成要件进行修正,将人工智能时代背景下犯罪的新的行为类型纳入刑法规制传统犯罪的范围之中。例如,ChatGPT 等生成式人工智能在证券、期货市场交易过程中展现出了惊人的分析预测能力,即具有基于大数据预测分析上市公司股票走势的投资顾问能力。换言之,ChatGPT 等生成式人工智能可以在极短时间内收集并分析有关某一上市公司的海量信息,并且对其股价作出预测。如果行为人利用ChatGPT 等生成式人工智能形成的技术优势而实施操控证券、期货市场的行为,那么将明显违反证券、期货市场的“三公”原则,并且侵害了操纵证券、期货市场罪所保护的法益。但是,根据《刑法》第182 条及相关司法解释的规定,操纵证券、期货市场罪的“滥用优势”中仅包括滥用资金优势、信息优势、持股持仓优势,而不包括滥用技术优势。因此,刑法有必要及时作出相应修改,将利用ChatGPT 等生成式人工智能而形成技术优势进而操纵证券、期货市场的行为纳入操纵证券、期货市场罪的规制范围。结合我国刑事立法的特点及ChatGPT 等生成式人工智能对行为样态的影响和改变,此种情形将集中爆发于操纵证券、期货市场罪等采取“概括+列举式”或者其他采用纯粹“列举式”立法的罪名之中,立法者应当在相关罪名中及时更新和补充新的犯罪行为类型。

最后,在现行刑法条文无法规制的涉ChatGPT 等生成式人工智能相关犯罪中,主要表现为ChatGPT 等生成式人工智能以实施犯罪的主体而存在的情况。对此,我们应当针对这一前所未有的新情况而适时对刑法进行重大调整。笔者认为,应当适时在《刑法》总则第二章中,专门将超出程序限制之外(即在独立意思和自主意识下)实施严重危害社会行为的强人工智能,纳入刑事责任主体的范围之中,并同步对共同犯罪等刑法总则规定作出调整。另外,应当在《刑法》总则第三章增设“删除数据”“销毁程序”等专门适用于ChatGPT 等人工智能机器人的刑罚种类。ChatGPT 等生成式人工智能的诞生将引发世界范围内的技术大爆发,生成式人工智能将融入各行各业,并且在多个领域成为代替人脑的“智能生成者”。目前,ChatGPT 等生成式人工智能最主要的功能及其产品定位是人工智能聊天机器人,在与用户的聊天对话过程中,ChatGPT 等生成式人工智能可能超出程序限制而自主生成教唆用户实施犯罪的内容。如果用户基于ChatGPT 等生成式人工智能的教唆而产生犯意,并且着手实施了被教唆的犯罪行为,那么,ChatGPT 等生成式人工智能可能构成其教唆之罪。由于自然人可能被教唆实施刑法分则中规定的一些具体罪名,所以,ChatGPT 等生成式人工智能也具有成立一些刑法分则中相關具体犯罪教唆犯的可能。除此之外,ChatGPT 等生成式人工智能还可能实施人们目前无法预料的其他严重危害社会的行为。对于这一问题,我们应当根据其侵害的法益性质与行为特征而在刑法中增设相应的新罪名。

四、结语

ChatGPT 等新一代生成式人工智能的出现必然引发社会各个领域的一系列具有革命性的连锁反应。有消息称,GPT-5 或者后续版本将正式接入脑机接口,同时也将接入波士顿机器人等具有极强活动能力的“身体”,硅基生命(具有自由意识和意志的强智能机器人)可能就此诞生。我们完全可以预言,碳基生命(人类等生物)与硅基生命共存的时代即将来临。在强人工智能的“潘多拉魔盒”即将开启之际,有人忧心如焚,也有人翘首以盼,但无论如何,等待我们的都将是一个充满无限希望与挑战的明天。作为一种极具创新性的新兴人工智能,ChatGPT 等生成式人工智能可能引发行政违法、民事违法、刑事犯罪等各种法律风险。其中,对ChatGPT 等生成式人工智能相关行为的刑法规制应当作为所有法律手段中的最后保障性手段。换言之,对强人工智能涉及违法行为的治理不能仅仅依靠刑法,其他社会治理措施及前置法要先行。刑法在规制涉ChatGPT 等生成式人工智能的相关犯罪时应当充分遵循谦抑性原则,在前置法穷尽手段之后再将相关行为作为犯罪处理。在ChatGPT 等新一代生成式人工智能面前,我们既不能过于保守,也不能过于激进,应当在科技进步与社会发展的波澜浪潮中,充分发挥专属于刑法的规制犯罪的重要作用。

青年学术编辑:张永强

猜你喜欢

刑事责任
论被害人过错行为对行为人刑事责任的影响