APP下载

生成式人工智能的刑事风险与应对

2024-05-24曹俊梅鲁榛子

检察风云 2024年10期
关键词:服务者个人信息犯罪

曹俊梅 鲁榛子

近年来,人工智能技术迅猛发展。2022年美国OpenAI公司发布文本类人工智能应用产品ChatGPT引发关注。作为生成式人工智能的一种,ChatGPT依托大规模语言模型与生成式人工智能的预训练技术框架,在语言理解、意图识别、逻辑推理、内容生成等方面实现较大突破。生成式人工智能在文本写作、代码生成等方面具有广阔的应用前景,深刻影响着人们的生产生活。生成式人工智能高速发展的同时也存在一定风险隐患。理论界表达了对生成式人工智能可能存在平等、伦理、犯罪等方面风险的担忧。本文对生成式人工智能可能引发的刑事风险进行分析,总结目前法律规范的理论和实践情况,对生成式人工智能刑事风险的应对进行思考。

生成式人工智能的发展与应用

1950年,艾伦·麦席森·图灵在论文《计算机器与智能》中提出了人工智的思想。约翰·麦卡锡创造了人工智能一词后,人工智能经历了基于图灵测试的机器模拟阶段、基于统计推理的机器学习阶段,再发展到今天基于神经网络的深度学习阶段。在生成式人工智能兴起之前,人工智能产品以分析式人工智能为主。分析式人工智能主要帮助预测、提升决策效率,不能生成新的内容,因此多作为辅助工具。生成式人工智能可以根据决策作出判断、生成内容。Transformer的训练架构促成了生成式人工智能的发展。2017年谷歌团队提出Transformer架构,2018年OpenAI 公司基于Transformer架构训练出了GPT-1。所谓GPT,是“生成式预训练”(generative pre-training)模型的简称。ChatGPT被认为是生成式人工智能的突破性进展,生成式人工智能主要应用场景包括了消费端和产业端。生成式人工智能在消费端的应用主要体现在内容生产、便捷交互和简化工作;在产业端则应用于工业设计、药物研发、材料科学、合成数据等。

生成式人工智能可能存在的刑事风险

生成式人工智能发展存在的风险已经不是一个崭新的问题,本部分主要讨论生成式人工智能可能涉及的刑事犯罪风险。从犯罪手段上,生成式人工智能可能涉及的犯罪包括行为人以生成式人工智能为对象的犯罪;以生成式人工智能为犯罪工具的犯罪;生成式人工智能脱离编程限制而自主实施的犯罪。从犯罪类型看,ChatGPT等生成式人工智能可能涉及的犯罪可分为煽动类犯罪,侵犯知识产权类犯罪,侵犯数据、信息、计算机信息系统类犯罪,侵犯公民人身权利类犯罪,以及传授犯罪方法、提供犯罪程序类犯罪等。

(一)针对生成式人工智能技术的犯罪

顾名思义,这类犯罪主要是以生成式人工智能为犯罪对象的犯罪。例如对正在研发的生成式人工智能技术、产品或者研发数据的窃取、使用等,可能构成侵犯商业秘密罪、假冒专利罪、侵犯著作权罪,为境外窃取、刺探、售卖、非法提供商业秘密罪等。又如对生成式人工智能生成内容的复制、使用如何评价,生成式人工智能生成的作品是否受著作权保护,还存在争议。因此对生成式人工智能生成物的复制、使用是否构成侵犯著作权罪等犯罪,还较难明确。不少观点认为,生成式人工智能生成物不具有真正的创造力,不是人类独创性思想的表现,因此不应享有著作权。持生成式人工智能生成物不享有著作权意见的观点中,有的认为可以将其作为财产权进行保护,也有观点认为可以采用邻接权保护的方式。也有专家认为对于人工智能生成物应当考虑是否存在使用人工智能创作的人,且其在创作过程中是否付出了智力或创造性劳动。生成物中人的智力和创造性劳动是生成物是否受著作权保护的重要参考因素。例如,对于完全由ChatGPT自动生成未能反映人类意志或情感的不具备版权;ChatGPT根据人类足够多的具体指令生成内容时因蕴含人类特定思想或意志而具有可版权性;人类在ChatGPT生成物基础上调整或加工而形成的内容也具有可版权性。

(二)生成式人工智能技术本身可能存在的犯罪风险

第一,生成式人工智能存在侵犯知识产权的风险。由于生成式人工智能基于海量的数据和算法,如果未经许可,复制或者通过网络爬虫爬取他人享有著作权的在线内容,在我国现行《著作权法》没有明确将数据挖掘等智能化的分析行为规定为合理使用的情况下,此行为可能构成著作权侵权。

第二,生成式人工智能可能存在信息安全、隐私保护等方面的犯罪风险。一是生成式人工智能存在不当收集公民个人信息、商业信息、国家信息等风险,涉及信息保护方面的犯罪,如侵犯公民个人信息罪。二是用户使用生成式人工智能的過程中,也可能被反向收集个人信息或者其他资料,存在泄露个人信息、商业秘密或者国家秘密的风险。三是生成式人工智能还可能生成虚假、错误信息,造成虚假、错误信息传播等,扰乱社会和市场秩序等,涉及侮辱罪、诽谤罪,编造、故意传播虚假恐怖信息罪,编造、故意传播虚假信息罪,损害商业信誉、商业声誉罪等。

(三)生成式人工智能被犯罪利用的风险

ChatGPT模型因其出色的语言处理与文字生成能力,暴露出被不法分子滥用进而用于从事网络犯罪的风险,例如编写钓鱼邮件和恶意程序。生成式人工智能可能被作为犯罪工具,被犯罪分子运用到一些传统犯罪当中。一是可能被恐怖主义、极端主义犯罪分子利用,实施煽动类犯罪,如煽动分裂国家罪、煽动颠覆国家政权罪,宣传恐怖主义、极端主义、煽动实施恐怖活动罪,煽动民族仇恨、民族歧视罪等。二是被网络犯罪利用,特别是电信网络诈骗犯罪可能利用生成式人工智能编写诈骗话术、钓鱼邮件、恶意程序等。三是可能涉及公民人身权利的犯罪,如前文所述的侵犯公民个人信息罪、侮辱罪、诽谤罪等。四是可能被用于传授犯罪方法,涉及传授犯罪方法罪等。

(四)生成式人工智能服务者、管理者的犯罪风险

2023年我国网信办、国家发改委、科技部等部门发布《生成式人工智能服务管理暂行办法》,规定了生成式人工智能服务的总体要求、服务规范和服务者的相关责任。生成式人工智能的服务者、管理者在不履行法律、行政法规规定的信息网络安全管理义务,经监管部门责令采取改正措施而拒不改正,可能涉及拒不履行信息网络管理义务罪。此外,生成式人工智能服务者非法为实施诈骗等违法犯罪活动发布信息的,还可能涉及非法利用信息网络罪。

生成式人工智能法律规范的理论与实践

(一)关于生成式人工智能法律规范的两种基本立场

对于生成式人工智能的法律规范,学界存在两种不同的基本观点。两种立场的分歧在于法律是否需要对ChatGPT类应用风险采取专门立法的方式进行治理,即“重构式规制”。一种观点认为法律规范应当积极对生成式人工智能進行规范和治理,因此需要根据生成式人工智能的特性,制定不同的产业政策和专项立法。另一种观点则认为,法律应避免过早干预技术发展,阻碍技术创新。生成式人工智能尚处于迅猛发展阶段,研究者结合其技术原理、发展趋势及犯罪规律,对该技术可能出现的风险能形成大致预判。凡事预则立,不预则废。再加上法律具有滞后性,因此在生成式人工智能技术发展初期,注重对相关法律风险的预判,同时以积极关注的姿态完善相关法律规定很有必要。当然也应为技术发展预留空间,保持法律规范完善与技术发展之间的平衡。笔者也认为,通过专门立法对生成式人工智能的法律风险进行治理,即“重构式规制”,目前没有必要。一则从犯罪治理的角度,单纯以ChatGPT等生成式人工智能为犯罪工具而实施的犯罪在大多数情况下都可以被现行刑法纳入规范范围之内。前文所述犯罪风险,能被刑法体系所囊括。二来从法律体系发展完善的角度,现代科技迅猛发展,每一项新兴技术出现都进行专门立法,可能不利于法律的稳定性和长期发展。当然司法实践中,需要完善相关司法解释,使其适应新形势的要求。

(二)生成式人工智能相关法律规范的实践探索

我国注重对生成式人工智能等技术的法律规制。除《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的相关基本规定之外,对生成式人工智能较有针对性的规范包括:2022年中共中央办公厅、国务院办公厅公布的《关于加强科技伦理治理的意见》;2023年国家互联网信息办公室、工信部、公安部出台的《互联网信息服务深度合成管理规定》系统规范深度合成服务,筑牢技术安全屏障;《生成式人工智能服务管理暂行办法》明确生成式人工智能技术的适用范围、责任主体认定等。针对理论和实践较为关注的算法歧视、数据安全、侵犯个人信息和知识产权等问题,《生成式人工智能服务管理暂行办法》均予以了回应,其中第四条要求提供和使用生成式人工智能服务,应当坚持社会主义核心价值观,不得生成煽动颠覆国家政权……以及虚假有害信息等法律、行政法规禁止的内容;在算法涉及的过程中,采取措施防止民族、信仰等歧视;尊重知识产权;尊重他人合法权益;提升生成式人工智能服务的透明度等。

关于生成式人工智能刑事风险防控的建议

首先,完善相应司法解释,加强办案指引。例如明确生成式人工智能是否享有著作权的问题。本文赞同生成物中人的智力和创造性劳动是生成物是否受著作权保护的重要参考因素的观点。生成物中具有人类的智力和创造性劳动时,应受著作权保护。在形成该生成物过程中,付出智力和创造性劳动的人应被认定为作者。又如,最高法、最高检编发指导性案例,为办理该类案件提供指引。特别是厘清利用生成式人工智能实施的非法利用信息网络罪、帮助信息网络犯罪活动罪、拒不履行信息网络安全管理义务罪等罪名的界限。

有观点认为,在创作过程中是否付出了智力或创造性劳动成为受著作权保护的重要参考因素

其次,推进生成式人工智能涉案企业合规制度的完善。如前文所述,生成式人工智能存在知识产权、信息安全等诸多风险,因此需要加强生成式人工智能行业的企业合规建设。服务者严格遵守相关使用条款和法律法规。用户使用生成式人工智能,也应遵守法律、行政法规,尊重社会公德和伦理道德。加强涉案企业合规工作,帮助行业组织、企业强化合规建设,建立容错防错机制,降低再犯罪的可能性,推动行业健康发展。

再次,加强对利用生成式人工智能进行犯罪的打击力度。生成式人工智能存在被诈骗犯罪、煽动类犯罪等利用的风险,有必要加强对利用生成式人工智能进行犯罪的打击力度。特别需要落实生成式人工智能服务提供者的管理责任,以及网信、工业和信息化等部门的监督检查等责任。

最后,注重涉生成式人工智能犯罪的社会治理。司法机关需要在办案中,引导生成式人工智能服务者提供者履行安全管理义务,落实对上游技术支持者和下游服务使用者的管理责任。加大对个人信息、数据安全的保护力度,健全服务者与个人、企业关于信息、数据授权使用的制度机制,以及侵权行为发生时的救济机制。

(曹俊梅、鲁榛子工作单位系上海市嘉定区人民检察院)

猜你喜欢

服务者个人信息犯罪
基于演化博弈的铁路代理服务主体行为策略选择研究
如何保护劳动者的个人信息?
个人信息保护进入“法时代”
警惕个人信息泄露
复杂通信设备内部通信技术的研究与应用*
Televisions
做全球冶炼企业的高端服务者
——上海善吉国际贸易有限公司董事长吴晗访谈
什么是犯罪?
重新检视犯罪中止
教研员专业成长探索