人工智能风险的刑法思考
2023-09-15张子奕
张子奕
[摘 要]在全球科技迅猛发展的新时代,人工智能的发展与应用普及是社会与时俱进的表现。智能设备与机器人为人类带来了高效便捷的生活方式,同时也给社会增添了相应的风险。面对人工智能所涉及的社会风险,笔者认为应当完善刑法体系,增设对人工智能监督与管理的相关规定,在研发和利用方面加强刑法规制,及时普及防范人工智能的法律规定,提高人们的法律意识,从而降低人工智能的社会风险,维护社会的稳定发展,做到防患于未然。
[关键词]人工智能;社会风险;刑法应对
[中图分类号]DF6文献标志码:A
随着科技的不断发展,人工智能在社会生活中发挥着越来越重要的作用,逐渐走入大众的视野。它可以增加人们生活的层次感,还能够有效地辅助人们完成更多复杂的任务。例如,在医疗领域中,人工智能可以辅助医生完成更加精密的手术任务,缩短病人的治疗风险;在金融领域中,可以帮助金融机构更好地预测投资机会和风险;在法律领域中,可以为人工智能法庭的建设创造技术条件。总而言之,人工智能正在从方方面面渗透进我们的生活,并且深刻地改变着我们的生活。
1 人工智能的含义
1.1 人工智能的概念
人工智能是科学技术发展的产物,将计算机科学与机器模拟技术相结合,通过模拟人类的思维活动与实践活动智能化地服务于社会。简单来说,人工智能就是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,将人类的智慧通过计算的方式投入电子计算机,让原本没有意识的机器设备模仿人脑智能化。
1.2 人工智能的阶段
人工智能根据发展的程度可分为三个阶段。
第一,现阶段我国科技正处于弱人工智能阶段,只能达到单个方面的智能,它们在某一个领域很擅长,但是对这个领域之外的事物一无所知,同时其智能水平还比较低,发展尚不充分,在所擅长的领域也无法做到极致,只能进行一些常规操作,无法应对特殊情形。例如,会下棋的阿尔法狗与世界围棋冠军进行了轰动世界的围棋大战,并以四比一的成绩完胜世界围棋冠军李世石,这代表着人工智能的进步与发展,但同时也可以意识到阿尔法狗作为人工智能虽然在围棋方面战胜了人类,但仍然只擅长一件事,在其他社会领域存在一定的局限性。
第二,强人工智能时代的人工智能在各个方面几乎与人类齐平。人工智能的运算和推导过程渐渐趋向于人类的思维方式,无论是脑力劳动还是体力劳动,强人工智能都能胜任,可以独自应对一些特殊情况,目前人类的智能发展水平还达不到强人工智能的要求。
第三,超人工智能时代指的是人工智能全方位赶超人类。在各个方面都比人类强大,在这种情况下,人类想要利用人工智能,就要稳妥地驾驭人工智能,在可控范围内让人工智能为人类服务,否则超人工智能时代可能就会成为人类的终结时代。
2 人工智能产生的风险以及刑法所面临的现实挑战
2.1 人工智能现阶段的潜在风险
由于人工智能在社会生活中的广泛应用,在给人们的日常生活提供便利的同时,也可能会带来前所未有的隐患。人工智能的应用导致的不确定性使得社会产生了许多风险,这些社会风险引发了相关的法律问题。第一,信息犯罪越来越普遍。人工智能可以收集大数据信息进行工作,人工智能的发展使得社会数据信息保护机制变得尤为重要,由此不仅可能导致信息垄断风险,还有可能出现泄露信息犯罪等刑事问题[1]。第二,隐私权的泄露风险。大数据下的人工智能使得信息收集无处不在,信息收集使得泄露隐私权的相关风险提高,因此,我国刑法应该加强对隐私权方面的保护。第三,智能机器人进入社会的犯罪后果如何承担。由于人工智能与虚拟网络的盛行,人们过度依赖人工智能,大量机器人作为社会工具应用到各个领域,在一些岗位不需要人的介入,这固然为社会提供了便利,但同时机器人犯罪也使人们开始思考谁来承担人工智能犯罪的后果,人工智能能否成为犯罪主体,是否应该赋予人工智能法律人格。第四,自主权的丧失。人工智能通过日常搜索判断我们想看且常看的信息,这被称为过滤气泡现象,这种现象固然可以帮我们在节省时间的基础上获取有效信息,然而过滤气泡现象会导致我们接收到的信息越来越单一化,会使我们的信息越来越闭塞,不利于社会的长远发展。同时,我们也应当思考,大数据通过日常搜索排除与其不相关的信息是否属于侵犯我们的个人权利,大数据是否有权过滤我们的阅读信息。
2.2 人工智能未来发展的危害性难以预测
无论是人类利用人工智能犯罪或者未来人工智能拥有自主意识犯罪,其犯罪的复杂程度和危害性都将是难以预测的。例如,现阶段的人脸识别智能技术尚不完善,如果人臉识别防盗技术投入社会使用,用于手机开锁和家庭防盗门开锁中,很有可能会发生手机重要信息泄露和入室盗窃等问题,在公司甚至会导致商业秘密的泄露。与传统形式上的犯罪相比,人工智能犯罪所造成的社会危害是更加严重的[2]。传统形式上的犯罪通常是一个犯罪主体或者多个犯罪主体借助传统意义上的犯罪工具运用传统的犯罪手段实施犯罪,其社会危害性是有限的;而利用人工智能进行犯罪,其作案的效率可能会更高,手段可能更便捷,犯罪的完成度整体提升,其所造成的后果也将更严重。人工智能精确的数据极大地排除了人类可能会犯的失误,人工智能也不会受到情绪的影响,如果人类不加以预防和控制,未来人工智能犯罪所造成的危害将是不可预测的。
2.3 人工智能风险的刑罚理念
目前,人工智能在刑法中的主体地位尚不明确,人工智能是否可以成为刑事主体,是否可以被刑法所规制,这些问题不解决,人工智能的应用与发展就会给社会带来不稳定的风险。试想一下,面对人工智能犯罪,法律无法确定人工智能是否适罚,不知如何惩戒,那么这一刑法漏洞就会被不法分子利用,大量人工智能犯罪出现,社会将陷入混乱之中。
时代的进步同时也需要刑罚理念的转变,应当打破传统的人类中心主义,重新定义人工智能的法律人格。自动驾驶是目前人工智能的重要应用领域,但是机器视觉并没有人们想象中的那么可靠,调查显示,仅仅通过贴纸就能让机器视觉分辨不出“停车标志”。如果说人脸智能识别的破解是对人类财产权的威胁,那么自动驾驶技术则影响到了人类的生命健康权,自动驾驶技术的广泛应用,推动了机动车的全面革新,一旦自动驾驶的机器识别出现差错,那么很有可能造成非常严重的交通事故,对社会造成危害。同时,对于此项事故造成的危害,我们应当追究的犯罪主体该怎样明确?是无人驾驶汽车的所有者,还是无人驾驶汽车的生产商和销售商,抑或是无人驾驶汽车本车拥有独立的犯罪主体资格。人工智能能否受到人类社会法律的管理将是未来刑法革新的重点方向,现阶段我国刑法规定的犯罪主体只有自然人和单位,人工智能机器人不属于犯罪主体,不适用于我国的犯罪刑罚,不能对其进行规制。随着时代的进步和科技的发展,人工智能逐渐融入人们日常生活中的各个方面,其在社会中发挥的作用越来越突出,同时给社会带来的隐患也渐渐凸显出来,利用人工智能方式犯罪的案例层出不穷,目前刑法正在填补以人工智能为工具犯罪的漏洞。更值得我们思考的是,在不久的将来,人工智能发展到强人工智能阶段,人工智能有能力自主犯罪时,对于其法律主体人格应如何定义。因此,应该转变刑罚理念,承认人工智能的刑罚主体资格,完善我国司法体系。
3 人工智能风险的刑法应对
3.1 在刑法体系内设置命令禁区,杜绝刑事案件
在未来强人工智能时期的人工智能可以做到在听取人类的命令下代替人类进行各种实践活动。在这种情况下,为了防止人工智能被不法分子利用,被命令从事一些违法犯罪行为,我国法律可以设置一些命令禁区,例如,任何人不得下达可能危害到个人的生命健康、社会公共安全甚至国家利益等方面的命令,任何人不得要求人工智能在公共场合从事放火或其他投放危险物品行为,任何人不得要求人工智能伤害或杀害人类,等等。一旦有人向人工智能提出这些要求对社会或他人造成损害的,视为违反刑法相关规定。同时,为了防止人工智能在非人类授权下自主进行一些不当活动,刑法可以在人工智能的数据开发时期设置不可执行的命令禁区,以保证人工智能不会在失控的情况下危害社会,将人工智能可能产生刑事案件的风险降至最低[3]。
3.2 确立智能机器人的刑事责任主体地位
现阶段人工智能可能在人类的故意操纵或者过失操纵下产生违法犯罪后果,犯罪主体是人工智能背后实施操纵的人,对于犯罪主体自然人定罪量刑即可。但是随着未来科技推动人工智能发展,使其拥有自主意识,在强人工智能时代人工智能脱离了人类的操纵,通过自主行为实施犯罪时,其责任主体就不再是传统意义上简单的自然人和单位。
机器学习型的人工智能以大数据为基础,按照设定的基础规则从事活动,在这一过程中,学习和总结规律,形成自己对外在客观事实及规律的认识,产生基础大数据以外的思考,处理相关事物时,不再根据大数据下的代码循规蹈矩,而是更加灵活地依据自身经验和意识等自主支配活动。在此基础上发展,互联网大数据时代以后将会成为人工智能时代,为了防止人工智能机器人危害公共安全、扰乱市场秩序甚至侵犯他人权利,就需要明确人工智能刑事责任的主体地位。
人工智能成为犯罪主体的一个重要前提就是需要具备刑事责任能力,承担刑事责任能力的基础就是要拥有认识能力和控制能力。首先,人工智能通过高新技术研发,通过深度的自主学习可以生成独立的思想意识。其次,人工智能具有机械装置的外在实体,能够从事一些自主的行为和活动,同时也就具备了控制能力,而且人工智能还有超强的储存能力,这会使人工智能的认识能力和控制能力远远超过人类。所以,必须明确人工智能的刑事责任能力和刑事责任主体地位,从而对其进行合理有效的规制,以此对人工智能进行定罪处罚。
3.3 增设新罪,严密刑事法网
法律的完善应当紧随时代的进步,人工智能的日益发展要求刑法严防人工智能的风险把控。根据人工智能的广泛应用,增设相关罪名,防止人们利用人工智能寻找法律的漏洞从事犯罪活动。例如,由于生产或销售劣质人工智能产品所导致的后果可能比生产销售一般的伪劣产品所造成的后果要严重许多,甚至还可能危害到人的生命健康,所以可以将劣质人工智能作为一种特定的伪劣产品,在破坏社会主义市场经济秩序罪中单独定罪生产或销售劣质人工智能罪。对于劣质的人工智能的定义,笔者认为有两种。首先,人工智能产品制作过程中偷工减料,制作材料用量不足导致成品不符合国家规定标准的;其次,在人工智能产品制作过程中,制作材料以次充好,原材料本身质量就不合格的或者用二手人工智能产品在改造加工的基础上制作生产的。人工智能产品的生产者、销售者故意生产或者销售以上两类人工智能的,可以根据生产或销售伪劣人工智能罪定罪量刑。
犯罪入刑也会提高相关人员的警惕,当人们在利用人工智能时,就会小心谨慎,降低滥用或者违法运用人工智能的概率;生产商在制作过程中就会严格把控人工智能的生产质量,争取使流入市场的人工智能产品保质保量;销售商在进货时仔细检验货物,在销售时向购买者展示产品完好并告知相关权益。争取在各个环节防控人工智能风险。
3.4 完善刑罚体系
目前我国刑法规定的刑罚有四种:财产刑、自由刑、资格刑和生命刑。这四种刑罚适用于自然人犯罪和单位犯罪的处罚,但是并不适用以人工智能为责任主体的犯罪。首先,人工智能并没有私有财产,无法通过没收财产和罚金两種途径实施处罚;其次,人工智能所拥有的自由也不同等于自然人的自由,人工智能的自由是在法律认可的范围内以及其所有者允许的范围内的自由,对于人工智能进行管制和拘役是毫无意义的;最后,具有学习型的人工智能在未来通过技术的发展与自主学习和总结的能力形成独立的思想意识,但是人工智能不可能拥有政治权利,所以对于人工智能的处罚也不存在剥夺政治权利。对于刑罚体系的完善,可以针对人工智能增设删除数据信息刑、格式化刑或者永久销毁刑等。
3.5 加大刑法管制力度,实时监督
可以在刑法中明确规定人工智能出厂的质量标准与技术水平,不达标者禁止出厂,同时情节严重的应当明确规定其相关负责人承担相应的刑事处罚。对于劣质的人工智能和超出刑法规定标准的人工智能(没有设置命令禁区的人工智能),销毁不合格的人工智能产品,对生产者及其负责人进行刑事处罚。规定人工智能的销售主体,如果没有国家批准的机构销售人工智能,对其机构进行查封处理。确保在具体实践活动中,有明确的法律条文贯穿人工智能的发展。完善相关司法解释,必须在司法解释中明确对人工智能的态度,为司法实践提供依据,以便对于人工智能相关案件做出准确判决。
4 结语
科技社会高速发展至今,法律在时代的进步下一次又一次地完成了制度革新,面对人工智能逐渐进入社会生活,在社会生活中的地位与作用越来越突出,人工智能可能存在的刑事问题将是刑法所面临的又一挑战。面对当前人工智能可能存在的风险,笔者认为应将形式措施和实质措施相结合。充实刑法的内容,完善刑罚手段,加强制度层面监督,对于人工智能的研发和市场流通进行严格把控,保障人工智能产品质量,及时向公众科普人工智能的相关法律知识,提升公民的自我保护意识和司法意识,最大限度地降低人工智能的风险,让人工智能真正做到服务于民。
参考文献
[1]彭文华. 人工智能的刑法规制[J]. 现代法学,2019,41(5):135-151.
[2]舒易求. 人工智能的刑法学问题分析[J]. 环球市场,2020(7):254.
[3]石经海,唐渠渠. 恐惧抑或不知:人工智能刑法规制争议的数学考察[J]. 法治社会,2020(1):82-90.