人工智能的刑法规制研究
2021-11-24王馨慧郝悦彤
王馨慧 郝悦彤
(辽宁大学 辽宁 沈阳 110000)
人工智能指的是在机器中模拟人类智能,这些机器被编程后可以像人类一样思考、做出同人类相似的举动。20世纪50年代,人工智能的概念就已经被提出,因为先进的算法和计算能力及存储能力的改进,近年来,人工智能的发展速度与日俱增。由于其发展速度过于迅猛,目前,世界各国都十分关注人工智能的发展并出台相关政策以积极应对随之而来的问题。国务院于2017年颁布的《新一代人工智能发展规划》,将发展人工智能技术提升到战略高度,明确了人工智能在我国发展道路上的重要地位。鉴于目前我国刑法尚未考虑到人工智能的发展对刑法带来的影响,笔者将论述人工智能所带来的刑事风险,对人工智能法律人格进行研究,明确人工智能的刑事责任承担,并通过研究国际法的方式探讨国内立法。
一、人工智能时代的刑事风险
从总体上来说,人工智能的发展可以分为三个阶段,分别是普通智能时代,即人工智能的萌芽时代;弱人工智能时代,即人工智能的发展时代;强人工智能时代。
普通机器人的学习能力并未达到其他两者的高度,而弱人工智能相较于强人工智能不具有辨认能力和控制能力,因而其有为人所利用实施犯罪行为的风险;强人工智能具有辨认能力和控制能力,因而具有独立人格与刑事责任能力,其严重危害社会的行为可以被界定为犯罪并予以刑事处罚。由于我国立法已对普通机器人作为犯罪工具的刑事责任承担问题进行了相应的规制,因此本文中不再展开论述。
(一)弱人工智能时代产生的刑事风险
从总体上来说,弱人工智能时代的刑事风险可分为两大类:第一类是可能增大部分传统犯罪的社会危害性;第二类是可能导致新的犯罪类型生成。
1.弱人工智能可能增大部分传统犯罪的社会危害性
互联网的快速发展虽然不能直接导致所有犯罪都异化,但是不可避免会使得部分传统犯罪产生质变或是量变。弱人工智能技术可通过与军事相结合的方式给国家和公共安全领域带来刑事风险,人工智能武器便是弱人工智能与军事相结合的成果。如果人工智能被恐怖分子等势力利用,将会给人类健康和世界和平带来巨大的威胁。韩国科学技术院于2018年建立了人工智能研发中心,目的是研发适用于作战指挥的人工智能技术,消息一经传出,便遭到世界30多个国家的一致反对。可见,尽管人工智能武器会给人类社会带来福祉,人们更关注其造成的社会危害性。
2.弱人工智能可能导致新的犯罪类型生成
弱人工智能可与大数据结合产生新的犯罪形式。从我国最高人民法院、最高人民检察院出台的司法解释及指导性案例中可以看出①,犯罪分子利用人工智能技术实施犯罪主要体现在其对大数据的滥用,产生新的滥用数据的犯罪形式。从最高人民法院、最高人民检察院出台的司法解释可以看出,我国刑法及司法实践侧重于保护用于维护信息系统自身功能的、以访问控制为主要考虑的数据,没有关注数据自身内容属性上的价值与保护的必要性。[1]但是犯罪分子利用人工智能技术实施犯罪主要体现在其对大数据的滥用,产生新的滥用数据的犯罪形式。人工智能技术往往可以得到超出人类预期的结果,一些数据从表面上看可能不包含关键的敏感信息,但是通过人工智能技术分析海量数据,及对多个数据库进行综合分析,最终完全有可能通过推演得到关键的敏感信息,甚至包括一些威胁国家安全的重要信息。
(二)强人工智能时代产生的刑事风险
强人工智能时代的标志就是强智能机器人的出现,它可以在自主意识的支配下独立决策。随着技术的迭代更新,具备辨认能力和控制能力的强人工智能机器人的出现并非无稽之谈。如果未来科学技术发展到更高的阶段,智能机器人具备了独立思考的能力,对人类来说将会是一场灭顶之灾,一场人类与机器人之间的较量在所难免。因而,强人工智能时代的刑事风险主要是由人工智能产品因脱离人类的控制而实施严重危害社会的犯罪行为造成的。
二、法律人格与刑事责任承担
(一)法律人格
从法学研究角度来看,在判断主体的法律人格时,三个因素是主要的判断依据:行为能力层面、权利义务层面、法律意识层面,义务的履行需要以具备意识和选择能力为前提。在最新的研究中,国际上的学者主要持有两种观点:
1.法律人格主体说
这一学说主要是从传统道德及伦理角度进行分析,认为法律人格主体不仅包含传统意义上的法律主体,还应该包括机器人等新兴事物。
2.法律人格客体说
这一学说认为自然人是不能被替代的,不可比拟的,机器人等不能成为法律主体,而只能成为法律关系客体,权利义务指向的对象。
会议要求,要进一步细化落实国务院办公厅关于做好非洲猪瘟等动物疫病防控工作通知的任务分工,完善联防联控工作机制。近期,要组成督查组,赴各地特别是重点省份开展非洲猪瘟防控工作督查,聚焦责任落实、应急处置、生猪调运和餐厨剩余物监管等重点工作。要压实地方的属地管理责任,督促地方各级人民政府对本地区防控工作负总责,切实落实有关防控措施,统筹做好养殖业生产安全和肉品供给保障。
(二)人工智能的刑事责任承担
在中国现今的司法实践中,智能机器人属于限制刑事责任能力主体,类似于法人的刑事责任能力。当刑事犯罪是由于其自身的不作为时,例如,人性机器人不履行法律义务,看护机器人不善待被看护人等,人工智能主体就要承担相应的刑事责任。这类似于父母对子女的抚养义务,儿女对父母的赡养义务,如果未尽义务,则有构成遗弃罪、虐待罪等的可能。当刑事犯罪是由于人工智能主体作为,例如智能机器人实施指令行为时,其经授意的行为引致的刑事责任将必须由“实际控制人”承担。例如在美国近几年出现的新型恐怖袭击事件中,恐怖活动组织利用人造机器人携带武器、弹药、爆炸物等危险物品在人员密集的场所或公共区域实施爆炸袭击等恐怖活动。在这类事件中,虽然严重危害公共安全的犯罪行为的直接实施主体是人造机器人,但是,刑事责任是由教唆指示人造机器人实施该行为的恐怖分子承担的。
人造程序,作为人类使用频率最高的人工智能产品,属于无刑事责任能力。因为人工智能产品的刑事责任应当与其自主性相匹配。人造程序本身没有辨别和控制能力,它在法律规制中尤其是责任承担条款中不具有可责性。当且仅当人类,包括自然人、法人和其他组织,将其作为犯罪工具使用来实现人的犯罪目的的情况下,才有可能被纳入刑法规制的范畴。
司法实践中常见的利用人造程序可以实施的犯罪行为涵盖刑法分则已有的大部分犯罪,如危害国家安全罪、危害公共安全罪、危害人身安全罪等。在这些种情况下,人造程序仅仅是犯罪工具,其本身不具备刑事责任能力,应受刑罚处罚的是使用该工具的人。从这个角度看,人造程序和上述智能机器人在被教唆实施犯罪行为时,二者具有相似的法律地位。
综上所述,我国在面对人工智能主体的刑法规制的一系列问题时,需要以积极立法观和风险立法观相结合的角度进行思考与探究。
三、人工智能技术之突破性成就——人工智能武器
(一)人工智能武器所面临的主要法律风险
随着信息技术的飞速发展,人工智能领域得到了极大拓展,实现了广泛应用。人工智能武器是人工智能在军事领域中的重大变革,对现有军事管理与指挥体制造成了巨大冲击。它能够改变传统的军事斗争形式,是赢得国家安全战略的重要切入点。相较于自然人主题,人工智能武器信息化、专业化的程度高,在可控范围内能够实现精确打击,降低军事人员伤亡率并且能够最大限度地避免和减少执行任务过程中受客观条件的影响。尽管如此,其弊端也是显而易见的。
首先,人工智能的研发者、操纵者无法保证智能武器自身的绝对安全,因为人工智能发展过程中的弊端和负面因素会不可避免地传输到人工智能武器上。其次,缺失人的伦理属性的心理属性的人工智能无法理解战争中自然人的心理变化。[2]缺少心理因素的智能武器,即使其思维方式、行为模式与人类完全相同,也不是一个完整的“人”。正是因为存在这样的属性,再加上人工智能武器在战争和武装冲突中有取代战斗员,甚至凌驾于战斗员之上的趋势,智能武器无法判断敌人下一步将会采取什么样的行动,很有可能因人工智能武器的误判,导致局势向不利方向扭转,这给国际法尤其是国际人道主义法带来了深远的影响。为应对这些影响,国际人道法也应进行相应的完善,并进行法律规制。结合我国的立法现状来看,我国未对人工智能武器所带来的安全隐患进行规制,因而可通过完善国际法的方式来促进我国刑法在此方面的研究与规制。
(二)人工智能武器主要的法律规制路径
人工智能武器的研发适用,不仅会产生多方面的舆论风险,还将面临巨大的舆论压力。随着人工智能技术的飞速发展,各国必须采取切实可行的举措来强化人类在武装冲突进程中武力使用问题上的自主控制程度,尽可能防范人工智能武器研发使用所带来的法律风险和道德压力。
本文认为,国际人道主义法针对刑事责任追究机制的完善应充分考虑主观的过错,当指挥官未按照人工智能武器的既定用途使用武器时,当程序设计者未承担充分的注意义务导致程序设计错误时,当生产商或产业工人没有按照操作规范生产人工智能武器时,上述四种主体应当承担国际刑事责任。当上述四类主体不存在主观过错时,由国家承担责任。
马尔顿斯条款仅仅是关于适用国际法没有规定的武器的准则,它意味着国际人道主义法关于武器的规则应当以符合公众良心的要求和人道主义原则的方式来解释,然而,该条款不能禁止自治系统,因为它取决于习惯国际法的一项禁止性规则的存在。第一,人道主义原则只包括人工智能武器所遵循的国际人道主义法规则;第二,公众良知可以从大会决议和立法条约等权威来源中推导出来。目前,还没有这样的权威来源禁止致命的自主系统,相反,各国正在初步探索这种系统的能力。
四、结语
现行法律体系下对于人工智能的法律人格规制缺位,学界亦对其是否具有法律人格持不同的态度。随着人工智能的不断发展,新一代的人工智能武器逐渐兴起,此类新式武器的出现势必会引起不法之人利用该武器实施犯罪,给社会带来巨大的危险性。面对人工智能时代已经或可能出现的刑事风险,对刑法进行一定的修正和完善是我国现阶段的当务之急,然而我国目前在这一领域仍存在制度空白的缺陷。结合我国的国情,既可以在原有犯罪的基础上对人工智能犯罪进行定位,也可以增设滥用人工智能罪,同时考虑到我国对此类新式犯罪的立法经验不足,可通过借鉴国际法的方式完善国内立法,形成国内法与国际法相统一的局面。
注释:
①2011 年最高人民法院、最高人民检察院《关于办理危害计算机信息系统安全刑事案件应用法律若干问题的解释》第一条规定,获取支付结算、证券交易、期货交易等网络金融服务的身份认证信息10组以上的,或除此以外的身份认证信息500组以上的,属于“情节严重”的情形。