人工智能时代的刑事风险与刑法应对
2018-05-23刘宪权
刘宪权
以智能机器人是否具有辨认能力和控制能力,可以将智能机器人划分为弱智能机器人与强智能机器人。目前,弱智能机器人的使用,为我们的生活带来了极大便利,我们已经进入了弱人工智能时代。随着科技的爆炸式发展,具有辨认能力和控制能力的强智能机器人的出现也并非天方夜谭,相信在5至10年内我们将会进入强人工智能时代。
弱人工智能时代的刑事风险
弱智能机器人不具有辨认能力和控制能力,其实现的只是设计者或使用者的意志。因此可以将弱智能机器人看作人类改造世界的新型工具。相较于普通工具,弱智能机器人的优势在于其可以在某一方面完全替代人类自身的行为,达到人类预期的目的。如果这一优势被犯罪分子所利用,其就会在付出更小代价的同时,带来更大的社会危害。一方面,借助弱智能机器人会在一定程度上为犯罪分子实施犯罪行为带来便利,并使其犯罪行为取得事半“功”倍的效果。例如,恐怖分子可以借助携带爆炸物的弱智能机器人在人员密集的公共场所实施爆炸袭击,制造恐慌,危害公共安全。与传统的“人肉炸弹”相比,利用弱智能机器人实施爆炸袭击,不会危及恐怖分子的自身生命安全,同时也更有利于恐怖分子的隐蔽,大大增加了对其实施抓捕的难度。另一方面,犯罪分子将弱智能机器人作为犯罪工具,可能会衍生新类型的犯罪。对数据的滥用在当今的信息社会乃至智能社会,将会成为占据很大比重的犯罪形式。同时,法律具有一定的滞后性,我国刑法及司法实践侧重于保护用于维护信息系统自身功能的、以访问控制为主要考虑的数据,没有关注数据自身内容属性上的价值与保护必要。这就意味着,在不存在强有力监管的情况下,今后相当长的一段时间内利用弱智能机器人进行的滥用数据的犯罪将会愈演愈烈。例如,犯罪分子获取海量数据信息,通过弱智能机器人的分析和推算,从中获取关键敏感信息(其中包含威胁国家安全、公共安全或公民个人人身、财产安全的信息),再利用这些信息进行犯罪行为,获取巨额利益。
应当看到,在弱智能机器人被设计者或使用者利用来实施犯罪行为的情况下,设计者或使用者通过程序给弱智能机器人设定行为目的和行为边界。此时的弱智能机器人虽然有可能基于深度学习和算法作出相应判断并进而实施行为,但这些判断和行为仍是在程序控制范围之内,实现的是设计者或使用者的意志,其行为完全符合设计者设计和编制程序的目的。即使弱智能机器人实施了严重危害社会的行为,也只能将其视为设计者或使用者实施犯罪行为的“工具”,弱智能机器人本身不应当承担刑事责任,而应当由弱智能机器人的设计者或使用者承担刑事责任。此时,对设计者或使用者按照其利用弱智能机器人所实施的犯罪(诸如故意杀人罪、爆炸罪等)进行定罪量刑即可。
强人工智能时代的刑事风险
强智能机器人具有辨认能力和控制能力,可以超出设计和编制的程序范围,进行自主决策并实施相应行为,实现其自身的意志。正如1968年上映的美国经典科幻电影《2001:A Space Odyssey》所呈现的那样,机器人HAL读懂飞行员想要关闭它的唇语,于是决定先发制人,故意让电脑失灵,导致4人丧生。电影里的HAL就是我们这里所讲的强智能机器人,它可以超出设计和编制的程序范围自主作出让电脑失灵的决策,从而达到不让飞行员将自己关闭的目的。当然,这种情景只是人类的幻想,但是人类的科技发展史正是不断将幻想变成现实的历史。1783年法国J·F·P·罗齐埃和M·达尔朗德乘气球升空、1903年莱特兄弟飞机试飞成功,实现了庄子在《逍遥游》中所描述的“列子御风”的幻想;1969年“阿波罗”号飞船首次成功登上月球,实现了“嫦娥奔月”的幻想。随着类脑智能技术、深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的不断发展和完善,当技术突破下一个瓶颈时,出现具有辨认能力和控制能力、能够在设计和编制的程序范围外作出自主决策并实施相应行为、实现自身意志的强智能机器人,其实并非无稽之谈。
在设计和编制的程序范围外实施严重危害社会行为的强智能机器人,与自然人和单位一样具有独紫光阁 第5期 89立的辨认能力和控制能力。强智能机器人可以通过其“电子眼” “电子耳”认识到事实。相较于辨认能力,控制能力是强智能机器人的必备能力。强智能机器人具有在设计和编制的程序范围外极其快速的处理能力、反应速度和极为精准的控制能力,能够凭借大数据与高速运算能力对行为做出精准的控制。同时,随着类脑智能技术的发展,强智能机器人可以凭借类似于人类大脑的系统判断自己行为的性质,并在自主意志和意识的支配下自主决定实施或不实施相应的行为。因此,强智能机器人与自然人一样,具有辨认能力和控制能力。强智能机器人在自主意志和意识的支配下所实施的严重危害社会的行为已经超出了设计和编制的程序范围,不再符合甚至从根本上违反了设计者或使用者的目的或意志,也不再是设计者或使用者实施犯罪行为的“工具”,而可以被看作一个独立的刑事责任主体。此时,我们当然应将危害结果归责于强智能机器人。但同时应当看到,与自然人责任主体基于自然规律而具有的独立意志不同,强智能机器人不具有生命体,其独立意志可以追根溯源到设计者为其编制的程序,同时使用者在使用过程中的行为也有可能触发强智能机器人的敏感点,使其产生实施危害社会行为的冲动并进而付诸实践。强智能机器人的设计者或使用者作为创造主体和控制主体,理应对强智能机器人的行为负有监督义务,并对其可能实施的严重危害社会的行为负有预见义务并尽其所能避免此类行为的发生。所以当强智能机器人实施了严重危害社会的行为时,除了追究强智能机器人的刑事责任外,负有预见义务和监督义务的设计者或使用者也有被追究刑事责任的可能。
人工智能时代的刑法应对
针对人工智能技术带来的安全风险与挑战,需要尽快建立关于人工智能的法律法规、伦理规范和政策体系,全方位形成对人工智能技术的安全管控能力,作为“社会最后一道防线”的刑法更应承担起保障社会稳定和健康发展的任务。为了防止将来面对人工智能技术发展所带来的负面影响束手无策,我们应未雨绸缪,从以下几个方面完善我国刑法,以适应人工智能时代的发展需求。
第一,增设滥用人工智能罪,从源头防控风险。滥用人工智能技术所产生的社会危害性是难以控制的,会涉及到人类社会生活的许多方面,未来还将出现其他立法者囿于人工智能技术发展状况而无法全面考虑到的情况。因此,就目前智能机器人的研发和使用情况而言,直接将“滥用”的行为作为规制的对象并规定相应的兜底条款是较为妥当的做法,未来可以通过司法解释等活动进行更加具体的规定,从而实现刑法规范稳定性与前瞻性的平衡。
第二,增设人工智能事故罪,确立严格责任。明确设计者和使用者在设计和使用过程中的权利和义务,在一定程度可以避免产生巨大的安全隐患。智能机器人的设计者和使用者的义务需要包含以下几方面的内容:首先,在研发智能机器人的过程中必须将人类社会中的法律以及道德等规范和价值嵌入相应的系统之中。其次,设计者和使用者需要在研发和使用智能机器人的过程中履行数据保护义务。如果智能机器人的设计者和使用者没有履行前述义务,那么智能机器人的设计者和使用者需要承担相应的严格责任。当然,严格责任确认的前提是前置法律法规应当将这部分义务规定在条文之中,而刑法则可以规定不履行相应法律法规中关于智能机器人设计和使用过程中的规定,造成严重危害结果的,有关设计者和使用者需要承担刑事责任。
第三,在必要的时候,刑法可以考虑赋予强智能机器人刑事责任主体的地位,并增设能够适用于智能机器人犯罪的刑罚处罚方式。首先,强智能机器人在设计和编制的程序范围外实施行为实现的是自己的意志,而意志存在与否对于刑事责任能力的认定有着重要意义。强智能机器人完全可能脱离人类产生独立的意志。对于人类来说,强智能机器人是人类模拟自身神经网络创造出来的事物,可以说它比世界上任何事物都要更类似于人,刑法应当尊重其自由意志,适时考虑赋予其法律上的主體资格。其次,强智能机器人的行为完全可能成为法律意义上的行为。强智能机器人和自然人的区别仅仅在于自然人具有生命体,而强智能机器人是非生命体,这一区别似乎并不会改变行为的性质。再次,对于智能机器人的刑罚处罚可以增设删除数据、修改程序、永久销毁等三种方式。