APP下载

人工智能的刑法适用问题研究

2019-04-16修菡

世界家苑 2019年2期
关键词:主体资格人工智能

修菡

摘要:随着科技的发展,人工智能越来越与我们息息相关,在应用人工智能带来便利的同时,人工智能也对法律产生了一定的影响。本文分别在人工智能的特点、法律人格问题、人工智能对传统刑法的冲击等方面进行了阐述,并试图提出应对措施,以期在不阻碍人工智能发展的同时,更好地约束人工智能的使用。

关键词:刑事立法;人工智能;主体资格

社会科技不断进步,人工智能作为新时代科技的产物,渐渐开始加深对人类社会生产生活的影响。其中,人工智能对于法律这一社会科学的代表性学科也产生了冲击,也使得法学人不禁思考,如何更好地应对人工智能带来的种种问题。

1 人工智能的特点

现代国际社会普遍认可人工智能分为三类:强人工智能、弱人工智能,以及超级人工智能。目前阶段的人工智能具有以下特点:

1.1 具有自主学习能力

有观点认为,新一代人工智能最大的特点是能够从数据中学习,人工智能能够从碎片化的数据中收集想法,进行归纳整理,然后从中学习。人工智能具有自主适应能力,能够根据整理的数据建立数据模型而不是机械套用公式来解决问题。

1.2 具有自主裁量能力

在对数据进行整理的同时,人工智能也有一定的自由裁量空间。这种裁量自控是基于逻辑分析和感知进行的,与自主学习能力相辅相成。

1.3 技术复杂性

目前,人工智能技术同各个领域的结合都有所进展,如机械制造、智能驾驶、工业生产等等。人工智能本身有高度复杂的技术要求,因此,对于人工智能的规制仍是法律领域的难题。

2 人工智能的法律人格问题

通常意义上所指法律人格是指作为人具有的享受权利和履行义务的法律资格,包括自然人和法人两种分类。想要确定人工智能在法律领域的地位,首先应当讨论人工智能是否具有法律人格问题。对于这一问题,学界一直存在着争论,大致能分为支持和反对派。

2.1 人工智能不具有法律人格说

支持这一说法的有工具说、电子奴隶说、代理说等。工具说认为电子智能实质是一种工具,是为了方便生产生活而创造的产物,它否认作为工具的人工智能具有法律人格,甚至否认人工智能的行为能力。电子奴隶说认为人工智能只具备行为能力但不具备权利能力。代理说认为人工智能是人主体的延伸,是由人类控制的,行为后果由人类承担,因此不承认人工智能具有独立的人格。

2.2 人工智能具有法律人格说

以上列举的反对派的三种观点均存在不同程度的缺陷,工具说忽略了人工只能具有自主学习的能力以及适应性,这些特征与简单的工具并不相同;电子奴隶说内容与工具说相似,虽然解决了人工智能承担法律责任主体问题,但实际上是延伸的工具说;代理说简单地将责任归为被代理人,但是没有解决人工智能自行做出意思表示时,被代理人到底是谁的问题。

支持派的学者认为,人工智能基于其自身的獨立意识和自由意志,是可以享有权利并履行义务的。虽然并不同于自然意义上和现有的其他拟制人,但也可以视为具有法律人格。

笔者赞同第二种观点,具有自由决策能力和独立意思表示能力的人工智能是特殊的法律主体,但是,基于人工智能本身一旦需要承担法律责任,也许只能进行销毁,责任能力是有限,只能将人工智能视为一种有限主体。可以在自然人、法人之外再设置一种人工智能拟制法律人格,同时,明确人工智能的权利义务来进行规制。

3 人工智能对传统刑法的冲击

人工智能本身是为了人类生存与发展更方便,但是不可避免的是在某些情况下人工智能有侵犯人类权利的可能,对于传统的刑法理论也是一种冲击。

3.1 无人驾驶与交通事故犯罪

无人驾驶技术的应用,使得驾驶的主体从人变成了人工智能,这样一来,交通肇事罪的犯罪主体所设定的“驾驶人”替换为人工智能,其立法基础有可能动摇。另外,人工智能进行驾驶是经过人的授意,所产生的风险是以授意者“允许的风险”范围内为限度,一旦超出限度,对于超出限度的责任一律追究人工智能服务的提供者,也不妥当。

3.2 定罪量刑辅助系统

人工智能时代的到来,使得人工智能在各个领域都有应用,法律领域也不例外。然而,人工智能辅助量刑依然存在着一些问题:1、在量刑部分,法官在量刑时会综合考虑法理和情理等多个方面,而人工智能是理性的产物,在自由量刑部分是否通情理仍是人们顾虑的问题。2、人工智能是否能够独立审案?就目前来讲,人工智能无法代替法官,只能对于给定的资料以及类似案例来推送定罪和量刑建议,最后由法官来进行确定。

3.3 人工智能对刑法归责的冲击

刑法规制的对象是“人”,然而人工智能显然不属于现定的“人”的范围。传统的理论认为“人应当对自己的行为负责”、“人应当承担刑事责任”等等,人工智能首先引起的是伦理意识形态更新,然后才对法律有潜移默化的改变以及明显的法律修改。

4 人工智能时代初期刑法的定位

要明确人工智能的刑法适用问题,我认为首先应当明确刑法的定位。

4.1 刑法应当适当促进人工智能的发展

应当明确的是,刑法的制定是为维持社会秩序,这些目的同人工智能的服务人类、改善社会生活的目的方向是一致的。无论在任何情况下,刑法都不应当对技术进步产生桎梏。与此同时,刑法应当起到正面的引导作用,引导人工智能的发展同人类社会发展相适应,并在此基础上对人工智能的发展起到推动和促进的作用。

4.2 人工智能最终目的仍是服务人类

人工智能的最终目的还是服务人类,因此,人工智能不能增加使用者的负担,这一思想同样可以贯彻到刑法领域。在刑法领域,这一思想体现为刑法的刑事责任归责方面,虽然人工智能有独立意志,但在行为过限的时候也不能仅仅将责任归于制造者或使用者。即使是最细心的制造者和使用者也可能出现纰漏,如果承认人工智能的实行行为应当由人类承担责任,无异于加重了人类的负担。因此,我认为在当前,对于人工智能的刑法规制应当考虑技术情况适当宽松。

5 尝试解决问题

关于人工智能刑法方面的论文不多,目前我也处于较为迷茫的阶段,在参考前者的前提下,我也有些不成熟的设想。

5.1 为人工智能的使用设置禁止令

人工智能本质上还是受制于人类,在一些危及公共安全的领域,可以尝试用刑事立法的方式,設立禁止令,禁止人工智能在某些条件下的使用,一旦违反该规则,则应当直接处罚人工智能的使用者或所有人,而非对人工智能追究责任。通过立法的方式,对人工智能采取必要的法律监督,是一种比较便捷的防范人工智能可能或潜在危险的措施。

5.2 为人工智能立法

我认为,人工智能因其特点而与其他科技产品差别较大,但受其工具性的限制又具有一定的特殊性,仅仅是有限人格。因此可以为人工智能单独立法,将人工智能视为有限法律主体,通过立法对人工智能的权利义务进行明确规定。

5.2.1 人工智能的权利设想

根据斯通纳的观点,某一主体应当拥有以下法律权利:第一,主体应当有起诉权;第二,法律予以救济时应当考虑其损害;第三,法律救济必须满足他的利益要求。根据这个观点,至少人类不得随意销毁损伤人工智能,并且应当允许人工智能在满足人类要求的前提下积极采取措施保全自身。在承认人工智能具有有限人格的同时,我们应当保证人工智能具有价值和尊严,通过明文规定享有明确的权利。

5.2.2 关于义务的设想

在现实生活中,已经出现过人工智能不受控制,伤害人类的情况。我们不能将这种情况仅苛责于产品制造者、销售者或使用者,这一点前文已有论述。对于这种情况,人工智能本身也应承担责任。但是需要强调的是,承担责任并不等同于简单销毁,至少我们可以成立人工智能审核协会,对于这种情况可以通过查看数据记录等等,进行审核来确定责任。人工智能的发展不仅仅是对法律的考验,也面临着复杂的伦理安全问题,因而对于人工智能承担责任方面,更应当慎重。

5.3 过失责任的确立

从过失角度看,人工智能的应用也许会使得刑法中关于过失理论的部分更新。人工智能如果纳入到过失的体系中,应当降低对于“预见”的要求,因为人工智能本身性质特殊,人工智能背后的人是无法预见全部情况的,在此前提下,如果要求承担全部责任未免不公平,因此,可适当降低预见义务,只需要尽到主要的注意责任,适当扩大过失的范围。

参考文献:

[1] 袁曾.人工智能有限法律人格审视[J].东方法学,2017(05).

[3] 杜森.人工智能的法律与伦理意识形态问题研究[J].黄冈职业技术学院学报,2016(02).

(作者单位:西北政法大学刑事法学院)

猜你喜欢

主体资格人工智能
人工智能之父
2019:人工智能
人工智能与就业
数读人工智能
环境公益诉讼主体资格探析
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
下一幕,人工智能!
下一幕,人工智能!