人工智能产品触及刑法风险的“管”与“防”
2021-01-28赵阳,王册
赵 阳,王 册
(中国刑事警察学院,辽宁 沈阳 110035)
人工智能(Artificial Intelligence)最早在1956年美国的达特茅斯大学举办的研讨会上由麦卡锡提出,标志着人工智能的诞生。人工智能问世以来,利用人工智能技术研发出的一系列产品相继投入到医学、军事、教育、司法、卫生等多个领域,给人类带来便捷、高效、节约劳动力、降低成本等多种益处。随着人工智能技术的不断完善,人工智能产品逐渐变得更加机器智能化、思维独立化、行为自控化,这无疑会给我们的生产生活带来质的飞跃和前所未有的变化,但我们应警惕人工智能产品将会给我们带来的风险甚至是刑法层面上的潜在犯罪。由人工智能所组成的人造世界是否会具有很强的适应性、创造性替代自然世界?人工智能产品是否会被诸如恐怖活动、危害公共安全犯罪的不法分子加以利用而成为他们手中违法犯罪的“利器”?甚至人类是否会过度依赖人工智能产品而惰性越来越强,最终落入被动局面?
一、人工智能产品的界分
(一)性能界分
根据人工智能产品性能和智能化程度分为弱人工智能产品、强人工智能产品和超强人工智能产品。[1]弱人工智能产品,是指不具有独立思辨意识和控制能力,只是单纯的对指令进行操作,不具有深度学习和神经网络功能。[2]如击败了当时世界排名第一的国际象棋大师加里·卡斯帕罗夫的“深蓝”机器人,依靠其蛮力“强记”,根据“固定”程序逻辑决策,穷极各种可能性进行筛选,选择其中最佳的策略,若卡斯帕罗夫可以预判10步,则“深蓝”可以预判12步。这些方法就目前来看虽然略显落后,但对于1997年的制造者许雄峰来说可谓是穷尽心血。
强人工智能产品,可以在程序范围内独立思考独立学习,根据程序的编码和计算独立的对事物具有辨别性、选择性,如战胜了韩国围棋大师李世石的AlphaGo机器人。[3]围棋与象棋不同,变数更多难度更大,每一步的可能性都无法穷极的列举,一回合有250种可能,而一盘棋可以长达150回合,甚至有很多围棋问题与现实生活中存在的问题都是紧密相通,中国文化甚至将围棋的对弈过程看作领悟人生的过程,要想在围棋对战中取胜,靠单纯地大数据分析然后筛选最优策略是行不通的,它对机器人提出了更高等级的要求,不仅要具有超强的记忆能力、逻辑思维能力,更重要的是要具有创造性和灵活多变性。在AlphaGo和李世石的对战过程中,聂卫平甚至表示在某些步数都想对AlphaGo的创世之举脱帽致敬,因为其“用不可思议的下法辟立了围棋常识之外的新天地”,这就充分证明AlphaGo的下棋模式需要深思熟虑,而不是单纯地靠数据复制或者生搬硬套,这也是人工智能在深度学习和神经网络方向迈进的跨越性一步。
超强人工智能产品已经超出设计和编制的程序,能够自主决策所实施的行为,最大程度地达到“人智模式”。[4]如果有一天超强人工智能与人类进行某种对弈或者活动的话,那么它完全有可能故意输给人类,这样的结果不禁会让人“毛骨悚然”。
(二)刑法主体界分
把人工智能产品作为像自然人或法人这种单独个体来讨论其刑事主体地位和刑事责任能力不是没有道理的。首先,它具有像人一样实行行为的能力。人工智能如果与人一样在具有思维意识和辨识能力的基础上实行行为,其与人最大的区别也只是人工智能不具有生命体征而已,但这并不影响其行为在法律中的定性,人工智能的出现不仅仅在生活工作领域给我们带来巨大变革,甚至很有可能让我们对它的认识上升一个层面。其次,就主观罪过的表现形式,可以分为故意与过失。故意是指明知自己的行为会发生危害社会的结果,而依然希望或者放任这种结果的发生;过失是指行为人在实行行为时应当预见自己的行为可能会发生危害社会的结果,由于其盲目自信或疏忽大意而致使这种结果的发生。人工智能产品因其独有的辨识能力和控制能力很可能会使其具有故意或过失的可能,所以人工智能的刑事主体地位和刑事责任能力的探讨并不是空穴来风,一味的将人工智能犯罪归结为意外事件欠缺妥当。我们不仅把人工智能当作一种工具来看待,还要逐渐认识到它在发展开发过程中的变化,认清其地位,甚至很有可能不断突破我们对现有事物的认知,就像“行为”有时不仅仅是人的专属动作,意识和思维也很有可能跨越人与动物的分界,因人工智能而对其产生新的定义,让我们产生新层面的认识。
人工智能产品根据其性能和所实施的行为是否具有自主性可以将其分为具有刑事主体地位和不具有刑事主体地位。[5]人工智能产品的刑事主体地位大多都与其智能化程度紧密联系,在弱人工智能和强人工智能产品中,由于其设计编制的相对弱智能化决定了其只能在指令和编制程序范围内从事相关活动与任务,虽然强人工智能产品相对于弱人工智能产品来说更加智能化,能够进行独立的深度学习和思考,但依旧是在程序范围内进行,就像AlphaGo机器人,自主学习能力再强,单位计算量再大,也只能在围棋领域天下无敌,随便换个领域,比如扑克牌、象棋、麻将,它就只是一堆废铁。弱人工智能产品和强人工智能产品只能是通过被研发者可以输入特定的程序让其从事非法活动或使用者更改其程序而达到自己违法的目的,所以这时的人工智能产品就不具有刑事主体地位,而应由其研发者或使用者承担相应责任,此时的人工智能产品更像是人类用来达到自己犯罪目的的工具与手段。
超强人工智能产品的超强智能化和在编制程序之外的独立意识让它具有更高的智商和多方位多角度的思辨能力,此时若人工智能产品具有了自主意识,不在应有的领域正常工作而滋生出其他违法犯罪目的,则由其本身承担相应的刑事责任,它就相应的具有独立的刑事主体地位。
二、对人工智能产品触及刑法风险的“管”
汽车等交通工具的产生,相应地道路交通法规应运而生;飞机的发明,相应地航空管理规定逐渐完善。人工智能产品的不断普及,需要相应的管理方法来对其加以约束和规制,使其在为人类服务、提供便利的道路上越走越远,尽量避免像霍金的科学预言那样给人类带来前所未有的困扰和灾难。这就需要对人工智能产品的管理上逐渐重视,建立相应的管理机制甚至是法律体系来对人工智能产品的研发者和使用者甚至是人工智能产品本身进行指导、教育和约束,并且要随着人工智能的发展与进步不断完善和健全管理方法和法律体系,即使人工智能时代,也要安全有序,在可控范围内不断良性发展。
弱人工智能产品和强人工智能产品由于其不具有刑法主体地位,不承担相应的法律责任,其智能化程度和独立思维程度也使其在进行某些行为和执行任务时具有一定的局限性。[6]归根到底还是研发者和使用者的问题,就像现代化武器再怎么先进再怎么自动,最终控制它的依旧是人。在这些领域中需要我们分清哪些是犯罪主体,哪些是行为手段,武器再先进也是由人来操控,最终也是给人定罪而不可能给杀人武器定一个罪名,必要时还可以在刑法分则中增加相应的罪名,来应对这种新型的犯罪方式或犯罪状态。
超强人工智能产品,其独立的思考能力和程序设计以外的思辨水平造就了其可能独立承担刑事责任,具有独立的刑事主体地位,这时的超强人工智能很有可能脱离人类对其的控制和束缚,学会独立深度学习,具有更发达的神经网络,这对超强人工智能产品的研发者和使用者提出了更高的法律要求和道德要求。在对它的研发初期就需要把现行的一些法律法规编制进其内部系统,使其能做到有法可依,而不是活在自己的世界里为所欲为,而且还要根据法律制度的不断完善相应的不断更新其系统,使人工智能产品与现代社会保持一致发展,落后或者脱轨都有可能使超强人工智能产品存在潜在的风险。对超强人工智能本身,随着科技进步应出台相应的法律法规来规定对其的定罪量刑。现在普遍存在的刑罚观点是删除数据、修改程序和永久销毁,我个人认为既然超强人工智能具有独立思辨能力,那么是否也应该像对人类一样科处刑罚来对其和其他人工智能产品产生预防、改正、教育作用,充分发挥它的独立思考能力,使其知道有所为,有所不为,达到惩罚为辅,教育为主的目的。人工智能产品其漫长的研发过程和昂贵的研发经费使其具有相对较高的价值功用,如果处以刑罚可以使其改正并达到很好的警示教育结果,那么依旧可以使其正常发挥作用,为人类造福,使我们的生活更加便捷、高效、智能。这就相当于我们肯定了超强人工智能的刑事主体地位,并把它当作人来看待,给予相应的惩戒和科处相应的刑罚,甚至在不远的未来,当超强人工智能问世并得到一定推广的时候,专门用来惩戒教育触犯刑法的超强人工智能产品的看守所或者监狱也会应运而生,通过专门针对超强人工智能的弱点进行处罚,使其能够“改邪归正”,重新步入正轨。
三、对人工智能产品触及刑法风险的“防”
在超强人工智能还没有真正给我们造成很大威胁的今天,我们提前准备、未雨绸缪,将届时可能发生的危险系数降到最低,是非常有前瞻性也是非常有必要的。如果将人工智能产品用于犯罪,那么会在危害国家安全、危害公共安全、扰乱社会秩序和危害他人人身安全等方面成为犯罪分子非常“得力”的帮凶。如果使用人工智能实施恐怖活动犯罪,无疑会给恐怖分子本身减少危险性,增加隐蔽性和秘密操纵性;若使用人工智能产品危害他人人身安全,则犯罪分子可以随意坐在地下车库、餐厅大堂甚至大学自习室里通过远程终端的控制达到其犯罪目的,凡此种种都是非常可怕而且会造成非常严重后果和恶劣影响的犯罪,更重要的是还会给侦查工作带来极大的难度,使犯罪分子很有可能在很长一段时间内逍遥法外甚至继续作案,危害社会。“君子以思患而豫防之”,与其等待结果的发生再去想办法解决,不如提早预防将其扼杀在萌芽里。在管理上对其规范,使其形成规则意识,约束自己的行为,在此基础上如果再从源头开始防控,将可能发生的犯罪形态扼杀在萌芽里,也许会起到事半功倍、锦上添花的效果。对于不具有刑事主体地位的弱人工智能产品和强人工智能产品,要相应的加强对研发者和使用者的管理力度,健全规范其行为的法律体系。人工智能产品本是无罪的,是为人类服务和带来便利的,不能让其成为某些不法分子违法犯罪的工具,因其高智能性而给侦查人员的侦查工作带来前所未有的困扰。让人工智能产品在合法有序的环境下研发、使用,不能带着“罪恶的使命”出生,如果将人工智能产品当作危害国家安全或危害公共安全的实行工具,那么其相比于人类实行的危害行为会给人类和社会带来更大的灾难,再加上其程序的提前编制和远程遥控,更加增强了真正的“幕后黑手”的隐蔽性,使现场取证、调查犯罪嫌疑人变得更加困难和复杂。
超强人工智能产品对于防范需要在原有的司法体系的基础上建立相应的规范管理人工智能产品的法律体系,对于具有独立刑事主体地位的超强人工智能产品,在研发初期就需要研发者和设计者在编制程序中加入现行法律法规,使其即使独立思辨独立选择,也能有法律意识,而且加以遵守,否则当超强人工智能产品犯罪时研发者和设计者可能承担过失责任。超强人工智能产品一旦具有独立学习独立思考甚至具有人类的智慧和灵性的时候,从某些角度来说是非常可怕的,它在单位时间内比人的计算量更大,拥有比人更强的力量和韧性,造成的危害比人类更巨大,对其严加防控,定期更新检查,如果前期发现其有违法犯罪趋势,可以提前更改程序或者修正数据,使其走上正轨,发挥其真正价值和作用。
四、思考与展望
人工智能是把双刃剑。人工智能产品自从问世以来为人类带来了诸多便利,时代在不断进步,人类文明也在不断发展。人工智能产品从面世到现在只有几十年的时间,对于一个领域来说只是处在前期的萌芽阶段,谁也不敢否定它会引起智能革命的爆发。前些年的无人机、无人驾驶汽车、机器人餐厅服务员的相继面世,到近些年智能冰箱、智能衣柜的出现,人工智能产品不仅所涉领域越来越广,而且与人们的生活越来越贴近,相信有一天它会像汽车、摩托车一样走进千家万户,发挥着不同的作用。在人工智能技术尚处于起步阶段时做好准备,谋划应对措施,若管控及时、使用得当,它将是我们人类的好帮手,甚至是人类文明发展进步的助推器;若不加防范,过度开发,人工智能可能是人类发展甚至生存的“拦路虎”。人工智能已经被开发利用多年并且其水平和智能化程度越来越高,它为人类所造之福是不可磨灭也是不可逆转的,既然已经存在,即使有潜在风险,我们应及时预防,从立法、司法、管理的多维角度来对其进行规制,使其按照人类的发展规律一直为人类所用。只要我们前期预防及时得当,使用过程中严加管理控制,完善现有司法体系,健全与人工智能产品相关的定罪量刑制度,使人工智能产品在良好有序的秩序下发展,就能避免很多不必要的麻烦和风险,打开人类司法文明和科技文明的新纪元。