APP下载

人工智能应用之刑法应对

2019-01-21李晓瑜

法制与社会 2019年1期
关键词:网络安全人工智能

摘 要 人工智能本质上是互联网技术发展的结果,须自觉完成与《网络安全法》的融合。人工智能应用首先必须遵守“机器人三定律”和伦德道德的约束,不得突破“保障人类安全、追求公共利益”、“故障透明且可追溯”和“尊重和保护个人隐私”等基本原则。人工智能犯罪是升级版的网络犯罪,其犯罪类型、犯罪构成及定罪量刑受现行刑法理论的调整,但对于恶意的、以犯罪为目的的滥用行为,建议在条件成熟时增设滥用人工智能罪,以期从源头上防控刑事风险。

关键词 人工智能 伦理原则 网络安全 滥用人工智能罪

作者简介:李晓瑜,中共郑州市委党校法学教研部讲师,研究方向:宪政法学、刑事法学。

中图分类号:D924 文献标识码:A DOI:10.19387/j.cnki.1009-0592.2019.01.097

一、人工智能发展现状

(一)人工智能概述

人工智能(Artificial Intelligence),简称AI,该名词于1956年首次被计算机学界提出,之后人工智能技术得以快速发展,并与基因工程、纳米科学并称为二十一世纪三大尖端技术。

通常认为人工智能是互联网技术发展的一个表现。北京师范大学的喻国明教授认为,互联网技术发展的上半场解决了网络化问题,大数据技术得以快速发展,使得用户的痕迹能够依托网络连接被精细化、动态化分类、描述,为互联网的下半场奠定了数据基础。面对个性化、分众化的消费升级和人类智能探索的需求,互联网的下半场突出体现为了大数据基础上的人工智能应用。可以说,人工智能是一门集合了哲学、计算机学、伦理学、数学、语言学、神经科学、法学等等多种学科特点的综合性学科,覆盖数据处理、机器学习、模式识别和智能算法等多重技术手段,主要应用在智能感知、智能推理与学习、智能行动等领域,具有强烈的创造性、精准性、自主性和交叉性。

随着AI技术的快速发展和资本推动,人工智能应用已进入“全面爆发期”,根据麦肯锡统计,人工智能全球风投已从2012年的5.9亿美元增至2016年50多亿美元,全球从事人工智能应用相关的企业逾6000家,而国内相关企业已达1000余所,数量上仅次于美国。预计到2025年,全球AI应用市场总值将达近1300亿美元。据统计,2017年国内AI市场产业规模已达300亿,2018年有望突破380亿,复合增长率近27%。截至2017年底,国内AI专利申请累计逾16000项,位居全球第二。目前国内AI产业主要集中于长三角、珠三角、京津冀地区,这三大集中区的企业数量约占全国总数的3/4强。

当下人工智能应用比较活跃的是AI芯片开发、无人汽车驾驶、智慧医疗、智能交通、智能投顾等领域。AI芯片开发目前仍由Intel、Google、IBM、高通等巨头为主,我国当前的芯片设计研发能力仍处于初级的开发探索阶段。美国无人驾驶的技术研发更加先端,但在行业应用中同样面临法律制度和交通基础配套设施、标识等滞后的问题。依托共享数据的人工智能医疗影像诊断、机器问诊、人工智能律师、AI金融客服、智能机器人陪护等应用,亦逐步深入市场。国内外知名高校科研机构如麻省理工、斯坦福、吉林大学等均建立不同类型、综合不同交叉专业的实验室、研究所,加快人工智能研发力度和人才培养。

(二)人工智能应用的伦理原则与法制探索

有学者曾将人工智能的发展形态分为弱人工智能、强人工智能和超强人工智能三种形态,并认为现阶段我们仍处于弱人工智能阶段,人工智能技术牢牢受到人类的操控和制约。著名的科幻作家阿西莫夫在《我,機器人》一书中曾提出“机器人三定律”,并得到全球公认:(1)机器人不得伤害人类,亦不得在人类受到伤害时置之不理。(2)机器人必须遵守人类指令,除非该指令可能违背第一条定律。(3)机器人得保护自己,前提是保护过程中不违背前两项定律。作家阿西莫的“机器人三定律”仅仅是科幻爱好者的一家之言,虽得到广泛认同,但毕竟不是经过国家法律认可的制度性规范或法治原则,同时也未能覆盖到当下人工智能技术开发中的“自主意识”、“自主能力”等新的伦理、法律问题。

2014年6月,欧盟启动《欧盟机器人研发计划》,2016年10月欧盟法律事务委员会发布《欧盟机器人民事法律规则》,初步指出人工智能民事法律问题框架。2016年9月英国下议院科技委员会发布《机器人学与人工智能报告》。2016年美国专门成立Nitrd人工智能专项小组,以政府名义要求大专院校将伦理学与人工智能、计算机科学和数据科学等作为整体课程,截至2017年底美国已有23个州制定40余部“自动驾驶汽车法案”。日本政府2015年发布《日本机器人战略:愿景、战略、行动计划》,亦重点强调人工智能与伦理法律的结合。随着2015年“中国制造2025”、2016年《机器人产业发展规划(2016-2020年)》、2017年《机器人行业白皮书》、《新一代人工智能发展规划》和《网络安全法》等国家级规划、法律的出台,人工智能技术与网络安全、伦理道德、法律监管的构建完善工作日益得到重视。

2016年,联合国教科文组织与世界科学知识与技术伦理委员会曾联合发布一份关于AI机器人发展与社会伦理道德的报告,分别从网络安全、隐私保护、诚信公平等方面进行了研究论证。2017年美国加州阿西洛马会议上多位AI领域专家联合签署了“阿西洛马人工智能原则”,要求人工智能的研究目的必须紧紧围绕“服务于人类并为人类所控制”,必须遵循“保障人类安全,追求公共利益”、“故障透明且可追溯”、“尊重和保护个人隐私”三项伦理原则。这三项原则成为目前人工智能发展与应用中被广泛遵守的基本原则。

二、人工智能与网络安全法的融合

诚如前文所述,人工智能是互联网技术发展的“下半场”,其本质是计算机技术之分支,人工智能应用也首先遭遇网络系统的安全问题,其法律治理首当其冲。以最受AI爱好者关注的无人驾驶为例,汽车的驾驶系统有可能遭遇来自云平台、移动端或者汽车端的网络黑客攻击,通过盗取账户密码等方式控制操作或改变设置,从而带来巨大安全隐患。2016年挪威某安全公司的工作人员就曾经通过入侵用户手机获取特斯拉APP密码,对用户车辆实施定位、追踪、解锁、启动等操作,导致车辆被盗。而在2016年美国总统精选中,巨量的政治机器人被用于精准信息推送和虚假新闻发送,直接影响选情。人工智能的应用越来越广泛,其网络安全规制迫在眉睫。

根据《网络安全法》和人工智能的特点,传统的人工智能网络安全主要聚焦于网络系统安全、计算机算法透明度与问责性以及网络数据隐私的保护等方面,而以人工智能硬件的属性、供应链责任承担等为基础的新生系统风险则直接面临与《合同法》、《网络安全法》等法律的融合问题。

(一)人工智能硬件应用生产者的主体资格

《网络安全法》将网络运营者纳入到网络安全法网当中,并分别规定了各自的权利义务。根据该法第76条的规定,网络运营商包括网络所有者、网络管理者和网络服务提供者三方,显然人工智能硬件生产者完全可以被排除在网络所有者和管理者之外,那它是否属于服务提供者呢?纵览《网络安全法》相关配套法规不难发现,我国《信息安全技术网络安全等级保护定级指南》将物联网明确纳入其中,认定物联网属于网络运营者。但是依照《网络安全法》对物联网中网络服务、产品的审核范围,其审核的对象主要集中为“重要产品”而非全部产品,所涉种类甚少,人工智能硬件作为物联网的组成部分之一,雖包含操作系统、内置CPU、传感器等技术,但并未有相关法律解释或配套规范明确其是否为“重要产品”之一,对此法律适用过程中不可任意作扩大解释,亟需相关部门从技术标准、评估认证、漏洞监测与披露等多个层面明确之。

(二)人工智能硬件应用的供应链责任承担

纵览《网络安全法》、《网络产品和服务安全审查办法》、《工业控制系统信息安全防护指南》等相关法规,关于供应链各方的责任承担问题规定得并不甚明确。依据《网络安全法》第76条第3款的规定,供应链中仅设计了网络运营者、产品服务提供者,而不包括供应商,如果人工智能硬件的生产者不具备《网络安全法》主体资格,则其当然也被排除在供应链之外。但从商品生产、流通的角度来看,生产者显然是产品交易过程的首要环节。以智能网联汽车为例,其供应环节中当然包括了车载操作系统、车载应用软件等智能硬件应用,当这些硬件应用出现重大系统安全风险时,如果是硬件生产者的明显过错所致,而仍将其排除在责任承担主体之列,显然与法治精神不符。

三、人工智能与刑法的因应

(一)人工智能犯罪是升级版的网络犯罪

2016年9月中国境内发生首起特斯拉无人驾驶汽车肇事致人死亡案件,2017年9月绍兴市破获的特大侵犯公民信息案被称为全国首例“利用人工智能犯罪”案件,刑法对人工智能的回应正式摆上了台面。但纵观人类犯罪史,犯罪的根源还是在于人自身,人工智能时代的犯罪归根结底是人类利用互联网科技的犯罪,是升级版的网络犯罪。

人工智能犯罪涵盖对人工智能犯罪和以人工智能为工具的犯罪两大类,尤其后者,使得传统的犯罪“插上了科技的翅膀”,通过对大数据的滥用或“欺骗”人工智能机器人,诱发犯罪后果的量变、增加预防难度。刑事法领域需要着力的一是对人工智能研发人员以犯罪为目的的或违背伦理道德的行为加以刑法规制,二是对人工智能应用过程中的配套的规则进行约束,如数据信息合法收集利用、道路交通规则严格遵守等方面的刑法规制。

众所周知,刑事犯罪依据犯罪主观方面划分为故意犯罪和过失犯罪两大类。以犯罪故意为主观方面的人工智能犯罪,如以犯罪为目的的人工智能研发者,在进行设计、编程时即将自己的犯罪计划植入计算机算法或程序中,依托机器人的程序化操作,一步步实现其诈骗、盗窃、杀人、间谍等犯罪目的。此时的人工智能就是典型的犯罪工具,其诈骗、盗窃、杀人、间谍等刑事责任自然应当由研发者承担,应当将智能机器人看作行为人实施犯罪行为的“智能工具”,所有刑事责任应当由智能机器人的研发者或使用者承担。以犯罪过失为主观方面的人工智能犯罪,突出体现作为无人驾驶汽车交通肇事等犯罪形态,人工智能机器人的操作者、管理者基于疏忽大意或过于自信的过失,未能尽到预见义务或者已预见但轻信犯罪结果能够避免,对此由人工智能的操作者在刑法明文规定的范围内承担相应的刑事责任。

(二)必要时增设滥用人工智能罪

人工智能的应用往往是为了应因人类的需求,尤其是高端智能机器人如2010年研发的生活伴侣机器海豹“帕罗”、菲比小精灵、机器人配偶等,甚至“帕罗”还获得了“户籍”。但是人工智能的应用也不排除被认为滥用的危险。如果人工智能的研发者、管理者不能严格遵守“机器人三定律”和伦德道德,为一己私欲利用人工智能实施危害国家安全、危害人类安全等严重犯罪时,该人工智能的研发、应用就犹如随时可能引爆之炸弹,后果不可估量。对此建议将其预备犯形态独立化,增设“滥用人工智能罪”,从源头上严控刑事风险。

参考文献:

[1]党家玉.人工智能的伦理与法律风险问题研究.信息安全研究.2017(12).

[2]刘宪权.人工智能时代的刑事风险与刑法应对.法商研究.2018(1).

[3]黄云波.人工智能时代的刑法机能.人民法治.2018(6).

[4]王肃之.人工智能犯罪的理论与立法问题初探.大连理工大学学报(社会科学版).2018(5).

猜你喜欢

网络安全人工智能
网络安全知多少?
我校新增“人工智能”本科专业
网络安全
2019:人工智能
网络安全人才培养应“实战化”
人工智能与就业
上网时如何注意网络安全?
数读人工智能
下一幕,人工智能!
下一幕,人工智能!