APP下载

人工智能治安风险及其防控研究

2021-01-06鲍柯舟

铁道警察学院学报 2021年4期
关键词:人工智能

鲍柯舟

(华东政法大学 刑事法学院,上海200042)

一、问题的提出

1956年,在美国达特茅斯学院开展的一场研讨会宣告了人工智能(Artificial Intelligence,简称AI)科学的起始。虽然在此后的几十年里人工智能的发展陷入了“寒冬”,但从20世纪90年代起,随着计算机硬件设施的进步、算法的演进以及机器学习技术的发展,人工智能的发展进入了“快车道”。1997年,IBM的计算机程序“深蓝”战胜了当时的国际象棋世界棋王加里·卡斯帕罗夫。2011年,IBM的“沃森”系统在电视问答游戏《危险边缘》中战胜了最厉害的人类玩家。2016年,谷歌DeepMind公司研发的人工智能系统击败了当时的围棋世界冠军李世石。2017年,在中国乌镇围棋峰会上,AlphaGo又与排名世界第一的世界围棋冠军柯洁对战,并以3比0的总比分获胜,在现今最复杂的棋类游戏——围棋的竞赛中,人类的“骄傲”再一次一败涂地。

2021年的今天,人工智能已经完全融入了人们的生产生活中。根据国家网信办公布的最新数据显示,截至2020年12月,我国网民的规模达9.89亿,其中手机网民的规模达到9.86亿,网民使用手机上网的比例达99.7%[1],智能手机作为生活中最常见的人工智能设备已经成为人们接受互联网服务的最重要媒介。此外,在社会生产领域,智能化生产逐渐取代传统人力的简单、重复劳动,在重庆福耀玻璃公司生产厂房,偌大的车间没有多少工人,从玻璃原料上片、搬运、磨边,再到成品下线的生产全过程,全都由一台台机械手臂自动完成[2],自动化生产大幅提高了传统制造业的生产效率和生产水平。在电子商务领域,算法和大数据分析成为商家和平台不可或缺的重要“法宝”,以大数据分析和算法为基础的人工智能程序自动为顾客筛选感兴趣的商品,从而大大提高顾客的购买概率。在移动支付领域,以指纹、人脸等特征为依托的生物识别技术已经逐渐成为移动支付中身份验证的常态工具,指纹识别支付、刷脸支付成为人们生活中重要的支付手段。毋庸置疑,人工智能的发展与应用给社会生活各领域都带来了颠覆性的改变和创新,一个全新的人工智能时代正在人类社会的发展进程中缓缓拉开序幕。

时至今日,人工智能已经成为人类社会发展的核心驱动力,但人工智能的发展在给人们的生产生活带来便利的同时,也隐藏着风险与危机。著名物理学家霍金表示了自己对于人工智能发展的担忧:全面化人工智能可能意味着人类的终结……机器可以自行启动,并且自动对自身进行重新设计,速率也会越来越快。受到漫长的生物进化历程的限制,人类无法与之竞争,终将被取代。在接下来的几十年里,AI安全风险防控研究将是人工智能发展的重大课题之一,也是国家与社会公众关注的重大热点问题之一。

二、人工智能的概念及界定

从语义上说,人工智能可以被界定为:人为创造的具有语言智能、数理逻辑智能、音乐智能、空间智能、肢体运动智能、交往交流智能、自身认知智能、人类环境智能和自然环境智能等一种或多种智能的行为主体[3]。当然,如果将该概念作为治安风险研究对象不免太过宽泛。譬如,最早的通用计算机“ENIAC”于1946年在美国宾夕法尼亚大学诞生,每秒可以运算5000次。“ENIAC”显然属于人为制造的具有一定数理逻辑智能的行为主体,但它绝不是人工智能治安风险的研究对象,研究一项早已被社会淘汰的技术产品所带来的风险毫无现实意义。因此,作为研究对象的人工智能概念需要被限定在一定的时间范围之内,即现实运用的或未来即将应用的人工智能技术。

对于作为研究对象的人工智能概念,学界一直以来存在一定的争议。部分学者认为人工智能研究仍然应当着眼于现实实践,将弱人工智能作为人工智能风险研究的主要对象,如马长山教授认为,应当将人工智能界定为一种智能增强的工具,其虽然具有人类所不及的自主学习、高速运算、逻辑思维能力,但仍然是通过人类输入的代码指令和数据算法进行运转,并不具备与人类智慧所匹配的自我意识[4]。而部分学者则认为人工智能的研究应当更加放眼于未来,将强人工智能也作为研究的对象,如刘宪权教授认为,科技的发展是呈爆炸式的,随着深度学习技术、神经网络技术、类脑智能技术等的发展,出现能够在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人并非天方夜谭。因此,我们应未雨绸缪,提前想好应对策略[5]。笔者比较赞同马长山教授的观点,即当前人工智能风险研究的对象应当以弱人工智能为主,原因如下:

首先,意志与意识的起源和产生是人类研究尚未涉及的领域,而在长期的人工智能研究特别是机器学习研究的过程中,人们对其赋予了过多的生物学意义,以至于人工智能产生意识的命题被太多人所深信。谷歌Robotics研究科学家Eric Jang近期发表博客,对机器学习中的某一仿生命题提出了质疑,设计反向传播的生物学可信替代方法压根就是一个错误的问题……尽管DNN叫做深度神经网络,并在多项任务中展现出了卓越能力,但它们本质上与生物神经网络毫无关联。机器学习领域的一个严重错误就是,对统计学工具和最优控制算法赋予了太多生物学意义……尝试使用生物神经元模型模仿DNN是落后的,就像用人脑模拟Windows操作系统一样①Eric Jang.Don’t Mess with Backprop:Doubts about Biologically Plausible Deep Learning.https://blog.evjang.com/2021/02/backprop.html。可见,机器学习意义上的“学习”与生物意义上的“学习”并不相同,现有人工智能的本质是优化的高阶统计学算法,只是借用了仿生的概念,从这个意义上来说,期待人工智能产生意识本身是一种虚无缥缈的幻想,因为现有人工智能的本质与产生意识的生物学大脑之间存在着天壤之别。

其次,讨论强人工智能的法律规制问题是没有意义的,因为一旦人工智能具有意识,首要问题是其是否愿意接受人类社会现有法律的规制与束缚。法律作为一种命令式的规范,本身是在权力观念的基础上产生和发展的,所谓命令就是有权者对其他人发出的、必须服从的意思表示[6]。而权力作为一种强迫力量,则是迫使他人按照权力拥有者的意愿行事的能力,被迫者在其他情况下并不会如此[7]。如果法律规范不依附于权力而存在,遵从法律的行为不会得到激励,违背法律的行为不会得到惩罚,法律实际上成了一纸空文。现有的最高权力形式就是国家主权,这也是现行国家法律能够有效的基础与保障,而国家主权则是一个国家政治力量、经济力量、军事力量、文化力量的集中体现。一旦进入强人工智能时代,这种权力格局会瞬间被打破,强人工智能具有人类无法企及的信息收集和处理能力、武力能力以及生命延续能力,从某种意义上说,强人工智能是一种超级生命体,具有人类不可抗衡的权力能力,因而其不可能愿意受到人类社会现行法律的规制与束缚。换言之,一旦进入强人工智能时代,人类面临的将是战争,在力量失据的情况下谈论法律规制是没有意义的。

因此,现有人工智能风险研究的对象应当以弱人工智能为主。事实上,作为人类高级工具的人工智能已经使得人类社会产生了翻天覆地的变化,相较于仍然存在于科幻作品当中的强人工智能威胁,弱人工智能带来的治安风险是目前更加急需解决的核心问题。

三、人工智能发展带来的治安风险

人工智能发展带来的治安风险,从其表现形式上区分,可以划分为以下三种:一是人工智能发展过程对于社会经济、政治、文化等领域造成的影响,并由此间接引起治安风险因素发生变化,导致相关犯罪的发生。二是人工智能可能成为犯罪分子利用的工具,犯罪分子借助人工智能技术从而产生严重的社会治安漏洞。三是人工智能本身在应用的过程中可能出现问题与漏洞,给不法分子留下可乘之机。

(一)人工智能发展带来的社会因素变动引起治安风险的发生

人工智能的发展必然会引发社会各个层面的巨大变动,巨大的生产力进步将会带来原有社会结构的崩溃与新兴社会结构的建立,恰如工业革命使得人类社会从农业社会迈向工业社会,人工智能的发展也会逐渐引领人类社会从工业社会向信息社会发展。在这样一种社会大发展、大变革的时期,类比工业革命时期的社会转型,很有可能带来新一轮的犯罪高潮与治安风险。

1.贫穷与失业危机

实证派犯罪学家的代表人物恩里科·菲利认为贫穷和失业是引发犯罪的最重要社会因素,失业与不断加剧的贫穷会影响一个人的情感并动摇其道德信念,进而容易引发侵犯财产犯罪与侵犯人身犯罪。人工智能发展的一个显著特征便是生产自动化的不断推进,这必然会取代简单、重复性的人力劳动,从而造成大量的失业问题。这些被人工智能所取代的体力劳动者,无法通过自己的劳动获得足以使自己和家庭生存的资源时,无疑会带来大量的财产犯罪与侵犯人身犯罪的增加,进而引发严重的社会治安风险。

2.经济不平等与阶级固化

经济不平等与暴力犯罪之间的联系是犯罪学文献中最稳固的研究结论之一。而默顿的紧张理论也证明了阶层固化对于社会治安风险的影响。对于社会下层阶级的人们来说,阶级固化意味着社会结构本身的限制,导致其难以通过勤奋与努力工作等制度性手段获取财富。这种“紧张”状态导致下层阶级的群体更多地选择非法手段进行财富的获取。

人工智能发展带来的不仅是生产力的飞速进步,同时也加剧了上层阶级与下层阶级之间的经济不平等与对立,下层阶级更难通过自己的努力实现阶级飞跃。首先,人工智能的发展带来的是极快的财富积累速度,但这并不代表着下层阶级拥有无穷的机会改变自己的命运,相反,只有掌握数据算法与资本财富的人才能从这场“游戏”中获利,经济上的不平等因此继续加剧。其次,技术权力的垄断加剧了阶级的固化,一条明晃晃的“数据鸿沟”展现在人类面前。随着人工智能的不断发展,数字经济成为时代的主流,掌握信息、数据、算法的技术权力者成为新的垄断者,下层阶级更难通过自己的劳动跨越所谓的“数字鸿沟”。毫无疑问,人工智能是一种新兴的、高效的、活跃的生产要素,它能够极大地提高社会生产力,但如果不对其加以规制,自由发展的结果即提升的社会生产完全由少数技术精英所占有,大部分民众都无法享受到人工智能所带来的发展红利,这显然进一步加剧了社会的阶层固化与贫富差距。最后,人工智能的发展可能使得大部分人逐渐沦为“无用阶级”,传统的政治、经济体制建立在人类个体的力量有限的条件下,占据更多资源的人无论自身存在怎样的想法,从个体本质上说他并没有超越其他个体的特殊力量,因而始终需要依靠其他个体的力量来维持社会的稳定发展,高位者需要其他个体为其创造生活的条件,亦需要其他个体的力量来维持其统治。人工智能的发展使得统治者逐渐不再需要依靠被统治者来维护自己的统治,他们可以依靠人工智能机器人进行生产,并作为军事力量实施打击,且不需要担心人工智能的忠诚与背叛问题。原本统治阶级与被统治阶级的对立统一关系被打破,阶级之间的对立与矛盾将成为社会的主流。从这三个方面来看,人工智能的发展可能加剧社会的经济不平等、阶级固化,经济不平等增加了暴力犯罪的发生概率,而阶级固化则使得下层阶级难以依靠合法手段实现阶级超越,转而谋求其他的非法手段来追逐期望得到的利益。

3.传统社会联系的减弱

特拉维斯·赫希的社会控制理论认为,任何人都是潜在的犯罪人,个人与社会的联系可以阻止个人进行违反社会准则的越轨与犯罪行为,当这种联系薄弱时,个人就会无约束地随意进行犯罪行为,因此,犯罪就是个人与社会的联系薄弱或受到削弱的结果[8]。

人工智能的发展无疑是对传统社会生活的一种颠覆,而这种传统生活方式的改变带来的是个人与社会联系的减少。首先,人们的工作方式发生了改变,特别是在新冠疫情的冲击下,网络办公、线上会议的工作模式逐渐兴起,人们可以运用互联网技术足不出户便与千里之外的其他个体进行合作与沟通,从而减少了面对面的互动与交流。其次,青少年的学习方式发生了改变,网课的出现使得青少年不需要被束缚在学校这个地点,在家也可以完成学习任务。当然,同时也减少了青少年对于学校的依恋以及与同龄人群体的交往机会。再次,娱乐方式的改变,人们不再向往传统的娱乐与业余爱好,转而沉迷于互联网娱乐,如短视频平台、网络游戏、虚拟现实游戏等等,社会上出现了更多的“宅男宅女”,他们很少与其他人进行交往,从而与社会的联系较为薄弱。最后,人们的交流方式发生了改变,智能手机与其App的趣味性能够很好地占用人们的碎片化时间,微信等即时通信工具提供了人们不需要面对面交流的条件与便利,人与人之间的现实交流正在变少,即使是身处同一个家庭与环境当中,智能手机也占据了个体生活的大部分时间,导致传统社会生活联系的减少。从社会控制理论的角度来说,这种社会联系的减少意味着个体更少地受到社会准则的限制与约束,从而更有可能实施犯罪行为。

(二)人工智能可能成为犯罪分子利用的工具

人工智能的不断发展不仅提升了社会生活与生产的技术水平,也提升了犯罪分子的技术水平。犯罪分子借助人工智能技术,不断升级犯罪方式,扩展犯罪领域,形成严重的社会治安漏洞。

首先,人工智能技术的发展带来了一系列的新型犯罪形式,犯罪分子通过人工智能技术可以实施人们原本无法想象的犯罪。以“深度伪造”技术为例,“深度伪造”技术是指对图像、视频和音频进行超现实的数字伪造,该技术不仅被应用于“色情视频”的改头换面之上,还被不法分子当作操纵公众舆论的利器应用于政治言论与国家安全领域。2020年,美国众议院议长南希·佩洛西一段被“深度伪造技术”篡改的视频在Facebook上广泛流传,在一定程度上达到了利用数字工具干预选举的效果。人工智能“深度伪造”技术的运用将网络虚假信息推向了新的深度,难以证伪的报道、虚假信息可能会掩盖并代替真相,从而造成社会信任衰退效应,并很可能被用于未来的信息战与技术战之中[9]。

其次,人工智能技术的发展降低了传统犯罪的门槛,人工智能的辅助使得原本具有较高技术难度和要求的传统犯罪变得简单,造成了犯罪主体的泛化。以侵入计算机系统犯罪为例,此类计算机犯罪本来对于犯罪人的计算机技术水平有一定要求,但网络爬虫技术的发展与应用打破了这一局限,作为通过一定程序和脚本能够自动从互联网检索、提取、收集数据的技术行为,爬虫程序具有高效、便捷获取数据的能力,犯罪人即使对计算机技术并不精通,也可以通过对爬虫程序的简单运用从互联网中爬取大量的数据,并且这种爬虫自动爬取数据的过程非常轻松,只需要进行简单的指令性操作,便可以由爬虫程序进行自动的数据爬取,犯罪人的犯罪行为难度与犯罪技术要求大大降低。

最后,人工智能技术的发展在互联网世界形成了一条非法的黑灰产业链,典型的如上游进行非法的数据获取与交易,如利用爬虫程序在网络上进行数据爬取;中游通过利用非法获取的数据实施电信网络诈骗、开设赌场等手段进行牟利,其中人工智能程序可以进行账号匹配与自动拨打,甚至进行简单的语音话术应答;下游利用支付通道“洗白”资金。上、中、下游的划分只是一种产业链的划分形式,现实中的犯罪集团可能横跨这三个阶段,并由不同的团队对不同的业务进行负责,上下线之间不了解各自的情况,从而大大提高了犯罪的隐蔽性并降低了受害人的警惕心理。

(三)人工智能本身在应用的过程中可能出现的问题与漏洞

人工智能作为一种新兴技术,本身存在着一定的不完善之处,特别是面对纷繁复杂的社会事务,即使人工智能具有远超人脑的信息处理能力与运算速度,也难免出现错误,而对于越来越依赖人工智能系统进行生产、管理、决策等社会活动的人类而言,每一次人工智能错误都意味着社会资源的消耗与浪费,这无疑是社会风险的一种表现形式。

首先,作为人工智能运行逻辑的算法难以达到完美的境地,在大量的算法交互过程中难免会出现问题与错漏。最典型的例子即“算法错误”,2010年5月,由于华尔街程序性交易对于计算机算法的极大依赖,当计算机算法产生问题时,美股陷入了“闪电崩盘”,万亿市值瞬间蒸发。类似的“算法错误”还发生在2011年4月的亚马逊书店,在算法的错误自动比价下,书店中一本研究遗传学、晦涩难懂的旧书《苍蝇的成长》(The Making of a Fly)的售价在几天内飙升到了2400万美元,远远超过了其市场价值。此外,自动驾驶作为人工智能技术应用的热点领域,也存在着频发的安全隐患。2018年3月19日凌晨,Uber公司一辆自动驾驶汽车在亚利桑那州坦佩市撞死了一名横穿马路的妇女,而此前Uber的自动驾驶汽车还发生过37起撞车事故,只是当时没有产生严重的事故后果,因而未引发社会的广泛关注。

其次,由于人工智能技术的发展还只是刚刚起步,在应用与产品构建领域仍然存在缺陷,犯罪分子利用这一些缺陷与漏洞通过技术含量并不高的方法实施犯罪,最典型的案例发生在人脸识别领域。上海市虹口区人民检察院公诉的一起特大虚开增值税普通发票案中,犯罪嫌疑人利用从他处购买的高清头像及身份证信息,并将其“动起来”,形成点头、摇头、眨眼等人脸识别验证动作,破解了多款用户量巨大的App人脸识别系统。通过破解手机应用的人脸识别系统,犯罪嫌疑人以注册“皮包公司”的形式虚开增值税发票,价税合计超过5亿元。事实上,类似的案件并非第一次发生,早在2019年,浙江衢州已经发生了破解“人脸识别”案件,并且犯罪人的学历水平与技术水平都不高,仅仅依靠在互联网上的自学就掌握了“破解技术”。显然,在人工智能技术尚未成熟的今天,其应用领域还存在着大量的缺陷与漏洞,给不法分子留下了可乘之机。

四、人工智能治安风险防控的建议

2017年国务院发布的《新一代人工智能发展规划》中提出,人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视其可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展①国务院关于印发《新一代人工智能发展规划》的通知,载中华人民共和国中央人民政府网:http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm。。

(一)依托技术设计构建安全可靠的人工智能系统

一个安全可靠的人工智能系统是防止其引发社会治安风险的前提,由于人工智能系统所具有的高度复杂性与技术性,必须通过技术手段对人工智能系统的行为范围与行为内容进行严格的限制,具体包括运用技术手段探索搭建人工智能法律与伦理治理框架以及建立完整的人工智能安全标准体系。

1.探索搭建人工智能法律与伦理治理框架

由于人工智能系统的复杂性与不可解释性,人工智能的法律与伦理治理需要法律、伦理规范和技术方案之间的耦合与交融。目前,学界的主要理论仍然沿用传统的法律规制思路对人工智能技术所产生的风险后果进行规制,这仍是一种立足物理空间规则立场的外在的规制,没有进入新业态的运行逻辑内部,规制的是代码和算法的后果,而非代码和算法过程的本身,难以从根本上达到人工智能风险预防与控制的效果[10]。因而,需要进一步探索如何采用技术设计让人工智能自动运行于合法性的框架之内,通过将法律规则、伦理规范转换为代码,写入人工智能的设计框架中,再通过代码规制代码,从而达到法律规制与技术设计的深度融合。“经由设计的伦理”(Ethics by Design或者Ethical by Design,简称EbD),作为欧盟率先提出的人工智能治理理念已经得到了越来越多的认同,EbD强调未来需要通过标准、技术指南、设计准则等方式将伦理价值和要求转化为人工智能产品和服务设计中的构成要素,将价值植入技术,从而保障人工智能技术发展的安全性。

2.建立完整的人工智能安全标准体系

2020年7月,国家标准化管理委员会与中央四部门联合印发了《国家新一代人工智能标准体系建设指南》,强调了建立人工智能安全标准体系的重要性。目前,国内人工智能安全相关标准主要集中在生物特征识别、自动驾驶等部分领域的应用安全标准,以及大数据安全、个人信息保护等支撑类安全标准,而与人工智能自身安全或基础共性直接相关的基础安全标准还比较少。完整的人工智能安全标准体系应当包括人工智能基础性安全标准、人工智能数据、算法和模型安全标准、人工智能技术和系统安全标准、人工智能管理和服务安全标准、人工智能测试评估安全标准、人工智能产品和应用安全标准六个方面,涵盖人工智能技术理论、研究至应用的各个方面[11]。建立完整的人工智能技术安全标准体系有助于减少人工智能本身在应用的过程中可能出现的问题与漏洞,特别是人工智能测试评估安全标准。通过测试类安全评估的提前进行,能够最大限度地减少人工智能本身在应用过程中可能出现的问题与漏洞。

(二)加强对具体人工智能应用领域的法律规制

加强法律规制是通过法治手段应对人工智能治安风险的必然选择,完善人工智能相关立法是法律规制的必然要求。目前,我国的相关立法工作仍处于起步阶段,2016年11月7日,《网络安全法》通过全国人大常委会审议,于2017年6月1日实施,是人工智能安全相关立法的开端。此外,《数据安全法》《个人信息保护法》的制定纳入了2021年全国人大的重点立法工作计划,其中《数据安全法》于2021年6月10日正式通过全国人大常委会审议,意味着人工智能相关法律的进一步完善。当然,由于目前学界对于人工智能相关的概念与法律问题仍没有形成通说,人工智能应用的实践也尚未达到成熟的地步,因此为保障法律的安定性与权威性,相关立法工作的推进还比较缓慢,更多是通过政策文件的方式对具体的人工智能应用领域进行探索和规制。例如,国家互联网信息办公室出台的《数据安全管理办法(征求意见稿)》《网络信息内容生态治理规定》,以及更为具体的《常见类型移动互联网应用程序(App)必要个人信息范围规定(征求意见稿)》等文件,均对特定领域人工智能的应用划定了边界。

由于现有的弱人工智能并不具有“主观意识”,因此防控利用人工智能技术进行犯罪的行为并不需要重构一个以“人工智能”作为法律主体的刑法体系,而是需要加强对具体人工智能应用领域的法律规制。以数据安全立法为例,大数据是促进人工智能进行深度学习的基础所在,大数据驱动学习也是未来人工智能的发展重点之一,在人工智能的时代,数据不仅仅是计算机程序中的一串字符,也转变成一种资源、一种重要的生产要素。从本质上说,数据风险是人工智能治安风险的基础风险,体现在以下两个方面:第一,人工智能黑灰产业链的上游犯罪是非法数据获取与交易,没有上游的非法数据获取与交易,中下游的犯罪难以为继,在大量利用人工智能进行网络诈骗的案例中,正是因为有上游的数据获取、数据撞库、数据销售等环节,中下游依托数据进行的网络诈骗犯罪才得以进行。因此,全面打击人工智能黑灰产业链的关键在于对上游的非法数据获取与交易进行精准打击,压缩利用非法数据牟取非法利益的空间。第二,人工智能技术的运用需要以数据作为支撑,上述案例中,“深度伪造”技术的实现需要收集足够真实的信息样本才能运行。而人脸识别破解案例中,犯罪分子也是通过非法购买的他人的高清头像和身份证信息对人脸识别系统进行破解。因此,数据安全在人工智能治安防控中起到基础性的作用。

目前,非法数据获取和交易的原因主要在于数据的权属和开放利用模式不明确,因此,预防类似案件的发生需要多个相关部门法之间的配合,从而形成一种“私法赋权、公法规制”的法律规制体系。非法数据获取和交易涉及的法律部门主要包括民法、竞争法和刑法,其中,民法看重数据的隐私保护和商业利用价值,重视事前对数据“赋权”以制止非法数据获取与交易的侵权行为;竞争法着重数据竞争秩序建构,重视事后对竞争利益损害进行追认以制止非法数据获取与交易的不正当竞争行为;而刑法偏重网络数据安全保护,重视事后对非法数据获取与交易的法益侵害进行认定以惩罚犯罪。

此外,遏制非法数据获取与交易的另一重要途径即拓宽合法的数据交易渠道,探索建立更加高效有序的数据合法交易规则。2015年4月14日,全国首个大数据交易所——贵阳大数据交易所正式挂牌运营并完成首批大数据交易[12],发展到今天,国内已经建立了十余家大数据交易平台与中心。但现有的大数据交易市场还不够成熟,由于缺乏统一的数据交易规则,各大数据交易所的发展逐渐陷入瓶颈,自2018年以来大多数机构都不再对外公布数据交易量和交易额,而就发布的数据交易成绩而言,大多数数据交易机构的成绩并不理想,以贵阳大数据交易所这个“明星项目”为例,据其官网披露,从2015年4月开业到2017年10月,累计交易额1.2亿余元,交易框架协议近3亿元,发展会员超1500家,接入225家优质数据源,可交易数据产品近4000个,可交易数据总量超150PB(1PB=1024TB)。到2018年3月,会员数量突破2000家,此后便再也没有新的交易规模被公布。与之相比,仅联想集团一家企业就拥有超过12PB的数据,每日新增的数据量超过30TB,贵阳大数据交易所掌握150PB的数据总量并不算高[13]。显然,在数据交易需求难以通过合法渠道予以满足之时,自然会催生大量的非法数据获取与交易行为。因此,国内需要继续推进大数据交易市场的建设,探索建立更加高效、有序、统一的数据合法交易规则,推动数据交易朝合法有序的方向蓬勃发展。

(三)重视人工智能发展带来的社会因素变动

最好的社会政策就是最好的刑事政策,人工智能的发展必然会引发社会生产、生活领域的巨大变动,必然要求我们调整相应的社会政策以积极应对出现的社会问题,从而避免在人工智能技术发展所引起的社会结构解组与重构过程中产生迪尔凯姆所称的“失范”现象。

首先,针对人工智能引发的失业危机,国家必须做好准备以及相应的保障措施,一方面,在未来人工智能引发的产业升级中,需要准备好相关劳动者的再就业或福利救济政策,以应对大规模失业潮的出现。另一方面,让教育与培训体系紧跟人工智能发展的时代步伐,将人工智能的相关知识体系纳入基础教育的范畴,培养中小学生的人工智能基础思维与素养能力;优化高等学校人工智能科技创新体系和学科体系,聚焦并加强新一代人工智能基础理论和核心关键技术研究,完善人工智能领域人才培养体系,重视人工智能与计算机、控制、数学等学科专业教育的交叉融合,培养多元化、跨学科人才。同时,做好公众再教育、再培训工作,提升公众基本的人工智能思维与素养能力,教育公众理解关于人工智能的核心概念;密切监测劳动力市场的变化,为过渡期劳动者提供技能培训支持,从而使其能够尽快适应人工智能发展带来的新兴劳动力要求。

其次,针对人工智能发展可能加剧的经济不平等与阶级固化,必须始终秉承“公共福利”的发展理念,构建人工智能的伦理与道德观念,防止其成为少数精英阶层掠夺公共财富的工具。对此,欧盟在“建立与人工智能发展和应用相适应的法律和伦理框架”的探索与实践中走在了世界的前列。根据欧盟制定的《可信AI伦理指南》(Ethics Guidelines for Trustworthy AI),可信AI必须具备合法性、符合伦理、稳健性三个特征,其中稳健性特指从技术或是社会发展的角度看,AI系统应是稳健可靠的,否则,即使AI系统本身合法且符合伦理,也可能因“算法漏洞”等技术缺陷的问题产生治安风险。为保证可信AI的实现,欧盟特别强调人类的能动性与监督、AI的透明性以及AI安全评估三个方面的内容。首先,AI必须有助于人类行使基本权利并且受到人类的监督,包括AI系统的每个决策、设计、使用周期都可进行人为干预。其次,透明性强调应确保AI决策的数据集、过程和结果的可追溯性,保证AI的决策结果可被人类理解和追踪,并且当AI决策结果将会对个体产生权益上的重大影响时,必须赋予个体知情并得到合理解释的权利。最后,与人类产生交互活动的AI活动应当进行定期评估,确保AI系统在全生命周期内安全、稳健、合法且符合伦理地运行,并最终造福于人类。《算法责任与透明治理框架》(A Governance Framework For Algorithmic Accountability and Transparency)是由欧洲议会未来与科学和技术小组(STOA)发布的一份关于算法透明和责任治理的系统性研究报告。报告在分析算法系统为社会、技术和监管带来的挑战的基础上,为算法透明度和问责制的治理提出4个不同层次的政策建议,包括提供公众的算法素养、公众部门建立算法问责制、完善监管和法律责任制度、加强算法治理的国际合作[14]。

最后,针对人工智能带来的个体的社会联系减少问题,需要在民众心中树立物质第一性、现实世界大于虚拟世界的基本世界观与价值观,防止其沉迷于人工智能建构的虚拟世界不可自拔。特别是对于青少年而言,他们的三观与心智尚未成熟,对于诱惑的抵御能力较弱,很容易陷入人工智能建构的虚拟世界不能自拔,因而需要完善推行相关的网络防沉迷规定,让青少年更多地回归现实世界中。此外,既然传统的社会生活方式已经被打破,人工智能构建的虚拟世界不可逆转,那么势必需要在传统的社会联系被削弱之后,重构一种新的社会联系体系,使之能够替代传统的社会联系发挥作用。

(四)加强人工智能治安风险防控的协作与交流

1.统筹联合国内的人工智能安全实践

目前国内的人工智能安全实践主要集中在各大高校以及相关的互联网企业,如清华大学针对人工智能对抗性攻防的问题,研发了涵盖系统、算法、应用三个标准程序库层次的RealSafe算法平台。猎户星空则自主研发了人工智能自动化训练平台,主要应用于人工智能训练数据的安全管理。此外,IBM、深信服、360、阿里巴巴、华为等公司也拥有自己独特的人工智能安全实践。但总体来说,现有的人工智能安全实践还停留在高校或公司“各自为战”的层面,且各具特色,根据个体的定位不同侧重于不同的安全方面,尚未形成统一的人工智能安全联盟。而在德国,早在2017年3月24家企业已经组建“德国人工智能协会”为行业利益发声,其中包括妥善应对伦理风险等负面影响。因此,国内的高校和公司如果能联合起来,不仅可以规范整个人工智能产业的发展,还可以通过分享不同的经验提升整个行业的安全防控水平。在政府的牵头领导下,形成全社会整体统一的人工智能安全防控系统。具体应由政府主导人工智能安全的发展战略,将人工智能安全上升到国家安全高度,一方面为推进人工智能内容安全发展提供法律法规、安全风险、政策指导、资源配置、行业准则等方面的保障。另一方面制定分阶段发展战略,目标清晰,从科研立项、智能经济到智能社会全面布局,加强指导性与执行力[15]。

2.加强人工智能安全风险防控的国际协作

随着数据交流与网络安全合作的增多,人工智能安全风险防控问题已然成为国际关注重点,无论是欧盟采取的侧重立法和监管的路径,还是美国采取的轻监管、促创新路径,都值得我国进行借鉴学习。目前,部分国家和地区已经通过立法等形式为国际合作提供政策支持。例如,欧洲25个国家签署了《人工智能合作宣言》,承诺开展合作、促进对话,争取就各国之间的AI研究与应用合作达成一致,还通过联合声明等方式促进优先领域的立法合作,包括数据保护、伦理标准、数据权利等重点问题[16]。除了人工智能伦理与法律治理理念开展国际合作、制定国际规则外,由于数据的流动性与互联网技术的国际互通性,越来越多的跨国犯罪依托人工智能底层技术的发展而猖獗,加强国际警务合作与交流也是防控人工智能治安风险的应有之义。随着全球化的进一步推进,人工智能技术安全风险防控必然是未来国际合作与分工重大命题之一,我国需要积极参与,吸收借鉴欧盟、美国等人工智能主要“玩家”的先进经验,同时输出我国的治理理念与防控经验,主导人工智能安全风险国际治理和国际规制的制定。

猜你喜欢

人工智能
我校新增“人工智能”本科专业
用“小AI”解决人工智能的“大”烦恼
人工智能之父
当人工智能遇见再制造
2019:人工智能
AI人工智能解疑答问
人工智能与就业
How realistic is the film’s artificial intelligence
人工智能,来了
数读人工智能