准人工智能的法律主体资格问题研究
2019-11-18曹伟邵建鹏
曹伟 邵建鹏
随着大数据、云计算等新兴技術的快速发展,人工智能技术也进入了一个全新的时代。有理由预见,在不远的将来,交通运输、医疗、看护、工业和服务业等诸多领域出现各式各样的智能机器或者智能机器人,成为人类社会中司空见惯的事物。与此同时,与人工智能相关的法律问题也在学界引起了热议,包括人工智能的民法地位、民事侵权责任、知识产权问题等,其中人工智能的法律主体资格是研究相关法律问题的基础及核心。只有明确了这一问题,构建出人工智能法律制度的基础框架,才能够进行其他方面的法律规制研究。
随着人工智能技术的不断发展,其对现有法律制度的冲击越来越大。本文从人工智能的运行机理入手,总结了人工智能发展中的四个特征:具有强大运算能力、具有交互功能、按照预设规则运行、自主学习并独立运行。现有的人工智能技术往往具备前三个特征,但还不具有自主思考、自主学习、自主运行的能力,故称之为准人工智能时代。因此综合技术与法律两个方面,目前的人工智能并不具有法律主体资格。另外,随着人工智能的后续高速发展,我们要重点关注数据的产权定性、数据的使用规则、人工智能研发的规范引导三个方面的规制。
人工智能的技术溯源
现有学说大多从法律规制层面分析人工智能法律主体资格的实质,但这一研究路径很难给予有效的理论支撑。具体来说,目前学界主要把研究重点放在能否把人工智能嵌入到现有法律体系当中,来判断其拥有法律人格的必要性、正当性、有效性及操作性,进而分析人工智能的法律主体资格问题。这看起来似乎符合法学推理逻辑,但是这一研究方式却缺少一个关键的论证基点,即人工智能的本质属性,如果不将这一关键问题进行明确,那么其后的任何研究都可能会成为空中楼阁。因此,分析人工智能的运行机理,从技术源头来探寻其基本属性,将是研究人工智能法律主体资格问题的基础。
现阶段人工智能的运行机理,核心在于运算,而运算的核心是算法。第一,从学科分类的角度来看,人工智能属于一级学科“计算机科学技术”下属的二级学科,与之并列的二级学科主要有计算机软件、计算机工程和计算机应用等。因此人工智能作为计算机技术的一个分支,尽管其具有模式识别、自然语言处理、神经网络以及计算机感知等多项技术与应用,但其本质仍是计算机的一种表现形式。第二,目前人工智能技术的应用,其运行模式主要是机器人根据人类预先设定的规则进行运算并施诸于机器,进而完成相应的交互活动。这种规则在计算机领域被称为程序,程序大多表现为我们所熟知的计算机软件。因此,人工智能的运行模式主要是通过计算机软件这一“大脑'指挥人工智能机器硬件这一“身体”,来实现一系列的智能活动。由此不难发现,人工智能所进行的智能活动只是表象,真正的运行核心是起到决定性作用的计算机软件。第三,计算机软件主要分为四个层次:算法层次、源代码层
次、目标代码层次、可执行指令层次,这四个层次彼此独立。其中算法作为起点,构成此后各种代码的基础,也是软件的精髓所在,算法作为人的一种构思,其作用在于提供解决方案以实现软件的技术功能,并围绕这一核心构造一整套技术体系。
根据上述分析,我们可以总结出现阶段人工智能的运行机理:根据算法编写计算机软件——计算机软件进行运算而指令硬件一硬件根据指令进行交互活动。因此,目前的人工智能从技术运行角度来看,是一种按照人类预设规则来运行、具有强大运算能力、具有交互功能的机器。
准人工智能时代
人工智能的发展可以总结为四个特征:具有强大运算能力、具有交互功能、按照预设规则运行、自主学习并独立运行。现有的人工智能技术往往具备前三个特征,但还不具有自主思考、自主学习、自主运行的能力。目前我们看到所有标志性的所谓人工智能的应用,均不拥有第四个特征,也即都不是真正的人工智能,因此可称其为准人工智能。
最近大热的无人驾驶汽车,其实质就是在车和道路周围安装探头进行探测,通过收集反馈视频信号和电波来判断与周围障碍物的距离,以此来控制车辆加速、减速或者刹车。与传统的人机交互相比,比如早期的键盘鼠标,以及发展到后来的语音、图像、视频,无人驾驶汽车的亮点仅在于交互手段有创新,其所体现的智能仍未达到自我判断、自我学习的程度。因此,无人驾驶汽车并不具备真正人类的智能,只是人类创造的一种智能机器而已。
与无人驾驶汽车相似,天才棋手、诗人小冰等众多人工智能也只是按照预设规则进行交互活动的智能机器,它们并未达到真正的人工智能标准。真正的人工智能,是指能够自行创设规则,能够自主思考、自主学习、自主运行,能够不按照人类预设规则进行活动的智能。目前的人工智能显然还没有达到这一标准,因此我们可以把现阶段称为准人工智能时代。准人工智能的特征可以概括为:一是具有强大的存储运算能力,二是具有创新的交互方式,三是必须按照预设的规则运行。
准人工智能的法律主体资格
现阶段的人工智能不是真正的人工智能,不具有类人的智慧,而只是按照人类预设规则运行的一种智能机器。换言之,它只是人类发明的一种高性能、高效率工具,虽然在某种程度上具有较高的智慧,甚至有时这种智慧程度已经超越了人类,但此种智慧同人类特有的智慧是完全不同的。因此,根据我国现行的民法制度,目前的人工智能并不具有法律主体资格。
(一)图灵测试的局限性
尽管图灵测试在计算机史上具有划时代的意义,但图灵测试却有着强烈的时代局限性。图灵测试是指测试者(人)与被测试者(机器)在相分隔的情况下进行对话,如果超过30%的测试者不能分辨出被测试者是机器,那么这台机器就被认为具有了人类智能。图灵测试有两个局限:一方面,它出现在1950年,彼时的技术与现在相比有着天壤之别;更重要的是,图灵忽略了拥有真正人类智慧的人工智能可能不会按照人类的预设规则进行活动,反过来说,如果一个机器是真正的人工智能,那它可能不会让人类知道其已经具有了人类智慧,完全可以将自己隐藏起来。从上述两个方面来讲,图灵测试具有一定的局限性。
(二)阿西莫夫三原则的浪漫幻想
被称为“机器人之父”的科幻小说作家阿西莫夫提出的阿西莫夫三原则,对现代机器人的发展产生了重要影响,但是此种原则难免有些浪漫幻想的色彩。三条原则分别为:一是机器人不得伤害人类;二是机器人必须服从人类的命令,除非这条命令与第一条相矛盾;三是机器人必须保护自己,除非这种保护与第一条、第二条相矛盾。事实上,该原则在现实中并未被成功的遵守,在最近发生的波音737MAX事故中,人类驾驶员努力尝试拉起飞机,但是由于飞机自动驾驶的优先级远远高于人类驾驶员,导致驾驶员无法进行正确操作,最终造成灾难。可以发现,阿西莫夫三原则较为理想化,很难被付诸实际且特别容易被规避,因此该原则实为一种浪漫幻想。
现阶段的法律响应
尽管现阶段还处于准人工智能时代,人工智能还不能被赋予法律主体资格,但是由人工智能技术带来的一系列问题,仍需要法律进行规制。目前较为急迫的主要有三个方面:一是数据的产权定性,人工智能所产生的数据是特别巨大的,如此大规模的数据如果不能够明确合法的产权归属,那么势必会造成数据信息系统的严重混乱。二是数据的使用规则,目前数据的非法获取、非法买卖以及非法泄露等问题尤为突出,严重地影响着人们的数据安全,因此要严格规制。三是人工智能研发的规范引导,要确保研发场所、研发活动、研发后果可控,形成一整套严密的监管体系,确保人工智能的发展在可控范围之内。
另外,随着科技的不断发展,人工智能技术很有可能在未来的某一天拥有第四个特征——自主学习并独立运行,那么人类将迎来真正的人工智能时代。如果这一天变成现实,人工智能拥有类人的智慧,具备同人类一样的独立思考的能力,那么届时人工智能能否获得法律主体资格,这一问题将变得更为复杂。
在现有基础上,如果人工智能具备了人独立思考的特质,那么人工智能的法律主体资格可能将不仅仅是由人类来决定,可能还需要人类与人工智能进行协商来决定。届时,除了法律主体资格问题,对于涉及到人工智能的其他法律问题,我们可能也将面临非人类单方面决定的局面,人工智能很可能会提出自己的意见,甚至是单方面进行新的定义。这一问题,值得学界进行深入思考。