APP下载

强人工智能机器人的主体地位及其法律治理

2022-02-17张新平

中国科技论坛 2022年1期
关键词:行为主义载体伦理

张新平,章 峥

(1.中南大学法学院,湖南 长沙 410000;2.中南财经政法大学法治发展与司法改革研究中心,湖北 武汉 430073)

0 问题的提出

近年来,伴随人工智能新技术的迅速应用扩张,强人工智能机器人的主体地位及其法律治理问题成为理论和实务共同关注的热点话题[1-2]。自1956年 “人工智能”被达特茅斯学院会议正式确立为一个研究学科以来,其发展与治理历经起伏[3]。进入网络社会以来[4],社会生活生产与社会治理的技术化、复杂化和智能化程度空前提升[5],如何对人工智能机器人等新技术进行法律治理,使其从陌生的、可能有危险的东西转化为能融入现代文明的驯化之物日渐被关注和重视。

所谓人工智能机器人,是指能够像人一般完成某项任务的算法、衍生数据及其物质载体的嵌合体。根据实现意志的不同,人工智能机器人又被分为强人工智能机器人和弱人工智能机器人[6]。所谓强人工智能机器人,是指依托一定物质载体、算法进行自主认知、决策、行为,能产生相应数据并进一步进行行为,具有自我辨认能力和控制能力的机器人。强人工智能机器人既可完成设计者/编译者的意志,也可超出程序设计/代码编译范围,进行自主控制与自我决策,实现其自身的意志[7],它具有鲜明的物质载体独立性、算法黑箱性、数据隐私性特征。①物质载体独立性。强人工智能机器人必须依托一定的物质载体,若智能产品仅为独立程序软件,其因无承载性必然不属于强人工智能机器人,独立的物质载体是强人工智能机器人区别于一般软件程序的标志。②算法黑箱性。强人工智能机器人必须依托一定的算法才能独立收集、分析信息,做出决策行为,其内含的算法是对人类意识产生机制的模拟,具有复杂性。③数据隐私性。强人工智能机器人通过同环境交互,能独立收集信息,该信息以数据形式储存在其独立物质载体中,其性质恰如记忆之于人类,对强人工智能机器人的价值判断与选择产生深远影响,外力修改、删除强人工智能机器人数据的行为将存在伦理障碍。此外, “强人工智能机器人”与 “强人工智能”是两个不同的概念,强人工智能指代的是一个时期,该时期有很多具有强智能性的技术产品,其中就包括具有自我辨认能力和控制能力的强人工智能机器人[8]。

就强人工智能机器人而言,其是否具有独立的法律主体地位和如何对其进行法律治理,以实现机器的 “法律归化”[5],都是理论和实践亟待回应的时代性难题。1986年中央将智能机器人列为国家863计划议题,智能机器人概念首次在顶层设计中被提及[9];2017年国务院印发的 《新一代人工智能发展规划》再次提出要 “抢抓人工智能发展的重大战略机遇,构筑中国人工智能发展的先发优势”[10];2020年党的十九届五中全会重申要 “推动互联网、大数据、人工智能等同各产业深度融合”[11]。这些国家战略的设计和安排既彰显了中国对人工智能技术应用与法律治理的高度关注和重视,也昭示出实践发展和制度设计对人工智能机器人治理相关理论供给需要的急迫。

当前,智能技术的创新突破、应用扩张以及学界对人工智能机器人治理的研究都已从弱人工智能机器人转向强人工智能机器人[2]。某种意义上,强人工智能机器人应用发展存在的极化、异化和伦理等风险[12]迫使 “我们必须直面现代生活的理性化”[13],寻求科学方法,以对强人工智能机器人法律治理难题作出理论尝试和实践回应。故此,以更具实践规律性、理论科学性和制度先进性为目标,本文对强人工智能机器人法律治理涉及的理论指导、主体资格等问题进行深入分析,并提出 “载体-数据-算法”三分之治的进路。

1 强人工智能机器人的理论之争及其本质

自20世纪80年代以来,理论界关于人工智能这一宏伟命题进行了广泛研究。强人工智能机器人的研究主要有两种思路,即符号主义理论和联结主义理论。其中,符号主义又称符号人工智能,即通过将世界符号化,利用计算机对符号的认知而形成对世界的认识,这是一种逻辑的方法,其本质是将人类的思维视为一种公式集合;联结主义又称神经网络人工智能,即通过对人脑结构的模拟实现对于人类意识的机械再现,这种思路将计算机作为模拟人脑的工具[14]。此外,还有基于控制论心理学流派产生的行为主义理论[15]等。当前,法学界探讨强人工智能机器人法律主体地位及其治理问题,更多探究的是符号主义理论和联结主义理论,二者虽具有哲学或仿生学意义上的合理性,但因对强人工智能机器人本质分析的偏差,在作为指导强人工智能机器人生产的技术路径上均存在一定缺陷。

1.1 符号主义理论

强人工智能机器人独立法律主体地位 “否定说”[16-17]背后指向的是符号主义理论。符号主义的直接理论来源是符号学,著名人工智能学者西蒙提出的物理符号系统,在人工智能领域形成了具体的研究思路[18]。符号主义的兴起与发展得益于图灵机的提出[19],符号主义的主要思想就是应用逻辑推理法则,从公理出发推演整个理论体系[20]。在人工智能中,符号主义的一个代表就是机器定理证明, “吴文俊方法”是其巅峰之一[21]。从哲学层面看,符号主义理论是西方哲学关于 “智能生成”的 “知识论”。该理论认为, “智能”是快速在一定搜索空间内求得一个满意解的能力,具有哲学层面的合理性[22],但符号主义理论从根本上否定了意识在 “智能”这一问题上的作用。如果采用符号主义作为指导强人工智能机器人生产的技术路径的理论基础,可能存在以下弊端。

(1)符号主义用符号系统模拟人类心理活动只能解决全部结构化、信息化前提下的确定性问题。这种对确定性问题求解的功能定位与强人工智能机器人自我辨认能力和控制能力的定位不符。

(2)符号主义无法解释人类思维可能产生的非逻辑性、非理性结论,符号主义从本体论出发,强调现实问题的符号化表达和解释。这种方法回避了非理性意识的存在而追求公式化问题的求解,其必然结果就是对人类思维中非逻辑、非理性意识模拟的无望。

(3)符号主义忽略了认识具有的层级结构,关注线性问题的求解而往往陷入由A得B的简单线性运算。人类对事物的认识基于理论与实践的互动而不断深入,且人类对于事物认识活动本身就包含对原始信息的非线性、非理想的分析处理,符号主义将该分析处理简化为了一种理想状态下的一蹴而就。

(4)符号主义理论下的智能机器人,难以实现情感、文化层面对人类认识的复现。基于符号主义理论的上述缺陷,不难发现,依符号主义理论实现的智能机器人难以达到 “具有辨认能力与控制能力”的要求,符号主义不宜被采用为指导强人工智能机器人生产的技术路径的理论基础。

1.2 联结主义理论

强人工智能机器人独立法律主体地位 “肯定说”[23-24]的背后指向的是联结主义理论。联结主义认为应再现神经网络结构,以真正实现类人智能的产生。20世纪60年代Hubel等[25]生物学家研究发现,图像透过视网膜传递至脑中形成意识的过程,是一种层级结构。早在1943年第一个神经元的数学模型MP[26]就已经被提出,2006年作为多层神经网络与训练的 “深度学习”[27]的研究已然开始。实际上,即使是在弱人工智能时代,也已出现了在某方面思考能力超越人类的人工智能机器人,如IBM的人工智能平台Watson[28]也有了以卷积神经网络模型、深度信任网络模型、堆栈自编码网络模型等为典型的深度学习模型。采用联结主义理论作为指导智能机器人生产的技术路径的理论基础具有如下优势。

(1)联结主义认识到意识的层级结构,通过模拟生物神经网络的方式,对意识的层级结构进行机械再现,具有合理性。

(2)联结主义在实践中已得到一定程度的发展,卷积神经网络模型、堆栈自编码网络模型等模型正处于开发状态;卷积神经网络与深度信任网络相结合产生的卷积深度信任网络,已成功实现了在人脸识别等领域的运用[25]。卷积神经网络模型通过输入层、卷积层、下采样层、全连接层和输出层组织[28]的结构已对生物的意识产生机制进行了一定程度的复现。

在强人工智能机器人的本质问题上,若认为指导强人工智能机器人生产的技术路径的理论基础完全系联结主义理论亦存在重大弊端。这包括:一方面,现今的 “深层神经网络”仅能完成对生物神经信息处理系统的初级模拟,这成为制约其发展的技术瓶颈[29],这一瓶颈导致分析强人工智能机器人主体地位时,虽然指向了联结主义,却又对其实现的可能性持怀疑态度,进而产生滑坡谬误,最终否定强人工智能机器人独立意识的存在;另一方面,现今联结主义理论应用停留在对生物神经网络的结构模拟,缺乏与行为模拟的结合,更忽视了主体同环境的交互,这使得在研究强人工智能机器人主体地位时,即使采用了联结主义理论,也会对强人工智能机器人的行为能力产生怀疑。因此,对强人工智能机器人本质分析完全基于联结主义理论也是存在问题的。

1.3 结构-行为主义理论

结构-行为主义的提出是基于强人工智能机器人本质的分析。符号主义与联结主义均存在一定弊端,这导致二者不宜直接用作分析强人工智能机器人本质的理论基础,故有必要基于对强人工智能机器人的本质分析,建构结构-行为主义理论。

(1)结构-行为主义的心理学基础。事实上,心理学界早有在联结主义与符号主义所代表的第一代认知科学基础上,提出引入 “动力系统”概念的第二代认知科学。第二代认知科学认为从最宏观的 “身 (脑)-心理-环境”的关系而言, “具身心智的认知活动是与环境相耦合的,动力系统研究这种耦合情况下的认知发展的动力机制”[30]。

(2)结构-行为主义的基本内核。基于第二代认知科学理论,应吸收联结主义理论中对生物神经结构模拟的良好思路,和行为主义理论中模拟主体同环境交互的实现路径,将生物神经网络结构模拟和生物与环境交互行为模拟进行有效衔接,进而提出结构-行为主义理论。

(3)结构-行为主义的主要特点。①认识产生机制的模拟性。人类认识来源于反复的实践,因此强人工智能机器人具备的辨认能力和控制能力目标的实现必须在模拟神经网络结构的基础上,将其与主体同环境交互行为的模拟相结合,进而实现强人工智能机器人具身心智的认知活动与环境相耦合,完成对认识产生机制的模拟。②物质载体独立性。结构-行为主义将机器人的本质划分为3部分,即物质载体、算法、数据。其中,物质载体要件必须是独立的,仅含算法要件而缺乏独立物质载体的人工智能产品,具有辨认能力而不具控制能力,无法与环境交互,无法达至独立行为的要求。③认识方式的自发性。在结构-行为主义指导下实现的强人工智能机器人,自生产完成之时起便会自发探索世界,其始动的行为如同剪断新生儿的脐带一般。

(4)结构-行为主义的具体实现方式。对人类与环境交互行为中使用的多维度信息感知收集器官的功能、信息获取方式进行模拟,立足由行为到认识,由认识到决策,再由决策到行为这一人类行为的逻辑结构,与模拟生物神经网络结构进行有效衔接。换言之,要将强人工智能机器人在模拟生物神经网络结构的基础上,进行更加深入的赋能,使其可以主动同环境进行信息交互,基于 “行为-认知-决策”三模块的互动,达到强人工智能机器人具身心智的认识活动同环境相耦合,产生认知发展动力的目标。基于结构-行为主义理论指导下生产的智能机器人,将更符合强人工智能机器人具有辨认能力与控制能力的要求。结构-行为主义理论相较于符号主义理论、联结主义理论、行为主义理论更具理论优势,见表1。

表1 强人工智能机器人本质的理论指导之横向对比

在结构-行为主义理论指导下分析强人工智能机器人,具有明显的理论优势,即该理论能够模拟主体同环境的交互、复现了意识的层级结构、更符合实践到意识这一意识产生路径。基于该理论基础,强人工智能机器人在不经人类控制的前提下,自我收集分析信息、作出自我判断而自主进行行为更易实现。可以说,相较于符号主义理论与联结主义理论,结构-行为主义理论更具规律性、先进性和科学性。概言之,结构-行为主义理论下的强人工智能机器人本质上是一种物质载体、数据记录、算法模型与其之上生成的类人意识的嵌合体,通过神经网络的结构模拟与主体同环境互动的行为模拟相结合,这种嵌合体方得以实现。

2 结构-行为主义下强人工智能机器人法律主体地位的证成

强人工智能机器人的主体地位的证成及其法律治理,应以结构-行为主义理论为指导。依据法理学法律主体一般理论[31],强人工智能机器人之类人意识、行为能力、权利能力、义务能力与责任能力的存在,决定了其必然具有独立的法律主体地位。

2.1 从本体论到认识论:强人工智能机器人独立意识之承认

学界研究强人工智能机器人的主体地位问题时,往往选择回避对其意识存在与否的讨论,主张意识作为主体成立的传统要素已经在社会实践中改变[32]。这是一条良好的思路,但其在本质上否认了强人工智能机器人独立意识的存在,回避了对强人工智能机器人独立意识问题的探讨。其原因是学界对该问题进行探讨时,往往认为强人工智能机器人系本体论在人工智能领域运用的基础上实现的,也即通过概念形式化的方式将语句以字符串化,以实现解决具体特定问题的机器人。这种观点实际上将强人工智能机器人认定为符号主义发展之结果,该类机器人仅为一种提高运算效率的工具,当然不存在所谓的独立意识。依据心理学第二代认知科学理论,心智的具身性和认知的情境性是独立意识生成的两大核心要素。其中,心智的具身性是指心智有赖于身体之生理的、神经的结构和活动形式;认知的情境性认为所有的认知都是情境认知,或是与情境有关的认知[30]。强人工智能机器人具有模拟生理神经元结构与身体结构的独立物质载体,该载体可以进行独立行为,具备心智的具身性。同时,强人工智能机器人的认知来源于同情景环境的交互,还具备认知的情境性。概言之,强人工智能机器人通过其独立物质载体与环境交互,形成了一种融身、脑、环境 (文化)更多因素的动力系统,正是心智的具身性同认知的情境性二者的有机结合,完成了其 “具身心智的认知活动与环境相耦合”[30]。因此,结构-行为主义理论下的强人工智能机器人,可以通过实践认识事物,产生独立意识。传统辩证唯物主义虽认为,只有人类才能进行实践活动,但该观点的本质是对人脑这一载体的功能和实践对意识能动反作用的肯定。结构-行为主义下的强人工智能机器人,拥有高度模拟的类人脑结构,同样可与环境进行交互,同样承载具有能动作用的意识,若否定其实践能力进而否定其从实践中获得认识的能力,将导致二律悖反。

2.2 从依附性到独立性:强人工智能机器人行为能力之肯定

从刑事行为能力视角看,强人工智能机器人可以通过深度学习,获得辨认能力和控制能力,产生独立的自我意识、行为能力,这是理论界肯定强人工智能机器人行为能力的主要理由[33]。反对强人工智能机器人行为能力的主要理由是:否定强人工智能机器人的自由意志之存在,进而认定其本质为程序,系依附于人类的工具[34],这种观点强调其 “物”的属性,否定其独立意识,进而否定其行为能力。此外,还存在承认机器人可能会有行为,但这一行为并非刑法领域的行为,从而否定强人工智能机器人在刑法领域的行为能力的观点[35]。该观点的本质仍是机器人不具有自由意志,不符合刑法领域对行为的要求。

从民事行为能力视角看,传统民事行为能力理论规则仅为行为人有理解力地从事意思表示行为而设,是指行为人 “单独的、完全的能缔结契约那样所谓的法律行为的能力”[36]。可见民事行为能力的具备要求强人工智能机器人能够以独立的意思表示,使自己的行为发生一定的法律效果[37]。上述对智能机器人独立行为能力的争论之本质,是对智能机器人能否具独立意识、能否进行独立意思表示的争论。结构-行为主义理论下,通过神经网络之构建,与同类人行为模拟之链接,机器人产生自我意识是可以实现的,对其行为能力之肯定,将是科技发展的应然结果。认为弱人工智能机器人在当下不具有自由意志固然有一定的合理性,但无法据此否定拥有类人智能的强人工智能机器人具有独立意识、自由意志;更无法基于弱人工智能机器人的现实缺陷,而认为强人工智能机器人的行为能力存在实质上的缺陷。

2.3 从经济性到伦理性:强人工智能机器人权利能力、义务能力与责任能力之具备

权利能力、义务能力与责任能力是法律主体地位的主要判断标准[38]。权利能力层面看,在当前弱人工智能时代,学界就已出现智能机器人权利主体论[39],人工智能创作物著作权论[40],也存在依据智能机器人不享有伦理性的人格权和身份权为依据,而认为其权利能力仅限于经济性的财产权利的工具性人格说[41]。在经济权利方面,结构-行为主义理论下的强人工智能机器人,具有类人意识,拥有独立的行为能力,且具备了成为权利主体的关键性要素:智能性,具有完整的权利能力。而在伦理性的人格权和身份权问题上,结构-行为主义理论下强人工智能机器人虽不具备自然生物的生育繁殖能力,但可通过婚姻、领养等方式建立特定的人格、身份关系。建立类人社会关系能力的具备,使得其伦理性的人格权与身份权的实现并不具有根本性障碍。义务能力层面看,强人工智能机器人具有行为能力能够自主做出意思表示、具有完成与他人约定的劳动义务之给付的能力;其亦享有完整的经济权利能力、独立的私有财产,具有私有财产处分权,亦可承担财产给付义务。此外,强人工智能机器人也可承担抚养、扶养等身份关系义务,具备履行传统民事法律行为义务的能力。责任能力层面看,责任能力又称过错能力,也即对自己的过失行为能够承担责任的能力[42]。学界对于智能机器人责任能力问题的讨论,在刑法领域主要是对人工智能机器人自由意志存在与否的探讨[43]。而在民事领域,在以德国法为代表的诸多立法例上,民事责任能力的一般标准是识别能力或同等层次的辨识能力、理解能力,也有例外地考虑经济条件[44]。可见,学界在智能机器人责任能力问题上的核心争议在于,智能机器人是否具有自由意志和独立辨识能力。强人工智能机器人具有独立的责任能力,这是因为:①具有独立意识。强人工智能机器人能够在人类不加以干预的情况下自主做出行为,拥有自由意志。②具有辨识能力。强人工智能机器人能够通过独立物质载体同环境交互,进而做出行为,对自身行为具有辨识能力。③具有独立财产权。从经济角度考量,强人工智能机器人可拥有私有财产,并且能基于其经济权利能力对其侵权行为造成的损失进行赔偿,亦能够通过刑罚手段使其承担法益侵害后果,因此强人工智能机器人具备独立的责任能力。

3 强人工智能机器人法律治理的展开

法律地位是法律主体参与法律关系的前提,其包括法律资格与法律权力、权利与义务两个部分[45]。探究如何对强人工智能机器人进行法律治理命题,不可回避地要讨论一个前置性问题,即机器人权利与人的权利之关系问题,二者是否是平等关系?弱人工智能时代,有学者就以人工智能机器人权利为中心,对其权利存在与边界问题展开了分析[46]。结构-行为主义理论在这一问题上持折衷立场,认为强人工智能机器人权利与人类权利具有有限平等关系。这是因为:①强人工智能机器人具备权利主体 “类人智慧”这一本质性要件,其智能性的存在决定了其能够成为知识产权等财产性权利的主体[47]。②强人工智能机器人权利主体论的建构,具有正向的功能性。强人工智能机器人权利主体观念构建,具有合乎社会发展趋势和利于厘清社会关系与秩序的正向建设性功能[48],在法权层面赋予强人工智能机器人以法律地位是必要且正当的。③强人工智能机器人的权利义务不必也不能与人类等同,虽赋予强人工智能机器人权利主体地位具有必要性,但也应看到,人类创造强人工智能机器人是带有目的性的,二者在同位阶权益冲突的情况下,应优先保护人类权益,强人工智能机器人与人关系的有限平等性正是在此基础上提出的。

有限平等性包含平等性和有限性。平等性是指强人工智能机器人与人类同样享有经济性的财产权利与伦理性的人格、身份权利,且强人工智能机器人对人类或是其他同类机器人做出的法益侵害行为具有可罚性,而人类对强人工智能机器人做出的法益侵害行为同样具有可罚性;有限性是指,二者并非完全平等,在人类与强人工智能机器人权利发生冲突时,同等条件下,对人类权利的保护应优于对强人工智能机器人权利的保护。强人工智能机器人虽然与人类同样享有权利与义务,其权利义务的内容不必要也不可能与人类完全等同。基于强人工智能机器人强大的运算与行为能力,其所需承担义务的标准理应高于人类。

强人工智能机器人的法律治理还须建立在对其本质把握与核心要素的科学分析之上。结构-行为主义理论下,强人工智能机器人核心要素包括物质载体、数据和算法。其中,物质载体指承载强人工智能机器人数据、算法与其衍生的类人意识的独立容器;数据指强人工智能机器人主体同环境交互的过程中,基于对环境反馈信息的多维收集与层级处理,得到的对环境与交互客体的数据记录;算法指强人工智能机器人物质载体所承载的以系统方法复现人脑构造、模拟意识层级结构的策略机制。因此,进行强人工智能机器人的法律治理需基于结构-行为主义理论,在强人工智能机器人独立法律主体地位的基础上,进行 “载体-数据-算法”三分之治。

3.1 强人工智能机器人物质载体之 “事前-事后”双层法律治理

(1)强人工智能机器人物质载体之事前治理。对机器人进行治理与对其物质载体的相关生产主体进行治理并不冲突。事实上,机器人治理的好坏与其物质载体的生产环节紧密相关,机器人是独立的,但对其物质载体相关生产主体准入、数量限制进行事前治理十分必要。

建立健全生产主体准入机制。强人工智能机器人物质载体的生产者,可划分为一般非核心原件生产者、核心原件生产者和组合制造者。非核心原件生产者,其产物本身与一般商品并无本质区别,故无需对其加以特别治理。核心原件生产者与组合制造者的故意或过失可能招致严重的社会风险,若核心原件缺陷导致机器产生意识障碍,也将是重大的伦理问题。因此监管机关应对核心原件生产者、组合制造者的准入资质、产品标准,加以严格限制,从而实现对强人工智能机器人物质载体的源头治理;域外准入层面,应保持信息互通和战略互信,共同制定统一的准入标准,实现强人工智能机器人生产准入领域的全球治理。

加强对强人工智能机器人生产与保有数量的限制。强人工智能机器人出现后,人类必将面临与人口问题、人地矛盾相类似的机器人与生态环境矛盾问题,为防止强人工智能机器人数量超越环境承载力限度,对其生产、保有数量应进行明确限制,应出台配套法律法规,通过行政、市场、财税等措施对机器人数量生产计划指标进行限制。严控域外机器人进入,国与国之间须加强沟通协调,以全球整体的理念和战略对强人工智能机器人数量进行合理的分配与限制,以期实现对其总数量、生产标准的全球共治。

(2)强人工智能机器人物质载体之事后干预。强人工智能机器人物质载体的事后治理,集中在强人工智能机器人犯罪时应采用的刑罚方式层面,对其物质载体的刑罚方式应采取限制自由、限制机能、销毁等多元刑罚方式。

生命刑层面,将销毁物质载体作为强人工智能机器人的刑罚方法。学界在论及对强人工智能机器人的刑罚问题时,往往会把将其物质载体予以销毁作为一种刑罚方法[49],这种刑罚方法与现行刑法所规定的死刑相当。对强人工智能机器人施以刑罚的目的,系改造犯罪机器人以及威慑潜在的犯罪强人工智能机器人,以实现人类社会秩序之维护。从功利角度看,当强人工智能机器人不具改造可能性,且需要通过销毁方式威慑潜在犯罪机器人时,这种刑罚方式具有可采性,可作为一种刑罚方法入刑。但销毁这一刑罚方式不仅是对强人工智能机器人物质载体的彻底摧毁,也是对强人工智能机器人类人意识的永久抹除,应慎之又慎,仅当穷尽一切方式均无法达到改造犯罪机器人、消除其危险性的目的时方可使用。这种刑罚方式使用的监督也应同在诉讼领域的死刑复核程序接轨,在程序法上应将销毁强人工智能机器人物质载体纳入死刑复核程序进行监督,或是建立与死刑复核程序同等级别的诉讼程序对该刑罚方式进行审核,以期维护刑法的谦抑性和程序法的独立价值。

自由刑层面,将限制犯罪强人工智能机器人物质载体自由作为主要刑罚方式,限制机能作为一种辅助性的刑罚方式。当强人工智能机器人所犯罪行侵害的法益与需要判处自由刑的罪名所保护的法益相当时,对其物质载体采取自由刑的方式是合理的。在确立强人工智能机器人刑事主体地位的基础上,刑法中的自由刑同样可以适用于强人工智能机器人,但在具体刑罚时间与限制方式上,应结合强人工智能机器人的实际加以完善。对强人工智能机器人物质载体予以一定程度机能限制的方式,同样可以作为一种刑罚方法,这种方式的正当性来源于被限制机能的可恢复性,强人工智能机器人的物质载体相较于生物体更易于对其进行部分机能的限制,更易于控制限制的范围与期间。此外,能否在不影响该机器人功能的情况下,把犯有严重罪行的强人工智能机器人物质载体进行警示性的改造、标记用作一种刑罚方法?强人工智能机器人具有伦理性的类人人格权,而此种刑罚方式与人类文明早期野蛮的刑罚方法并无本质区别,侵害犯罪机器人的类人人格尊严权不符合现代法治精神,有违法治文明,故不宜采用。

3.2 强人工智能机器人数据的谦抑性法律治理

(1)数据伦理:强人工智能机器人数据谦抑性法律治理之内生逻辑。谦抑性治理中的 “谦抑性”来源于刑法的谦抑性原则[50],强人工智能机器人数据谦抑性治理的内涵在于少用、慎用法律对其进行规制,这由强人工智能机器人数据自身特殊性决定。强人工智能机器人的数据具有复制传播性与隐私伦理性二重属性,对人类而言,通过联网等方式对数据进行复制、传播、共享,是完全可实现的;对强人工智能机器人而言,数据即是其记忆,带有鲜明隐私伦理性特征。数据伦理是一系列指导人处理数据行为的观念和所应遵循的基本准则,对强人工智能机器人而言,数据伦理涉及其数据的使用以及干涉等方面[51]。具体而言,人类作为一方主体,不论是对强人工智能机器人问题数据进行外力干涉时,还是规制强人工智能机器人伦理决策时,都应遵循少用、慎用外力的基本准则,也就是对强人工智能机器人数据应进行谦抑性的法律治理。

首先,强人工智能机器人数据的特殊性,决定其数据治理应保持谦抑性。数据之于强人工智能机器人,犹如记忆之于人类,有着无法比拟的重要性。世界是非先验的,人类的记忆源于实践,且具有能动的反作用,记忆的改变会影响人类对世界的认识。如果能够控制人类记忆,就等同于操纵了人类对特定事物的认识,进而影响人类决策,至此自由意志将荡然无存,这将是严重违反伦理的行为。而强人工智能机器人一旦开始运行,数据就将伴随其与环境的交互产生,数据作为强人工智能机器人认识事物的基础,同样能直接影响强人工智能机器人的行动决策。强人工智能机器人具有伦理性的人格和身份权利,因此对其数据进行外力干涉时应慎之又慎。

其次,强人工智能机器人数据所反映的数据伦理问题需要法律规制,对伦理决策的规制应坚持谦抑性。事实上,法律规范往往是道德规则的转化,伦理道德要求可以适时转化为法律规范,实现道德的法律化[52]。强人工智能机器人的数据伦理问题,源自强人工智能机器人需要通过数据来执行伦理决策,该决策与人类主体利益以及社会秩序密切关联,亟待法律予以制度化的评价与调整。从伦理本身的价值追求看,人类伦理和数据伦理都系人类在自身价值选择结果的基础上建立起来的,这并无不妥,因为无论是人类还是强人工智能机器人,其伦理决策均建立在有限理性的基础上,但强人工智能机器人数据的法律规制难以渗透扩张至其类型化规则化伦理决策的范畴,因此规制的范围应限定在制止危及法律所捍卫的伦理道德底线内,这也为强人工智能机器人建立独立于人类伦理的机械伦理体系预留了空间与交流之可能,亦兼顾了人类主体利益的保护。

(2)审慎规制:强人工智能机器人数据谦抑性法律治理的落实。

首先,法律政策应鼓励强人工智能机器人数据伦理研究。数据伦理与法律价值存在高度重合,数据伦理的法治对策应围绕防治危及伦理道德底线的伦理决策角度展开,尤其是在人类社会受到强人工智能机器人冲击时,支持和鼓励对人类主体自身价值保护、强人工智能机器人主体的利益关切,以及二者互动模式、伦理道德底线进行探究。从横向上看,需要就强人工智能机器人内部产生的新型社会关系之伦理问题,和人类与强人工智能机器人关系的伦理问题,进行广泛深入的探讨;从纵向上看,对强人工智能机器人数据伦理的探讨与既有人类社会伦理体系的关系也需要深入研究,前者既是对后者的辩证否定,也是对后者的继承发展。

其次,以指导案例的方式对强人工智能机器人数据进行法律治理。这是由于伦理问题往往需要深入到个案中探讨才能得出有效结论,在个案中,人类与强人工智能机器人会出于个体的差异,作出不同的伦理决策。这种决策的范式事实上很难规范化、具体化、同质化,即使通过大数据采用提取公因式的方式,得出一个笼统的答案,在个案中人类与强人工智能机器人主体的主观能动性和认识的局限性也将影响当时环境下的伦理选择标准。强人工智能机器人数据伦理问题存在个案差异,而法律语言往往高度抽象,如果以传统抽象的条文方式,规制高速变化发展的强人工智能机器人数据伦理问题,则司法实践中法官仍需通过解释以明确标准。因此,通过指导案例的方式对其加以明确,既为数据伦理问题的治理预留了发展空间,也贯彻了审慎包容治理,坚持了谦抑性的要求。

再次,审慎运用司法手段对强人工智能机器人数据进行干预。数据系强人工智能机器人主体同环境交互行为所产生,除非该数据错误系生产制造者原因导致的物质载体或是算法缺陷所致。只有当强人工智能机器人的伦理自决危及道德底线时,才能通过司法程序,对强人工智能机器人数据进行干预,因此,以司法方式干预强人工智能机器人的数据有3个先决条件:①当且仅当强人工智能机器人做出危及伦理道德底线行为的成因,是该机器人经过自主收集信息、自主分析、自主采取行为,无其他归责主体时,才可对其数据进行干预;②将删除、修改数据作为一种刑罚方法时,应限定在强人工智能机器人物质载体主要治理方式——限制自由或机能无法排除紧迫法益侵害可能性,且犯罪机器人不具备改造可能性时,才可以考虑对犯罪机器人的数据施以删除或是修改的刑罚方法;③能够准确定位问题数据的位置、范围,且经审判程序后,才得对强人工智能机器人的问题数据进行精确干涉。

3.3 备案审核与技术立法—对强人工智能机器人算法之法律治理

如前所述,对机器人进行治理与对其物质载体的相关生产主体进行治理并不冲突。同样,算法治理层面,对掌控强人工智能机器人算法的企业进行治理亦是十分必要的。强人工智能机器人的算法风险来源是:①企业利用技术优势地位规避法律治理,逃避法律监管;②算法技术发展迅疾,而法律具有滞后性,导致算法治理法律手段缺乏。因此,强人工智能机器人算法的法律治理应从两个层面展开:①通过事前审核备案机制,防止企业通过 “算法霸权”规避法律治理,逃避监管;②追求法律技术、伦理规范同社会科技发展的动态同步演变,建立健全算法审查的司法程序。

(1)实行事前审核备案制。算法作为一种技术并不绝对中立,算法的内容受制于其编写者,故掌握强人工智能机器人算法的企业存在利用技术优势地位规避法律治理,逃避法律监管的风险。与此同时,强人工智能机器人技术将极大地赋能掌握该技术的企业,将加剧强人工智能机器人劳力消费者的弱势地位,消费者的知情权、隐私权将更易受到侵害[53]。应建立事前的算法审核备案机制,以法律权威积极介入的方式,避免企业通过主动修改算法逃避法律监管,以防止企业为自身牟利而损害社会利益、冲击法律所保护的伦理道德底线,通过国家权力的干预,制约企业与资本的无序扩张与悖德行为。

(2)建立健全事后的算法审查司法程序。算法本身就可能含有违背伦理的结构与模块,当强人工智能机器人违背伦理的决策已经做出时,除了对个案机器人的法律制裁与司法矫正,还应通过法律权威介入的方式,建立健全事后的算法审查司法程序,对个案机器人算法的伦理性进行司法审查,以期通过法律实现对强人工智能机器人算法的治理。

综上,强人工智能机器人的法律治理应从物质载体、数据、算法3个层面展开,如图1所示。

图1 强人工智能机器人的三分之治

4 结语

在强人工智能机器人法律治理的诸多问题中,其本质是什么、是否具有独立的主体地位,是研究的关键和核心。强人工智能机器人是否具有独立的主体地位是必须回答的一个理论问题。要回答此问题,就必须追本溯源,对强人工智能机器人的本质进行深入分析。研究发现,强人工智能机器人的符号主义理论和联结主义理论,均存在一定的缺陷和不足,有必要提出结构-行为主义这一理论。

结构-行为主义理论下的强人工智能机器人,本质上是一种物质载体、数据记录、算法模型与其之上生成的类人意识的嵌合体,具备法律意义上的行为能力、权利能力、义务能力与责任能力。诚然,人工智能机器人从产生发展到应用扩张,是一个纷繁且复杂的过程,其法律治理涉及诸多因素,本文无意也无力面面俱到,需要特别说明的是:①关于强人工智能机器人是否必须联网的问题,从产生机制看,数据是强人工智能机器人独立生成并独自储存在其物质载体中的,故强人工智能机器人可以自主选择,是否将全部或部分数据进行联网、复制、传播、共享,且强人工智能机器人的独立主体地位与其联网与否、数据能否复制传播并不矛盾,与其数据仅由单机生成并独自储存并不冲突。②互联网大数据中的大数据与强人工智能机器人的数据,不属于同一个概念范畴,互联网中的大数据是指一般技术工具无法在短时间范围内进行捕捉、管理和处理的数据集合,是海量待处理的信息资源,而强人工智能机器人既能通过自主行为获得数据,也能通过数据进行决策,强人工智能机器人的数据更多是其记忆的体现。

在一定意义上,本文对强人工智能机器人认知理论、本质属性和主体地位的分析,以及对其进行 “载体-数据-算法”三分治理进路的提出更多是一种理想化的理论探究和学术尝试。可以大胆预见,强人工智能机器人进入寻常百姓家将不再是遥不可及的科学幻想。因此,运用法治思维和法治方式对包括强人工智能机器人在内的智能技术进行有效治理,确保其既安全稳定又健康有序发展,既是智能技术应用扩张对法治理论的殷切呼唤,也是技术赋权与赋能对治理能力的热忱期许,更是推进国家治理体系和治理能力现代化的迫切要求。

猜你喜欢

行为主义载体伦理
《心之死》的趣味与伦理焦虑
创新举措强载体 为侨服务加速跑
论行为主义视野下幼儿学习行为的矫正
灵长类生物医学前沿探索中的伦理思考
坚持以活动为载体有效拓展港澳台海外统战工作
护生眼中的伦理修养
行为主义的兴起与转变
伦理批评与文学伦理学
民事法律行为类型化的创新与完善
创新德育教育载体