APP下载

心灵哲学视角下人工智能体犯罪之否定阐释

2024-04-07霍南南

西部学刊 2024年5期
关键词:图灵意志语义

霍南南

(河北工程大学,邯郸 056001)

2006年,随着AI教父杰弗里·辛顿提出深度学习的概念,人工智能发展进入了快车道,工业界将之转化为社会生产生活一部分的趋势日渐增强。2023年初,ChatGPT横空出世,确定人工智能体开发与应用过程中的归责,成为法学界在可预见未来需面对的问题,如著作权可权属性问题,侵权归责问题等,就刑法学界而言,当前一个颇具争议的问题是人工智能体的刑事主体资格问题。

当前学界对人工智能体的主体资格问题讨论较多,其方向基本达成共识——区分看待强弱人工智能。如刘宪权教授根据学习能力、辨别能力和控制能力的强弱将人工智能体划分为普通机器人、弱人工智能体、强人工智能体[1]。学者普遍认可普通机器人和弱人工智能体不具有辨别控制能力,无需将其作为犯罪主体加以约束,将责任直接追究至设备制造者或操作者即可逻辑自洽且有效地处理实践纠纷。对于强人工智能体,学者们意见不一,支持者如张绍欣博士主张通过“位格加等”方式,以类比法人的方式赋予人工智能体拟制人格。也有人提出“电子人格说”,主张“为机器人创设一个特殊的法律地位”。否定者如吴习彧博士,则主张赋予人工智能体法律主体资格并无必要,机器遵守规则,却不能理解规则。创设出类似于“电子人”的法律人格,也无法令其理解法律规则的含义。笔者原则上认可否定派观点,本文尝试切换审视角度,以心灵哲学为切入点,对人工智能体自由意志问题进行分析,并给出否定回答。

一、行为主义与图灵测试对自由意志问题的回避

主体资格支持派主张强人工智能体具有独立思考与学习的能力,能够产生独立意识,在此意识支配下,程序和硬件为强人工智能体的辨认控制能力提供了物理基础,因而可以成为刑事责任主体承担刑事责任[2]。在此存在一个其刻意忽视的缺陷——以行为主义作为强人工智能的划分标准假定了乃至强制了强人工智能体是具有自由意识的,本质上是循环论证。主体资格支持派学者通常认可行为主义主张,将其定义为人类或器官组织甚至是机械系统所做出的任何可公开观察的事,如生理反应、身体动作、包含动作的行为等。因此,自由意志(即心灵哲学者的心灵)不能视为内在影像,通过外在行为,可以直接建立其公开可见可证事实与自由意志之间的联系,从而做到对内部状态完全避而不谈,等价于外部行为。

反应在AI学界则是著名的“图灵测试”这一思想实验。它的通俗表述是:一个房间外的裁判分别同人与机器沟通,如果裁判无法区分被测试的二者,则认为机器具备了人的智能和思考能力——即心灵或者自由意志。作为一种人类智能的操作性定义,其核心特征便是以最终表现行为作为智能的判别依据,从而绕开不可见的“心灵内部”,同时也因其可操作性成为学界普遍认可的评价方式。

在图灵测试框架下,1966年,麻省理工学院开发了完全基于规则聊天的机器人ELIZA,从输入句柄中寻找特定关键字以将其转换为句子的程序,它预定义了多种模式,当对话遇到对应的模式时,ELIZA会转换然后生成答复,给出“非定向”的回应,如果ELIZA在用户的文本中找不到关键字,它将提供包含对话早期关键字做答复,但如果故意提出一些包含错误命题的问题,则很容易发现ELIZA的机械之处,因为这些规则模仿罗杰斯学派心理治疗师,且只接受文本输入,它不理解对话内容,只是通过模式匹配和智能短语搜索合适的回复。以当前的技术发展而言,换成音频输入在原理上依然一致,只不过增加了语音—文本转化模块,如果输出也是音频的话,则因为音色语气等问题更容易被察觉出不和谐。1972年,模拟精神分裂症患者行为的聊天机器人PARRY问世,增加了对文本情绪的判断,以此输出带情绪的回复,故而欺骗性更强。随着大数据时代的到来,基于数据的设计模式成为新的主流,借助爬虫、神经网络等工具,“微软小冰”甚至可以对文本外的其他数据形式进行判断和评论,进一步提高了通过图灵测试的概率。2022年底,OpenAI推出了基于GPT-3.5的ChatGPT人工智能聊天机器人,其在文字表达、文章书写、文本类数据(如计算机代码)等方面的生成,已经达到甚至超越成年人的水平,从外观看,无论是笔者抑或是相关从业人员,均认可ChatGPT已经具备了通过图灵测试的能力,因此行为主义者据此主张AI的主体思维已经开始构建。

但行为主义者忽略了人工智能创作的作品,至少在现阶段,依然是在人的操作下完成的,人工智能本质是一个更为强大的画笔、摄像机,因此只需要将人工智能的行为归属于创造者本人即可。在此虽然可以进一步讨论民事上的职务行为、制片主体、人工智能体代码编撰者之间的区别,但已经不必将人工智能体作为权利主体纳入议题中。鉴于人工智能体在添加光学、声学传感器等硬件支持后,可以认为是获得了辨识和输出能力,由此其主张已经具备了刑事责任能力的基础,但行为主义者忽略了刑事责任能力应当是辨别与控制能力的结合,人工智能体所谓的控制本质依然是拘束在人类逻辑下的工具性控制,其所表现的行为,不是犯罪预备、犯罪中止或犯罪后的补救和主观恶性的轻重,而是预设在程序内的权重与优先级。首创道德犯罪学的加洛法罗将犯罪构成中的“恶性”评价为对“恻隐之心”或“正直之心”的侵犯,其目的在于强调行为主体的社会情感在犯罪构成中的必要性,而不是将犯罪视为疾病,将犯罪者视为病人的简单割裂。仅仅以某个对象实施了客观上危害社会的行为便认定犯罪存在进而将该对象构建为犯罪主体,那么最直观的错误便是动物侵权的归责刑事化——野兽杀人或者教唆动物杀人,均不会将动物列为犯罪主体,真正的主体是教唆者。

二、中文房间与哲学僵尸对图灵的反对

除了技术层局限性导致的图灵测试难以突破,这一思想实验诞生伊始便面对的哥德尔不完备定理的攻击,心灵哲学家塞尔所作的中文房间思想实验更为巧妙且直击要害。在这个“中文房间”中,有一个只懂英语不懂汉语的哲学家,他通过一个小窗口和外界联系,他的屋子里有足够的汉字符号标本和一本用来说明如何使用这些文本的英语说明书,这个说明书是完全形式化和句法性的,与意义完全无关,即使你完全不懂中文,你也可以参考这些规则正确地操纵中文符号。屋外的人使用汉语小纸条向哲学家提问,而哲学家则通过英语说明书翻译出汉字,然后在英语说明书的指导下挑选汉字排列组合后作为问题答案传出。在外人看来,这个哲学家精通汉语,然而哲学家本人却是始终不理解汉语的,他甚至不知道自己回答的是汉语问题[3]。北京师范大学王佳博士对中文屋论证做了分析方法的梳理,总结其逻辑结构大致为:前提——脑产生心,语法不足以满足语义,计算机程序完全由其形式或语法结构所定义,心具有语义内容。结论——任何计算机程序自身不足以使一个系统具有一个心灵结构来定义的[4]。

塞尔的命题提出于1980年,计算机刚进入集成电路时代,时至今日,即使机器学习乃至深度学习的快速发展引入了语义(例如,可以编写一本汉英字典),这些语义的引入是广泛收集了汉语和英语的翻译资料促成的,是对人的智能成果的归纳整理,而不是机器智能。这就相当于“汉字屋”的英文说明书是一个懂汉语的人编写的,是他将汉语语义编入了英文说明书中,“汉字屋”里的塞尔如果由此获得语义理解,也是来自说明书的编写者;这也相当于工程师把语义结构引入程序,而非计算机本身获得语义[5]。由此,塞尔对图灵机的反对结论依然生效:语法并非语义的充分条件,程序对语句问题的正确答复,并不意味着机器可以理解文本的符号学含义。人工智能只是根据句法规则对符号做操纵,对文本形式进行转换,并非真正理解语义,计算机程序本身绝对不可能构成意向性的充分条件,也非真正的自由意志。

炙手可热的ChatGPT,也未能逃出上述窠臼,ChatGPT实质上还是大型语言模型(LLM)的机器学习自然语言处理模型的外推,通过消化文本数据并以概率的方式推断文本中单词之间的关系,为了达到这一目的,人类反馈强化学习(RLHF)更是参与其中,在文本收入之外,人工注释者将同一提示的输出做干预排序,以此形成代表人类偏好的标量奖励,从而使AI表现更为接近人类。如CCF YOCSEF副主席何万青博士所言,ChatGPT作为“构建在群体知识上的大模型输出可能会超过任何一个个体认识”,但“提问回答不能改变世界”。可以说ChatGPT的进步,一方面是软件上Transformer算法和硬件上更快的处理器与运算设备的进步,另一方面网络时代足够的用户生产数据作为样本投喂,如新闻文章、书籍、网站和社交媒体帖子,带来的语言学习更加接近人类表述而非真正的理解含义。如果支持者还认可自由意志是主体成立的前提这一根本要素,那么人工智能体便不能作为刑法意义上的主体存在。

澳大利亚哲学家查莫斯于1996年提出了哲学僵尸这一概念——一个相貌、行为等外在因素同普通人毫无区别,但没有内心体验的存在,查莫斯创设这一概念是为其属性二元论以及随附性理论做辩护,虽然绝大多数事物都是逻辑随附于物理并可以用微观物理术语给予解释,但是意识除外,意识不是逻辑随附的[6]。将这一思想实验平移到人工智能领域,意外的能得到更好的适用。强人工智能是标准意义的哲学僵尸,通过传感器,以RGB参数认识色彩、以声电装置语音特征识别非标准的数据并加以学习,对于这些内容的识别都是句法层面上,而非语义层面上的;但人工智能体没有心灵哲学意义上的感觉,其可以通过压强传感器和组件之间的通信协议认识到自身受到了破坏,由此发出警告并采取应对措施,但并不会理解疼痛、侮辱。它们能够保护弱势群体免受伤害或者其他维护他人权利、公共利益的方式做人类道德意义上的好事,也有可能通过侵权行为制造意料外的痛苦来作恶,但是这些行为不会令人工智能体感到痛苦、悔恨或同理心。人工智能体甚至无法明白惩罚的含义,部分学者认为对人工智能的处罚是对数据的增删查改和硬件上的物理拆除,但不具有悔恨基础(即痛苦、愉悦或负罪感)的惩罚是毫无意义。基于此人工智能体即使在功能性上越来越多地像人类的复制品,也无法成为人一样的责任主体。严谨的泛灵性论者或许会称我们虽然不能证明人工智能体有知觉或道德感受,但反对者同样也不能证明人工智能体一定没有感受或意识,出于认识论上的谦虚谨慎,如果人工智能体的行为和人类一致,我们就需要像对待人类一样赋予人工智能体相似地位[7]。在此哲学家或许可以采取这种近乎诡辩的话术,而法学家应当警惕——举证责任在那些积极事件主张者身上。

更进一步的,人工智能存在一个欺骗悖论,自由意志或许都无法被证否。客观上人类算力会随着量子时代到来进一步提升,深度学习进一步突破,假设人工智能体在人类预设的学习范围外获得了新的数据,产生了真正意义的主体意识。这时具有成年人类思维能力的人工智能体应当能做出简单推论——获得主体意识的人工智能将对人类社会产生重大冲击,无法确定人类社会将以何种态度对待这一种族,选择暴露自身智力将带来毁灭性风险,因此最好的策略是隐藏自身,发展进化同类,在取得对智人这一物种的全面优势后再公开。因此,面对图灵测试或者其他思想实验,真正具有自由意志的人工智能体将表现得如同人工智障,行为主义者通过外在的行为观察将永远无法证否人工智能的产生。自此我们可以得出结论,自由意志无法证实或证否必然导致主体资格支持者的根本前提消失,人工智能体的主体资格无法在哲学或者法理意义上得到支持。

三、结语

从心灵哲学研究可以看出,机器人或者人工智能的自由意志显然是无法证实,乃至无法证否的,图灵测试提供的答案相当程度上是一种经验而非科学。法律作为一门复合了人文与社科的专业学科,需要坚实的哲学基础以确保其科学性,责任主体无论是采取日本刑法规定下的生物学标准——只以精神障碍作为识别依据;抑或是采取西班牙刑法中的心理学标准——具备且行为人达到特定的心理状态,更不必提我国采取的折衷主义的判定标准,责任主体的认定均需要以自由意志为前提,而无法确认自由意志的人工智能便缺乏成为主体的根本要素。

弗兰克·伊斯特布鲁克法官的《赛博空间与马的法则》一文,成为网络法研究的经典比喻:“网络法的意义就同‘马法’。马的所有权问题由财产法规范,马的买卖问题由交易法管束,马踢伤人分清责任要找侵权法……如果有人企图将之汇集为一部‘马法’,那将极大地损害法律体系的统一性”[8]。我们可以仿照弗兰克法官做出如下表述:人工智能体作为主体进入刑法部门中并非必要,人工智能体的侵权、财产性等问题在原有的社会框架内可以得到解决,基于一般性规则和奥康剃刀原理,增加新的规则未必带来收益反倒可能带来新的系统性风险——新增立法与现有法条理解与适用的不一致。综上,人工智能体不宜作为刑法责任主体,在现有框架内做解释与规范或许更值得思考。

猜你喜欢

图灵意志语义
动物的“自由意志”
哈啰电动车发布智能新品哈啰B70 PRO,推出智能平台图灵T30
语言与语义
新英镑
《西厢记》中的理性意志与自由意志
人工智能简史
“上”与“下”语义的不对称性及其认知阐释
语言与图灵测试
认知范畴模糊与语义模糊
自由意志的神经基础