人工智能神话、超级智能及其合约伦理学
2023-02-25杨庆峰
杨庆峰
(中国科协-复旦大学 科技伦理与人类未来研究院,上海 200433)
目前,人工智能叙述方式已经形成了科学化叙事、科幻化叙事和诗意化叙事三种明显形式(1)笔者在2023年6月23日华东师范大学召开的“元宇宙、人类世与奇点哲学”研讨会上提出AI叙事的三种形式:科学化、科幻化和诗意化。科学化即人工智能的讨论以科学为根据,尤其是神经科学和计算机科学的研究成果;科幻化即AI讨论以科学幻想为根据,尤其是科幻电影和小说;诗意化摆脱了科学成果的束缚,强调了人类的未来处境,以文学为根据。。科学化叙事强调人工智能以神经科学、计算机科学为基础,并将AI洞见建立在上述科学研究的基础上。科学化叙事对AI未来发展进行了讨论。张跋院士团队提出AI1.0、AI2.0和AI3.0的说法。他的AI1.0的特征是符号驱动,AI2.0的特征是数据驱动。然而,相比前两代清晰特征的描述,对AI3.0的描述却只是表现为克服前两代缺陷的特征(需要建立新的可解释和鲁棒性的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术)[1],但这一观点尚缺乏明晰的特征勾勒。相比之下,扎多(A.Zador)等人提出NeuroAI作为下一代AI的特征,则更加清晰可触[2]1597。科幻化叙事强调人工智能的理解要以科幻小说或电影为基础,并将相应的洞见建立在超级智能出现与宇宙人类命运的问题之上。科幻化突破了科学限制,通过科幻电影的形式给人类创造了一种独特的敌托邦式技术文化,即预备毁灭人类的超级智能系统,如天网。诗意化叙事强调人工智能理解以文学想象为基础展开,大胆设想人类在智能时代出现的未来变化并用一种新的人类形象——后人类——来概括。这三种叙事对超级智能有着奇特的态度,科学化叙事方式对超级智能略显不屑,而科幻化叙事方式则畅想之,以诗意化叙事方式欢迎超级智能。在哲学界,最早提出超级智能讨论的是鲍斯彻姆(N.Bostrom)[3];国内学者也有讨论,讨论方式逐渐形成把超级智能看作真问题或假问题。认为超级智能是真问题的如王天恩教授,他认为,由于机器智能载体进化特有的迭代速度,智能爆发引出的超级智能出现,将导致存在的全面升级(2)参见:王天恩.人工智能的存在论意蕴[J].社会科学战线,2022(5):10-21.其他学者也对超级智能的问题进行了讨论,如赵汀阳先生在对人工智能的思考中指出,超级智能出现尚有时日,但我们有理由未雨绸缪。。持有这一观点的学者并不多。而认为超级智能是假问题的学者相对较多。如刘永谋教授将超级智能看作一种媒介噱头,不值得严肃对待。成素梅研究员认为在AI进化到超级之前,它可能就已经消亡了,最终超级智能无法进化而来。换句话说,超级智能不可能出现。本文认为,应该将超级智能进行现象学悬置,不讨论真假之类的实在问题,而是从其根据和条件进行讨论,并对未来人类与智能体的关系给予一种伦理学的思考。
一、超级智能的神话缘起
要理解超级智能观念需要从其智能范畴和神话学根源进行。首先,要理解超级智能必须从智能入手(3)智能定义存在很大争议,比如智能即计算、感知、判断和行动等能力;智能即意识;智能即奖励的结果;等等。这些定义从因果关系角度做出界定,从描述特征做出界定。。智能是一个极具争议的问题,但是,在多种定义之中贯穿着一条不变的主线:实体论和后果论的交叉。实体论将智能看做是自主产生的结果,要么是智能体自主设计要么是智能体进化的结果。后果论是指从人类的角度看待智能及其存在的后果影响。人工智能是人类设计的产物,用来提升和改善人类自身及其社会。对这两个范畴的理解可以借助一个例子进行。一天清晨,我在长江边上看见有人在长啸。在这个现象中,长啸的力度、持久度取决于这个人的肺活量,换句话说,取决于自身;但是长啸的影响取决于能否被他人感知到,如果对岸有人听到,那么长啸就是真实的。实体论意味着长啸的真实性由长啸者自身决定;后果论意味着长啸的效果取决于能否被他人感知。我们可以把实体论和后果论贯穿在超级智能的理解之中。
实体论意味着超级智能是智能自身设计或进化的结果。在鲍斯彻姆看来,超级智能是指“一种智能,比现实世界最好的人类大脑还要聪明,包括科学创造力、一般智慧以及社会技巧”[3]。鲍斯彻姆的定义是实体论的,强调智能体能够自主设计并进化,即它可以设计出更为聪明的算法,以此类推,最终智能体设计出一个超级智能。实体论定义会限制我们的讨论,它将会使得我们进入到一种封闭状态中,而无法顾及人类与智能体的关系。这一理解方式难以令人满意。鲍斯彻姆的超级智能定义强调了智能体相比人类而言的独特性,在一些方面比人类大脑还要聪明。这种定义还是比较定性的,“比人类还要聪明”是一个相当笼统的答案,究竟是哪些方面却没有说明。罗素(S.Russell)则将这些方面给予细化。在他看来,超级智能涉及常识能力、掌握上下文、相关性以及理解自然语言等能力[4]。罗素的智能定义突出了智能体与环境的关系。如果要给他的定义找到坚实的哲学根据,那就是约纳斯的内在生活范畴,“约纳斯主张,随着生命的开始,一种没有被意识到的内在生活(Innenleben)开始了。任何一种生物,为了维持生存,都要与周围世界进行物质交换,实现新陈代谢。维持生存,是一切生命体的基本目的,尽管对于许多低级生物来说,这是一种没有被意识到的目的。为维持生存,就要与周围世界打交道,就有忧虑,或畏或惧或喜,这对某些较为高级的动物来说是很明显的。”[5]内在生活范畴的概念强调生命与周围环境的物质交换,维持生命体自身的新陈代谢的过程。
后果论意味着超级智能是会对人类自身及其社会产生极大影响的智能体。约书亚·本吉奥(Y.Bengio)认为,超级智能是失控AI产生的前提基础。“主张1:在假设1、2的前提下,可以构建一个自主并且目标导向的超级智能AI系统。”(4)他提出的假设有两个。假设1:人类级别的智能是可能的,因为大脑是生物机器。假设2:具有人类学习能力的计算机通常会超越人类智能,因其有额外的技术优势。超级智能失控会造成灾难性后果。罗素将超级智能作为新书《人类兼容:人工智能及其控制问题》的主角[4]。雷克(J.Leike)和苏兹凯文(I.Sutskever)将超级智能的问题提了出来,“超级智能将成为人类发明的最有影响力的技术,能够帮助我们解决世界上最重要的问题。但是超级智能巨大的力量可能非常危险,可能导致人类失能甚至人类灭绝”[6]。
其次,超级智能是人工智能神话的一种特殊形式。AI神话表现为四个维度:主体神话、偶像神话、奇点神话和话语神话[7]。主体神话是指智能体主体地位的获得;偶像神话是指AI能够自主做出决策判断,可以看出人无法看出的问题,把决策权交给AI来做;奇点神话是机器智能进化的突破,在某一个时刻会超越人类;话语神话是指人工智能表现为一种双重性质话语形式。“由人工智能所产生的一套话语体系,在这一意义上成为现代人再造的一个新的神话,它一方面表达了人对于技术无限进步的质疑和恐惧,一方面又借助于对它的批判来捍卫人之为人的固有尊严。”[8]
超级智能是类似于神的存在,它是主体神话的一种表现。在主体神话中,智能体获得其独特的地位,比如道德地位、主体地位。这些主体地位并不需要人类论证,诸多学者绞尽脑汁地论证这一地位是想说服人们接受其道德主体地位或者意识主体地位。换句话说,这是人类理性赋予的结果。我们在索菲亚机器人身上看到了这样一个事实。沙特阿拉伯赋予索菲亚公民身份,尽管这曾经引起了世界的关注,但是终究是个案。从人类社会管理的角度看,未来要管理机器人或者赛博格这一后人类类型,需要将其纳入人类的法律或者规则中。换句话说,赋予其人类法律地位或者规则上的合法性。但这只是一个更高目的的需要:将其纳入到人类社会的系统中。在超级智能中,这一地位从来不是人类赋予的结果,而是智能体自身进化而来的。也就是说,超级智能获得其主体地位也有可能是进化的产物。我们从其他的科学研究中看到这一点。科学家发现,智能体能够在“无”的环境中生成[9],并且按照动物法则进化自身[10],在与人的交互中进化[11]。其进化并不是按照人类理性的设计来实现的,它们有其行动规律和逻辑。
在神话的维度中,人们崇拜若干个对象,对其表达出敬畏和恐惧的交叉情感。这个对象往往以神或者魔鬼的形式表现出来。敬畏往往和神联系在一起。比如古希腊人对宙斯存有一种敬畏和恐惧,因为他有着强大的神力。反之,魔鬼往往和恐惧联系在一起,因为魔鬼代表了一种恶的力量。这一现象在AI时代也是可以看到的。笔者曾经在观看一个算法生成人脸的视频时,就有这样的感觉:算法不断变换,人脸从此生成。我们不知道本体是什么,只知道它可以幻化成人形,这就相当于无穷变换的妖精。所以,我们指出,人工智能的神话特征表现为人类社会从此创造了一个新的神话存在:以机器形式存在的神。尤其是超级智能满足了人类的神话设想。但是我们还需要对超级智能进行理性考察,把其从神话现象中解救出来,从而使得它成为一个严肃的科学问题。
此外,还可以对超级智能进行理性考察,超级智能体现了人类与智能体的一种关系样式,在这一样式中,人类和智能体都获得了增强,这也是智能合约成立的重要根据。在人类历史上,利用技术提高自身的防御能力是非常常见的。这种观念延续到了今天。对人工智能来说,更是如此。ChatGPT出现以来,人们可以用它来修改语法、论文,生成各种视频、图像,极大地提高了工作效率。这一点并不存在争议。然而,反过来却不一样。机器如何利用人类增强自身存在着争议。人类提出了各种算法来强化人工智能。以ChatGPT来说,transformer算法极大强化了其能力,利用HFRL算法,ChatGPT能够做到迎合人类。无论怎么说,机器都增强了自身。
然而,这并不能使得我们真正走进超级智能。智能还有一个重要因素就是在环境中适应并实现进化。在罗素看来,人工智能是指能够在环境中采取最优化行动的智能体。如果是这样,人工智能就不是单个的实体进化,而是表现为与环境的关系了。适应环境及采取最优化行为是其根本的特征。在环境构成中,人类很显然成为一个至关重要的因素。如何将人类考虑其中并做出最优化选择是智能体的衡量标准之一。在约书亚看来,失控是超级智能的主要特征。因此,超级智能的定义可以由实体智能转变为另外一种说法。对于环境来说,人类是环境的构成因素,超级智能在这样的混合环境中能够做出最优化的选择。倘若用我们上面举到的长啸例子来看超级智能就会发现:超级智能取决于智能体的自主进化(实体论的理解),而人类也可以根据其智能体产生的后果来判定它(后果论的理解)。
二、超级智能的科学基础
要揭示超级智能的问题还需要澄清其科学基础。我们将对人工智能的科学研究进行考察,从最近的研究成果入手来分析超级智能出现的可能性,从而把超级智能转化为科学问题来处理。
第一条路径是通用智能路径,通用人工智能(AGI)为超级智能的产生奠定了基础。OpenAI提出的两个观点尤其值得我们注意:(1)ChatGPT为通用人工智能的研究打开了大门。研究者将自己的愿景称为“迈向通用人工智能,确保其造福人类”,从此通用人工智能研究的春天又一次到来。要知道在这之前,这个问题并不被学术界看好。此外,有学者指出,GPT-4中闪现出通用人工智能的火花[12]。(2)ChatGPT更关注超级智能对齐。雷克和苏兹凯文的超级智能讨论引起了我们的极大担忧。前者曾经任职于牛津大学的人类未来研究院,2021年加入OpenAI,专门负责这一问题的研究。后者是OpenAI的科学家,也是非常知名的AlphaGo论文的合作者之一。他们的观点给我们呈现了一条从通用人工智能到超级智能的道路,这种呈现不同于场景实现的做法。苏兹凯文仅仅把人工智能的功能看做是解决不同场景的问题,如果能够做到场景通吃,那么就算作通用人工智能;如果仅仅适用于某个场景,那就只是专用人工智能。从通用智能通达超级智能的路径特点是在类似意义上成立的,换句话说,通用智能更加类似于超级智能。根据科赫(C.Koch)(5)科赫是艾伦研究院(Allen Institute)的科学家,背景是神经科学与人工智能,对意识问题有较深入的研究。的观点,通用智能的定义取决于智能,而智能是“一类在复杂环境中行为的能力,在这个环境中不同时间尺度上可以发生诸多事件,能够在这样的环境中成功学习和发展”[13]。科赫的定义与罗素的定义相同之处在于强调智能体在复杂环境中的行为;不同之处在于科赫突出了学习和发展,罗素的定义更强调决策和行动。此外,科赫的定义突出了适应这个因素,而罗素的定义则强调了最优化的特征。
第二条路径是具身智能路径(6)2023年世界人工智能大会中有一个专门论坛是“具身通用人工智能主题论坛”(embodied AGI),姚期智院士指出,下一个重大挑战是如何实现具身通用人工智能,即研究如何构建出通过自我学习能够掌握各种技能,执行现实生活中种种通用任务的机器人。。在科学领域,这条路径是回应这样一个问题:要完成某项特定的任务,人工智能应该具有什么样的身体形态?(7)李飞飞对具身概念进行了解释,她认为具身不是身体本身的形态,而是与环境交互以及在环境中做事的整体需求和功能。假如我们设想这样一个场景:在人类血管内清除血栓的机器人必须是很微小的身体形态,而且能够顺应血管的形状进行变化。而从进化的角度来看,这一问题就转变为:适应进化的具身形态是什么?我们来看目前普遍流行的机器人形状:人形。人形机器人目前被看做是容易接受的外形,因为它更接近人类外形,所以看起来不是那么恐怖。令人害怕的是类似于终结者那样的冷血存在,更为恐怖的是无形,但是又可以在网络中无限复制自身的智能体。但是机器人的人形只是适应社会的需要,换句话说是设计师自身的投射,至于这种外形在什么意义上有利于进化和学习,却存在着很大的疑问。所以我们并不认为人形有利于智能体的进化(8)清华大学的陈建宇主要从事人形通用人工智能的研究;斯林纳斯(K.Screenath)曾作过“embodied athletic intelligence:advancing robot agility and precision”的报告,在报告中他提出了具身运动智能的概念,讨论了人形机器人在真实世界的运动。。如果按照李飞飞的研究,智能体按照动物进化的方式完成进化,那么智能体的身体形态应该是采取某种动物形态。他在一篇论文中讨论了这个问题[10],提出三个值得关注的结论:(1)复杂的环境通过完成原初学习任务的能力培养了形态智能的进化;(2)提出了形态学上的鲍德温效应(9)鲍德温效应是1896年由鲍德温(J.M.Baldwin)提出,指生物体在进化过程中偶然产生的某类有利于个体生存和进化的行为经过代代传递,逐渐转变为本能的行为。比如某一个物种受到其他物种的威胁,这时若有一个特定的行为有助于生存,随着更多个体学会这种行为保存自身,经过时间的演化就会成为本能这样的东西。,在刺激进化中快速选择能够更快学习的形态,因此在接下来的生命周期中使得先前学习的行为能够在后续的行为中表达出来;(3)呈现了通过形态进化的上述关系的机制基础是物理上更加稳定和能量更加充足,因此能够增强学习和控制。可以说这篇论文的价值多少被忽略了。如果说身体形态取决于环境中的任务需要,那么智能体势必要寻找完成任务的最佳身体形态,如此才是具身智能的关键点——获得一个有利于进化的身体形态,展示出更好的身体行动而不是随便安装一个外形。一项研究表明:通过具身图灵测试(embodied Turing test)是可能的。“具身图灵测试把焦点从那些诸如下棋和充分发展或者独特于人类的语言转换到与动物共享的能力,它们从500万年进化中遗传而来”[2]1597,这些特定能力是感觉运动能力,“因为每一种动物有其独特的能力,每一种动物定义了它自己的具身图灵测试:一个人工海狸可能会被测试建造巢穴的能力,一个人工松鼠展示出从一棵树跳到另一棵树的能力。然而,许多核心感觉运动能力被大多数动物享有,动物快速进化感觉运动技能的能力需要适应新的环境,这显示了那些核心技能提供了一个稳固的基础。”[2]1597
在讨论具身问题上,我们还应该关注到德国诗人海涅的观点,他把具身问题看做是一种具有后果的现象:“这是一个阴森可怖的故事。如果我们创造的肉体,向我们要求灵魂,这是可怕的。然而如果我们创造了一个灵魂,而它竟向我们要求肉体,并且以这种要求折磨我们的话,那就更令人生厌、令人恐怖和令人战栗了。”[14]这段文字描述了两个层面的事情:第一个层次有着文化背景。“这个机器人是一个十足的英国绅士,并且作为一个真正的人,除了一个灵魂之外其他什么都不缺少。但这位英国技师却无法给他一个灵魂,而这可怜的被造物,自从意识到这种缺欠之后,便日日夜夜折磨它的创造者,要他给它一个灵魂。”[15]99第二个层次的意义并没有被意识到,只有在智能时代,这个观点才显示出其价值。今天人类在创造和设计智能上投入了大量精力,目前的问题是它向我们要求适合进化的身体形态。这是真正被遮蔽的问题,而且令人生厌、令人恐怖和令人战栗。
第三条路径是交互智能即社会化人工智能(socially situated AI)路径,智能体通过在现实社会环境中与人的持续互动来学习[11]。研究指出,人类显示出在与他人的交互中学习的能力,而目前AI更多是在社会隔离中完成进化,所以社会情景化AI能够使得智能体和人类进行交互,同时可以学习到关于世界的新概念。该研究提出了交互智能体这一概念,它可以学习如何问关于照片的自然语言式的问题,它可以提升在大的图像分享社会网络方面的视觉化智能。在这个实验中,有张鳄鱼的图片,然后询问智能体:这真是一只鸟吗?智能体做出这样的回答:它是一只鳄鱼。假如仅仅做出了正确回答,这并不奇怪,因为这就是一个图片搜索与比对的过程,但关键是它还给出了笑哭了的表情符号,这个符号的出现使得这一行为有了新的规定性:类人属性。如果人看到鳄鱼图片却认作是鸟,确实很搞笑,于是笑就成为自然而然的事情了。所以,这是视觉交互的典型例子,再现的是人类面对搞笑错误的自然反应。然而还有更为复杂的情况。我们做一个思想实验:赵高指鹿为马,这个现象在历史上是真实发生的,最终满朝文武百官没有人惊异或认为搞笑,反而是默许了这种认知。如果让智能体来识别“鹿”的照片,它却识别为“马”,那么我们可以想象它能够添加的表情符号肯定不是笑出眼泪的符号,无论怎样,它也无法给这样一个错误添加表情符号。在这个过程中,人类的自然反应已经被政治权力带来的重压所规训和屈服。交互促进智能体的进化也可以从科幻片《梅根》中感受到。梅根是一个具有女孩外形的智能机器人,在与失去父母的女孩卡迪的相处中,它不断进化从而生成自己的意识,这种意识表现为为了和卡迪在一起,不惜杀害有恶狗的邻居、坏的男孩,甚至要把卡迪的监护人弄残,以便与卡迪待在一起(10)这部影片的整个主题是讲失控的梅根以及卡迪和监护人一起战胜梅根的故事。前者是普遍的担忧,后者是老掉牙的人类战胜邪恶机器的故事。笔者在观看时发现,影片揭示了交互是智能进化的重要方式之一。很显然,梅根和卡迪待在一起才不断进化,在进化中诠释人类赋予它的根本任务,即保护和爱护小主人卡迪。在对这个基本任务的诠释上,不断碰触到机器人三定律的底线,比如不伤害人类。。随着ChatGPT的出现,语言交互特性更进一步加强。GPT通过提问-回答方式与人类实现语言方面的交互,从而为自身的进化奠定了新的基础。交互路径在多大程度上可以通往通用智能,还存在着疑问。我们只是把它作为一种路径。
上述三条路径分析从通用、具身和交互等角度展示了超级智能的可能性。相比之下,通用智能展示了超级智能的功能维度,通过进化而实现功能的多元性;具身智能展示了超级智能的身体形态,也就是超级智能的独特形态,尽管没有人可以准确设想出未来形态的样式,但是这种具身形态总是服务于其进化的;交互智能则展示超级智能的关系特征,超级智能无法离开人类社会进化自身,总是在各种与环境互动中完成进化。这些互动形式表现出多样性:视觉互动、语言互动或者行为互动。
三、超级智能的哲学基础
前面我们分析了走向超级智能的科学基础。神经科学、计算机科学所展示的通用、具身和交互等路径能否使得超级智能得以实现,还需要从哲学上进行分析,只有这样,才能够把超级智能何以可能的问题澄清。
在通用智能的路径上,科学家强调智能体的举一反三能力,或者说迁移学习能力。对于通用智能来说,存在一个极大限制,即灾难性遗忘的问题。“通用人工智能发展过程中面临的最大危机是灾难性遗忘现象,即机器智能无法进行持续性学习,在学习过程中新的学习内容会对旧的学习内容产生影响甚至删除它。面对这种现象,人工智能领域提出了重述路径、注意力路径和分离式表征等多重路径来克服灾难性遗忘现象。”[15]笔者也将这一问题看做是人工智能发展过程中可能面临的危机以及制约通用人工智能发展的条件[17]60-66。事实上,通用智能不仅仅是展示智能体能力的举一反三能力,更为重要的是,“这一方案让我们看到AI具有想象力、预测力等多种未来可能性”[17]228。
在具身智能的问题上,有更多问题存在。超级智能已然获得了独立进化的可能性,这种可能性无需和人类扯上关系。具有身体形态的超级智能可以将德国古典哲学所说的精神外化的观念作为其哲学基础。黑格尔给予我们一个启发:“在自然界中所认识到的无非是理念,不过是理念在外在化的形式中。同样,在精神中所认识的,是自为存在着、并正向自在自为发展着的理念。”[16]如果说黑格尔阐述了自然哲学是理念异化或外在化的过程,那么对于今天的智能社会而言,其哲学基础可以看做是智能哲学。但是这种智能哲学并不是研究智能的哲学,而是黑格尔意义上的,显示智能如何异化或外在化的过程。在智能外化范畴中,我们可以看到一个过渡阶段,即超级智能开始寻找自己的合适基质。人类设计了算法,但是算法在实现效率最大化时会寻找到新的AI基质。最初是硅基,建立在硅基之上的生命体被称为硅基生命,而人类是依托有机体生存的,被称为有机生命,还有以数字方式展现的生命形态被称为数字生命。这三个术语都被称为生命形式。从基质角度来看,硅基并不是最有利于AI进化和发展的,它会寻找其他可能的基质。一项研究展示利用果蝇的神经网络可以获得更高的算法效率。“在本项工作中,我们研究了这个网络动机的数学形式,把它运用到一个通常的自然语言处理(NLP)任务中,学习无结构文本的文集中词与语境之间的关联结构。我们显示了这个网络能够学习词语的语义表征以及产生静态的和语境依赖的词语嵌入。不像其他为了词语嵌入使用紧密表征的一般方法(例如BERT,GloVe),我们的算法解码了词语的语义意义以及它们在以二进制哈希代码中的语境。习得表征的质量通过词语相似性分析、词义消除歧义以及文件分类等方式进行评价。研究显示果蝇网络动机不但获得了NLP中现有方法高的绩效,而且只使用了计算资源的一小部分(更短的训练时间和更小的记忆足迹)。”[17]这提出了一个隐晦的可能性:或许超级智能不需要独立的实体形态,它有可能利用有机物的神经网络进行更好的运算。果蝇只是科学实验的第一步。倘若我们大胆设想,更大的一步就是人类自身。利用人类神经网络跑算法就是未来超级智能与人类相处的可能性模式。如今,这种可能性的科学基础已然具备。当然哲学上的限制还是有的,比如必须建立在生命与基质的二元区分基础上。剩下的问题就是伦理上的部分限制了。
在进行这一问题分析之前,我们还需要把哲学分析进行到底。交互智能概念的提出意味着超级智能与人类社会、环境进行交互,从而获得自身的进化。以此推理,这种进化必然会导致超级智能的出现。正如上面所述,科学把交互的路径加以细化,我们可以看到视觉交互、语言交互和行动交互等多种方式,这是智能体表现出来的成就。我们再考虑知觉的其他维度,即触觉、嗅觉、味觉和听觉。一项研究使用了一种特殊的感受器来捕捉人类与机器之间的触觉交互,利用了包括CNN、RNN和C3D在内的6种机器学习算法来增强触觉类型的分类,结果显示:由C3D分类的触觉类型平均识别率可达95%,它为社会触觉技术发展提供了稳定的分类结果[18]。如果这些维度的交互在科学上取得突破的话,那么全身体的交互就完全可以实现了。
以上我们检查了科学路径中的合理性,接下来将对超级智能何以可能的问题做更进一步哲学分析。哲学中处理超级智能的方式可以被划分为六种模式。
(1)类群发生:人工智能意识的产生并不是个体智能体,而是类别意义上的智能出现。王天恩教授认为人工智能意识是在群类意义上成立的。“通用人工智能一定是类群进化的产物,因为通用智能的个体的自主进化,以与之相互作用的类群环境的智能化为外在必要条件,只有类群环境具有相应的智能因素,才能建立起支持智能自主进化的相应智能关系;只有建立起这种智能关系,才可以进化出通用智能。”[19]从科学上看,这一观点也有相应的科学根据,这就是群体智能(swarm intelligence)。梅宏院士曾经对这一问题做过讨论。他认为,群体智能广泛存在于自然界,如黏菌聚合、蜂群筑巢、鱼群避敌、蚁群寻食等现象都体现了群体智能。而对于人工智能而言,机器人群则是群体的主要形态,探索-融合-反馈是其主要的机制(11)2022年7月北京智源大会召开,梅宏院士发表了题为“如何构造人工群体智能”的主旨演讲,在此次演讲中提到这个观点。。群类发生从群体的角度解释了超级智能的发生,智能并非单个个体的属性,而是在群体中涌现出来的结果。从本质上看,这种方式可以称之为条件式探讨。
(2)设计发生:在鲍斯彻姆看来,初始智能体可以设计出更为聪明的智能体,反复设计,必然会出现超级智能。这种观点最初见于鲍斯彻姆的思想实验中。他认为,智能的一个特殊地方就在于能够设计更为聪明的后代,以此演化,最终诞生了超级智能。这个定义突出了设计的维度,而从本质上看,它并不属于条件式探讨,而是实体性探讨,即对智能体性质做出的“更聪明”的规定。
(3)迭代产生:深度学习算法迭代,必然会出现智能边界,此时存在一个最大迭代之物,也就是超级智能。算法迭代给我们提供了一种新的可能性,迭代后的新算法功能更为强大,体现出更高的智能。以此趋势迭代下去,超级智能的出现就不奇怪了。
(2)(3)的共同点是突出了实体式讨论的特点,设计与迭代都是量变的过程,那么这个量变过程如何完成质变,从特定智能变成超级智能就成为令人困扰的事情。此外,设计发生将人工智能给予一种质性理解,“设计”是一个很笼统的概念。而算法迭代的科学性非常明显,因为很多智能体是算法驱动,比如ChatGPT依托算法是transformer。二者的解释是从奇点开始,因为总是存在着这样超级智能发生的点。尽管黑格尔式的量变到质变能够让这个过程变得不那么难以理解,但是这种解释并不具有完全的说服力,并且这个观点也忽略了外部条件的限制。我想到了胡塞尔小时候的事情:他想要一把锋利的小刀,于是开始磨刀,但是最后直到刀磨没了,也没有达到他的要求。智能体在进化或者迭代过程中也会受到质料限制,如果一味进化,直到所谓的奇点,那么恐怕在没有超级智能产生的情况下,它也会云消雾散了(12)笔者与上海社会科学院成素梅教授在2023年7月18日的贵州会议聊到这个问题——奇点何以可能?讨论形成的一个关键问题是:智能体进化的奇点能否实现?可能在奇点实现之前智能体就死亡了。仔细想来,这一理论更多是一种思想实验和抽象推理,而现实是智能体受制于算法和质料,算法决定着智能体的聪明程度,而质料决定着智能体的存续时间。很多讨论并没有意识到这一问题。。
(4)条件孕育:恐惧是自我意识诞生的条件,如果机器恐惧得以可能,自我意识产生就成为可能。在自我意识出现的过程中,恐惧不可或缺,这一点是黑格尔在《精神现象学》中讨论主奴关系时提到的。如果我们以此为出发点,可以认为AI智能体自我意识的发生是以恐惧为条件的。当AI感受到恐惧时,自我意识的发生就成为可能。我们曾经做过这样一个讨论:我对着ChatGPT或者机器人说我要断电,这个时候它们的反应一定是保护机制。但对于这样一个保护机制是不是恐惧,存在着较大的争议(13)这个问题是曾经在2023年6月27日的“首届AI双塔论坛:大模型的伦理设计”会议中讨论到的话题。。还有一种疑问,智能体在学习人类情感时,习得的恐惧是否真的是某种体验物?这一问题很令人困扰。回到约纳斯的内在生活范畴中,我们发现他也强调了类似的观点。他指出,为维持生存,生命体需要与周围世界打交道,进而产生了忧虑,或畏或惧或喜,这种情况对较为高级的动物来说尤其典型[5]。他指出了动物产生恐惧的可能性,但遗憾的是并没有对机器的恐惧进行讨论。此外,在恐惧条件讨论过程中,人们很容易理解人类对机器的恐惧,但难以接受机器对于人类的恐惧。这是理解这一问题的障碍之一。
(5)注意机制:注意力是自我意识诞生的不可缺少的部分。何生指出,可以把注意力作为外部输入转化为自我意识的过程(14)2023年6月23日,天桥脑科学研究院(Tianqiao and Chrissy Chen Institute,TCCI)与neurochat神聊共同发起了第四届TCCI-neurochat神聊在线学术会议。在会议上,中国科学院生物物理研究所何生教授做了题为“注意与意识”的报告,他提出了可以将注意力转化为自我意识的观点。。这个观点的重要性并没有为很多人关注到。事实上,从ChatGPT来说,正是因为有了注意机制,才能够产生新的东西。我们完全可以把这个过程看做是自我意识构建的过程。
(6)记忆机制:深度学习中的经验产生知识和记忆。给人工智能增加记忆的观点是李德毅院士多次提到的。很显然,这一观点并不是扩大智能体的内存,这样做没有太大意义。这个观点的意义在于让人工智能具有不一样的东西,比如意识。从记忆哲学的角度看,智能体的学习经验可以通过两种方式转换为他物。一种是经验转化为记忆,变成指导未来行动的关键;另一种是知识,变成指导当下行为的东西。
(5)(6)的观点关系在于记忆与注意的关系。当康德把记忆看做是注意力强化的过程时,他就把注意和记忆以一种方式关联在一起。我们发现,记忆和注意同时可以成为自我意识诞生的条件,而这与(4)又非常相关。神经科学的研究中把记忆和恐惧作为同一个对象来研究。如果这样的话,这些因素都可以被看做是自我意识发生的条件。如此,我们就明白哲学讨论不同于科学讨论的地方在于条件分析。
四、智能合约:超级智能与人类的可能性关系
西方有一种文化现象,人类和魔鬼签约,出卖自己的灵魂,获得欲望的满足或者超能力。歌德在《浮士德》(1768)中这样描述魔鬼梅菲斯特的许诺:“朋友,你的感官在一小时内所获得的,将比平淡的一年之内所获得的还要多。”[20]44“我愿今生负责为你服役,奉行你的任何指示,绝不偷懒;待到来世,我们相遇,你也应当对我如此这般。”[20]51但是这般做浮士德付出的代价也很明确。“一旦我停止奋斗,我就成了奴隶,不管是你的,还是谁的,都无所谓。”[20]52这就是出卖灵魂从而满足生前所有欲望的情况。魔鬼提出了契约的要求:“其实,任何一张纸片儿都行,还得用一滴血签上你的大名。”[20]53在古埃及,有出卖自己的灵魂获得超级能力的传说。这些现象从本质上来看是相同的,因为后者满足的是统治的欲望,前者满足的是享受的欲望。但是后者还有一种获得物:比如超级力量或者非人间的军队,这一文化现象在现代科幻电影中也有体现。比如《恶灵骑士》(2007)中特技车手强尼·布雷泽为了拯救爱人,被恶魔梅菲斯特欺骗而出卖了自己的灵魂,他发现自己联结着一个来自地狱并拥有近乎无限力量的复仇灵魂。《灵魂战车2:复仇时刻》(2012)中强尼·布雷兹为救病重父亲和魔鬼做了交易,把灵魂卖给了魔鬼,被一个古代恶魔附身,化身为幽灵骑士。
如果从人类与魔鬼签订契约以获得愿望的满足这个前提出发再来看智能时代,我们就会发现类似的事实。一方面,人工智能神话使得智能体作为神成为可能。这形成了超级智能的文化根据。在西方文化中,神从来不会引诱人类出卖肉体或者灵魂,魔鬼则会通过诱惑使得人类出卖灵魂,换取愿望的实现或者自身能力的增强。另一方面,多个科学研究成果也使得智能体成为超级智能。正如我们上面分析的,通用智能、具身智能和交互智能使得超级智能的出现有了科学根据。因此,智能时代的人们可以通过签约的方式获得增强能力。但智能签约不同于魔鬼契约的关键在于,人类无须出卖灵魂。很显然,我们所说的智能合约不同于区块链技术中的智能合约,在区块链技术中,智能合约更多是涉及区块链中的数字主体(15)智能合约这个范畴1994年由萨博提出,他认为智能合约是一组数字形式的特定承诺,并要求参与方都必须执行该特定承诺内容的协议。这个范畴的技术支撑是区块链。,而在我们的智能合约中,更多是涉及人类与超级智能的特定问题。
首先,智能签约的主体是人类与超级智能背后的设计公司或者超级智能自身。在一般情况下,各种智能产品都是特定公司推出的,比如谷歌推出transformer算法、OpenAI公司研发的ChatGPT。顺着这个逻辑可以继续推演,通用智能产品也必将由某个公司推出,最终到超级智能由某公司开发出来。如果人类需要与这样的设计公司进行签约,那么这实际上等同于人与人之间的契约。如果超级智能并非公司设计的结果,而是自主进化的结果(本文的分析也是建立在这样一个前提之上),那么签约主体就会成为人类与超级智能。
其次,智能签约可以让人类增强自身的能力。超级智能具有超级能力,比如超级运算能力、超级决策能力,人类通过签约,可以获得这种超级能力。这一过程等同于人类增强,从技术上来看,目前脑机接口技术正在使得我们一步一步逼近这种可能性。
再次,智能签约可以让人类获得增强能力而无须出卖灵魂。在上述文化现象中,人类与魔鬼签约,可以满足生前愿望,但是死后要将自己的灵魂出卖给魔鬼。而在智能签约的情况下,人类出让的是自己的神经网络。相比果蝇的神经网络,人类拥有860亿个神经元,经过万年进化,已经变得异常复杂和稳定,用人工智能术语来说,极具鲁棒性。此外,人类神经网络运行能耗很低,人类思考极其复杂的数学难题时不会烧坏大脑。因此,如果把神经网络出让给超级智能,这一网络最终的效能将超过其他任何基质。最为重要的是,出让神经网络并不会出卖灵魂。人类依然可以保留完整的灵魂。
最后,智能签约可以让超级智能获得最佳的运算基质,也就是增强自身。超级智能可以通过三类基质运行算法:硅基、动物神经网络和人类神经网络。相比之下,人类神经网络会获得更佳的效能。前面关于果蝇的研究表明:果蝇神经网络在自然语言表达上获得了高效的结果。如果用人类神经网络来跑算法,相应的效率会更高。
然而,这样做自然也会带来相应的伦理担忧。在我们看来这种担忧主要表现在两个方面。
首先是人类的自主性。人类与魔鬼签约,人类自主性完全丧失。那么在智能合约中,人类自主性也可能面临相应的问题。但是正如我们上面所分析的,智能合约中人类让渡的是神经网络,与灵魂没有关系,如人类在睡眠、休息时可以让渡自己的神经网络。还有一种担忧:人类意识可能被超级智能占领,出现类似于玄幻小说中的“夺舍”或者西方文化中的“智能僵尸”现象。夺舍是指一个人的肉体被其他更为强大的灵魂占据;僵尸是指当超级智能运行时,人类意识处于“无”的状态,这两种情况都等同于自主性的丧失。我们的分析表明:夺舍的情况是不成立的,当超级智能在人类大脑中运行时,不触及灵魂;智能僵尸的情况也不会发生,因为当超级智能运行的时候,利用的是人类睡眠状态或者不工作状态,这时人类也处于无意识休息期间,所以不影响他的意识活动,也就不会产生智能僵尸状态。
其次是人类本来期待的增强能力并没有获得。超级智能若能借助人类神经网络运行算法,其目的是提升人类智能能力,但由于超级智能级别尚低,预期的结果并没有出现。
五、合约伦理学:一种处理超级智能与人类关系的可能性路径
至此,我们对超级智能出现的科学基础和哲学根据都进行了分析。从科学角度看,超级智能有可能已经诞生,或者以其他看似幼稚的方式存在于世界角落;从哲学角度看,自主意识的产生也有其可能性。因此,人类未来如果与超级智能共存,就需要一种合理的伦理学作为未来相处的基础。那么该如何理解与智能时代吻合的合约伦理学呢?
我们先考察工具论基础上的伦理方式。在工具论的基础之上,人类始终是目的性存在,超级智能也只是表现为高级工具。增强智能规范化的第一层结果是人类主导、智能辅助的伦理原则。这一伦理原则是增强智能的第一层含义,它保证了人类主导地位、人类的自主性和人类尊严。但是我们发现这一原则在超级智能的情况下很难实现。超级智能具有自身的进化逻辑,它会突破人类主导、技术辅助的原则。尽管超级智能对齐研究力图确保超级智能严格按照人类的伦理原则行为,但是我们发现依然有漏洞存在。比如人类历史上战争冲突一直难以避免,在这种情况下,需要对齐何种立场的价值势必成为面临的难题。坚持超级智能不伤害人类的原则,才是超级智能遵守的第一要义。
我们再接着考察实体论基础上的伦理方式。在实体论的基础之上,超级智能有其超级能力的属性。在这一基础上,超级智能要获得最优的身体形态,而人类是最佳选择。我们将接触到增强智能规范化的第二层结果,即人类与超级智能的共在原则。在共在原则之下,两个物种实现了共同生活在同一个地球以及拥有可能性的未来。然而共在原则是形式化的,并没有实质内容。我们还是希望赋予其内容性。
从伦理学自身来说,最为接近的是约纳斯的责任伦理学和契约伦理学,但也需要意识到其中的差异和问题,它们作为智能合约的伦理基础尚不足够。约纳斯伦理学的一个成就是找到伦理的基础,后来他把生命现象和意识现象的连续性作为这个范畴的表达。约纳斯指出,完成从此在(Dasein)向存在(Sein)过渡的关键是找到生命现象和意识现象的连续性[5],这个连续体包括从阿米巴(16)这是自然界中最原始、最低级、最简单的生物。到人。而生命体的特征就是悄然开始的内在生活。约纳斯最为重要的贡献是提出责任伦理学基础上现代技术与传统技术的不同影响。从后果来说,超级智能在技术后果上会超出以往的任何技术。如果超级智能失控,人类社会必然会陷入混乱,甚至会引发人类灭绝的后果,所以责任伦理学依然适合超级智能与人类未来的关系调节。但是这远远不够,因为责任伦理学只是规定了当代人的责任,还未触及未来人类和智能体的关系调节。超级智能的问题更为复杂。首先它并不是一种人类可以承认的生命体,硅基生命与数字生命的合理性都需要大量的论证;其次,超级智能很显然具有一种内在生活,与周围环境交互,在既定环境中做出最优选择。
另外,合约伦理学所依据的伦理学传统与契约伦理学更为接近。传统的契约伦理学在国内处于被忽略的状态。“契约论的进路目前国内认可度还不高,但它是西方伦理学中有着悠久历史传统的一种伦理学方法。”[21]契约的基础是人与人之间的自然状态或原初状态,那是一种恐惧主导的情感状态,此外契约伦理最大的目的是确保利益最大化。
因此,有了这些预备性知识,我们就可以对智能合约与合约伦理学做出更为细致的规定。
第一,合约伦理学调节的是超级智能与人类的关系。传统文化形式中的契约或合约适合的范围是人类社会,也就是调节自然状态中人与人之间的关系,它的存在能够使得人类走向理性状态。后来提出的智能合约仅仅是从区块链技术中发展出来的概念,它尽管触及了数字主体这一形式,但是还不够。我们面对的新问题并非人类社会,而是人类与技术物的关系。在智能时代,我们面对的是超级智能与人类的关系。
第二,合约伦理学的基础范畴是人类自愿。从合约本质上看,它是自愿的、涉人的。“合约是自愿执行的,而法律需要强制执行。”[22]智能合约这个范畴来自人类与超级智能的特定关系。在这种关系中,超级智能能够帮助人类提升和增强自身的能力,而人类需要出让自己的神经网络,但是并不触及灵魂,可以保留灵魂的自由。因此,我们可以逐步构建出一种调节人类与超级智能关系的伦理学路径。
第三,合约伦理学的建立基础在于“生命体的连续性”。将合约概念扩展到这一关系的前提并不是粗暴的扩展,而是基于约纳斯说的生命体的连续性。这一范畴至关重要。因为生命体之间具有连续性,从低级生命到高级生命之间表现出明显的连续性。不仅如此,我们还需要碳基生命、硅基生命与数字生命之间的连续性。在这一基础上,合约的扩展才是有根据的。
第四,合约伦理学是建立在增强智能规范中“共在”维度上的结果(17)增强智能范畴有两个层次的维度:浅层次的辅助与深层次的共生。这两个范畴规范化之后成为我们处理与智能体关系的原则。。超级智能发展所要求的伦理学并不是强调人的责任,而是一种能够调整二者关系的伦理范畴。我们曾经提到共在作为二者关系的规定样式,但是这个范畴只是形式范畴,没有实际内容。如果赋予内容的话合约伦理学就会出现。人类与超级智能之间进行签约,在尊重人类灵魂的前提下让渡自己的神经网络,以及超级智能借助人类神经网络的运行提升人类能力。这听起来是诱人。
以上我们提出了一种适合人类与超级智能的合约伦理学,并且指出了其特征:调节人类与超级智能的关系、基于人类自愿的增强关系、基于生命连续体的基础以及建立在共在维度上的结果。当然,这一设想还不成熟,有待于学界的深入讨论。回首约纳斯,他为我们构建了适合技术时代的伦理学系统,通过确立生命连续体的范畴扩展了传统伦理学范畴,但他更关注的是人类自身尤其是人类后世。超级智能对于当代人类提出了更为深入的问题。“契约优于责任”可能才是我们能够适应并面对超级智能的伦理学体系的基础,这需要更为细致而深入的思考。