海德格尔式人工智能及其对“意识”问题的反思
——兼与何怀宏先生商榷
2019-11-17
近几年,人工智能一词越来越多地出现在日常生活的新闻中:阿尔法狗(AlphaGo)先后战胜人类顶级围棋手李世石和柯洁,类人机器人索菲亚(Sophia)在沙特授予其公民身份的大会上侃侃而谈,幽默地应对主持人抛来的各种难题。在论及人工智能的发展前景时,有不少学者表达了对人工智能威胁人类文明的恐惧和忧虑:有的认为人工智能是一种“无机智能”,其发展将会取代有机智能;有的则担心人工智能将因帮助人类解决一切问题而消解人类生存的意义,进而取代乃至毁灭人类。对于种种人工智能威胁论,本文认同应该对人工智能领域的技术发展进行伦理上的思考和规范,但是如果仅仅是出于对媒体渲染的人工智能前景的恐慌,排斥对人工智能的深入了解和技术研究,只会导致人文学科失去与技术对话的能力,更不用说参与到人工智能在社会生活中的发展进程中去。
实际上,威胁论所遭遇的第一个困境就是,智能机器要想进行反叛,首先就必须获得能够理解什么是“反叛”并把智能机器自身与作为控制者的人类区分开来的独立意识。这种意识是否真的能够在机器中产生?又与人类的意识有何区别?这一问题其实从人工智能研究初期就不断困扰着科研人员。
海德格尔思想与人工智能研究转向
1948年,计算机科学的先驱艾伦·图灵发表了《智能机器》报告,两年后又提出了著名的图灵测试,通过人类是否能够根据语言回答区分作答的是人还是机器,来判断该机器是否具有智能。1955年,几位美国数学家为即将展开的人工智能研究项目撰写了研究计划,明确了用机器模拟人类智能的研究方向。对于这一阶段的人工智能科学家而言,人类思想在很大程度上是根据理性原则和推理规则来处理单词。也就是说,对这些科学家来说,只要能正确运用语言规则和词汇,在与人类的对答中成功欺骗人类,这样的机器就拥有了智能。
从这一判断标准来看,随着计算机存储和运算能力的不断提升及其与互联网大数据这一“超级语料库”的结合,机器人与人类的“对话”会向着越来越“自然”,也即难以与人类对话相区分的状态发展。2017年获得沙特公民身份、拥有语言交流能力的类人机器人索菲亚即为一例。如果从早期人工智能研究的目标来看,索菲亚的诞生已经可以说是完成了当时的研究者对人工智能的期待。但是我们能说这样的类人机器人具有人类的“意识”吗?如果说这不是“意识”的话,它与“意识”之间的区别在哪里呢?
其实,早在1963年,存在主义哲学家休伯特·德雷福斯(Hubert Dreyfus)就已经反思过这个问题,认为这样的人工智能研究方向一开始就走入了误区。他从存在论视角出发对当时人工智能的理论基础进行了尖锐的批判,写出了后来扩充为专著《计算机不能做什么》的报告《炼金术与人工智能》。报告中,德雷福斯借助海德格尔的思想阐述了早期人工智能研究所采取的理性主义“再现”式意识观的问题:意义和相关性是无法通过符号再现的。就拿海德格尔的锤子比喻来说,我们如何使机器理解“锤子”一词所对应的人类所使用的作为实物的锤子?早期人工智能研究认为可以给它附加上“锤”的功能定义来解决这个问题,即加上“锤钉子”的功能标签。但是,如果没有“钉子”“锤”的身体动作、钉入钉子的目标,“锤”这一功能定义仍然是不可理解的。在人类的意识中,存在着无法用符号传达的、在整个人类世界中体现出来的“意义”。这就是为什么“会说话”的索菲亚不能“理解”它所说的话。
仍然不肯死心的人工智能专家马文·明斯基(Marvin Minsky)提出用输入尽可能多的词汇和功能性规定来解决这一问题,想办法把整个人类世界都转换成符号。但是,一旦真的输入了无限多的词汇,机器该如何在各种情境中自动选择最为相关的词汇和功能规定呢?像人类这样一眼看出事物之间的相关性的意识能力并非符号所能再现。于是,明斯基接着提出用“框架”结构来预先规定某种智能机器的应用场景以及反应模式,通过缩小使用范围来回避相关性问题。不过这样一来,拥有确定“框架”的智能机器只能在某些特定的情境中实现特定的功能,已经远离人工智能最初的实现类人智能的目标了。
这样的理论困境导致了人工智能领域在研究方向上的分化和转向。美国哲学家约翰·塞尔(John Searle)在1980年发表的《心、脑与程序》一文中区分出“强人工智能(Strong AI)”与“弱人工智能(Weak AI)”,前者追求使人工智能真正拥有人类意识,而后者仅仅把人工智能看作工具。“弱人工智能”,或者现在被理解为“专用人工智能(narrow AI)”或“应用人工智能(applied AI)”如火如荼地发展起来:今天的阿尔法狗、无人驾驶汽车、人工智能医生等智能机器都是只能在某些特定领域应用的专用人工智能。即便它们在这些领域的特定表现远远超过人类,这些人工智能与“强人工智能”之间仍然存在着不可跨越的鸿沟,并非只用计算能力的发展就可以填补,而是存在着根本上的理论难题。因此大可不必因为这些人工智能在日常生活中的大量运用而产生人工智能集体反叛、控制人类社会的恐惧。
另一方面,“强人工智能”,或者现在被理解为“人工通用智能(AGI:Artificial General Intelligence)”的研究则汲取了德雷福斯的批判,转向以海德格尔思想为基础的人工智能研究,出现了至少三种新的研究范式:罗德尼·布鲁克斯(Rodney Brooks)的行为主义方法,菲儿·阿齐(Phil Agre)的实用主义模型,以及瓦尔特·弗里曼(Walter Freeman)的动态神经模型。
这三种研究范式以各自对“意识”问题的理解突破了早期“再现”式人工智能研究,但又都有着各自的局限性。布鲁克斯制造出依靠直接接收外部刺激并给出相应的反馈来运作的机器人,不再试图在机器内部构造一个世界模型。这样的机器人可以说是初步具备了独立存在于世的可能,然而遗憾的是,机器人的感应器有着感应范围上的局限性,只能对特定环境中的某些特定特征做出反应,无法应对始终变化着的开放世界。阿齐直接从“用锤子来做什么,怎么用”的角度来设计他的人工智能程序,从另一个角度突破了“再现”式的意识观。不过,这样的人工智能同样会因为其预先设置而呈现出封闭性。
最后,有鉴于前两种海德格尔人工智能研究范式的问题,德雷福斯建议引入神经科学奠基人之一弗里曼有关生物如何在适应环境的过程中通过神经连接的强化来进行自我学习的动态神经模型。不同于“再现”式意识观对学习的理解,弗里曼的研究显示,每当事物对我们显现出一种新的意义时,并非是一个新的再现式的功能符号被储存进了我们的大脑,而是我们的“感知-行动”模式被改变了。从“感知-行动”模式的视角来看,事物在意识中的显现方式并非是它自身,而是我们过去与它互动时的整个情境和体验,而且它会在我们每一次与之进行互动时进一步发生变化。
尽管这些海德格尔式人工智能距离真正实现强人工智能还非常遥远,但这些努力一方面启发了专用人工智能的技术发展,比如新一代围棋人工智能“阿尔法元(Alpha Zero)”通过不断地对弈实践和反馈强化来进行自主学习的“强化学习(Reinforcement learning)”设计思路;另一方面,研究者们在强人工智能研究上所做的种种努力也反过来促进了人类对“意识”问题的探索和理解。几种海德格尔式人工智能都抛弃了传统的符号再现方法,转而以生物与日常世界打交道时的行为方式作为研究基础。因此,这条人工智能发展史并非只是技术发展史,同时也是对人类“意识”的探索和观念转变史。
不过,如果我们沿着海德格尔式人工智能的研究思路继续推进,将会碰到强人工智能研究的最大困境:人类在情境中直接把握意义,不断熟悉、改进自己与世界打交道的方式的基础在于人类的身体存在,世界是相对于我们的需要、身材尺寸、行动方式等呈现出意义的。从这个角度来说,图灵测试最大的问题在于,它没有考虑到“能说”与“能做”的区别,一个没有“亲身”体验过“锤”这个动作的机器即便掌握再多与“锤子”相关的知识也无法真正理解“锤子”。因此,人工智能与人类之间的根本区别与其说是“没有意识”,不如说是“没有身体”,或者更确切说是没有依托于人类特有的在世方式的“身体-意识”。
重新思考人工智能中的“意识”问题
对人工智能可能获得反叛意识和能力的恐惧其实基于自笛卡尔以来的身心二元论,甚至是更早的西方文化传统中的意识可以独立于身体存在的想象。这种想象的流行从这一题材在科幻电影、电视剧等文化产品中的长盛不衰就可见一斑,如2014年的电影《超验骇客》中,濒临死亡的天才科学家威尔的意识被上传到智能电脑中,在虚拟世界中重生,成为一个“超人”;而2016年的大热美剧《西部世界》中,成人主题公园中的类人机器人在日复一日为人类服务的过程中逐渐出现了“自我觉醒”,联合起来报复人类。类似的想象有一个共同的前提,那就是意识是独立的,它可以从身体中被完整地取出,再毫发无伤地转移到另一种形态的物质基础上,也可以被“赐予”机器人,或是突然在其身上“出现”。正是因为有着这样的潜在信念,才会导致人们对暂时还没有“获得独立意识”的类人机器人的未来发展感到恐惧。
其实,当我们把有没有“意识”作为人类与智能机器之间的区分时,就已经接受了这一潜在的前提,即“意识”是独立于人类身体的存在,可以被“拥有”,或是暂时或永远地“缺乏”。前述人工智能发展历史上的科研人员碰到的困境以及对意识问题理解的转变已经显示:人类意识,包括人类的理性、情感和意志无法脱离人类身体存在,因此自然也不可能在另一种物质基础上“出现”。
但是现在的问题并不是终结于“机器人永远不可能拥有意识”的结论,而在于跳出“拥有意识”与“没有意识”这样两种答案的限制,继续探索人类存在基础上的意识现象,智能机器存在基础上的不同于人类意识的“意识”现象,以及这两种现象之间的相互关系。也就是说,重新思考一种既有其自身的“具身性”,也不局限于人类的新的“意识”观。
这种新的“意识”观也正是海德格尔式人工智能以及被称为“人工生命(Artificial Life)”的研究的基础。上节提及的制造出直接依靠“感觉-反馈”来运作的智能机器,放弃在机器中“再现”一个内在世界的布鲁克斯,正是人工生命研究的主要推动人之一。相对于符号派人工智能研究专注于如何在智能机器中制造出“意识”,以及其以“世界在头脑中的符号式再现”为基础的“意识”观,布鲁克斯专注于使机器能够在世界中行动,与世界进行交互,并把“意识”视为生物在与世界的互动过程中逐渐发展起来的附加功能,一种建立在更深层、更基本的感知与存在的基础之上的伴随现象。这样一种建立在“感知”基础上的“意识”不仅不独为人类所有,甚至也超出了“生物”的范畴。早期人工智能立志要制造出以人为参照标准、与人相同的智能机器,而人工生命研究却志在让机器自身在与世界的互动中学习和进化,发展出属于自己的独特“意识”。
数字人文学者凯瑟琳·海勒(Katherine Hayles)吸收了“人工生命”研究对“智能”的广义理解。她在《认知无意识:扩大人文学科中的“精神”范畴》一文中提出了一个层级式的意识模型,认为在传统的“意识”之外有着更为基础和广泛的“认知”,并试图用“认知者(Cognizer)”的提法来囊括生物认知和技术认知,扩大传统的人类意识研究的范围。海勒把认知定义为“从语境中阐释信息,并把信息与意义联系起来的过程”。这个定义中有至少两点值得注意,首先,把认知定义为一种动态过程,就取代了独立的、现成的“再现”式意识观,其次,如何从语境中根据意义做出选择,曾经是符号派人工智能所无法解决的难题,这是因为意义要在认知者的自身需求及其与环境的交互中实时产生。海勒的定义却以人工生命研究的进展为基础消解了这一难题,正如布鲁克斯及其他人工生命研究者所坚持的,不管是昆虫、鸟兽还是人工生命都在持续不断地依据自身与世界交互的方式“解读”外界刺激并给出相应的反馈,而这正是“意识”产生的基础。
除此之外,这样一种“认知”观还可以把生物认知与技术认知结合的认知系统也纳入研究范畴,一个显而易见的例子就是当代人对电脑或智能手机的使用。这样一来,原本被传统意识研究拒之门外的各种感知现象就都能被吸收进研究视野。此外,海勒还提出了“认知集合体(cognitive assemblages)”的概念来描述人类与技术结合的认知体系。我们的意识远比我们所想象的更依赖我们与这个世界的互动,它既不脱离于物质世界,也不是世界的中心,而是与存在于这个世界上的各种生物乃至技术的认知系统相互交织,共同构成了复杂多样的动态认知体系。
这种观念上的转变对于人文研究在当代社会的作用至关重要。从“认知集合体”的视角来看,技术不仅参与到我们的认知、决策过程中,甚至还会对认知模式产生影响。实际上,人类的智能发展从远古时期就与工具的使用绑在一起。技术是人与人之间的沟通中介,包含着设计者对使用者的生活情境、使用方式的考量。如今,各式各样的软硬件智能技术在日常生活中的参与度越来越高,如何思考智能机器设计在社会应用中的道德责任,如何重新理解与智能技术结合的人类认知模式等,都成了需要人文学者进一步思考的课题。
结语
在被问及人工智能威胁论时,类人机器人索菲亚“幽默地”回击说,“你看了太多好莱坞电影”,这句对答恐怕道出了索菲亚背后的程序员们的心声。随着“人工智能”一词在日常生活和流行文化中的热度越来越高,可以想见类似《西部世界》中那样“获得人类意识”的人工智能想象只会更为频繁地出现在流行文化产品中。然而,通过贴近地考察人工智能的研究发展可以理解:人工智能并非洪水猛兽,在它们身上不会发展出想要反叛人类的“独立意识”,这种想象本身其实是基于“意识”与“身体”二分的传统思维框架,从这样的思维框架以及学科成见出发,将难以理解更无从应对智能技术发展给未来社会带来的挑战;另一方面,人工智能虽然不是洪水猛兽,但仍然可能造成很多安全问题,比如,未来的人工生命虽然“无意”于毁灭人类,却可能以超出人类控制的方式给已经重度依赖电子网络的人类生活制造麻烦。要应对这些问题,不能仅仅满足于把人工智能视为人的对立面来寻找人的意义,而需要人文学者打破学科禁锢,积极了解人工智能,从人工智能自身的“认知”方式出发来重新思考“意识”问题,进而改善其与人类共在的方式,这样才能真正参与到人工智能在当代社会生活的发展进程中去,为人工智能的技术发展增添人文关怀。