APP下载

未来人工智能是否能够跨越“恐怖谷”?
——一种现象学视角的考察

2020-01-09张昌盛

重庆理工大学学报(社会科学) 2019年12期
关键词:现象学机器人人工智能

张昌盛

(中国社会科学院 哲学研究所, 北京 100732)

智能机器人是人工智能(artificial intelligence,简称AI)在日常生活场景中的重要应用类型之一,对未来人类生活的意义重大。从某种角度而言,长久以来人们所期盼的类人的、具有高度智能的机器人集中代表了人类对AI的终极梦想。智能机器人最终能模仿人到什么程度,或者说智能机器人的逼真度究竟能够达到什么高度?这很大程度上可以看作是对未来人工智能的极限问题的另一种提法。智能机器人的逼真度问题会引出一个与智能机器人密切相关的基本理论——恐怖谷理论。恐怖谷理论本来是阐述高逼真度的智能机器人会引发的人类的一系列特别的感受和审美体验,但在更深刻的层面,它指向了智能机器人及AI所能达到的极限。本文以恐怖谷理论为切入点,探讨智能机器人的逼真度和未来AI的可能限度问题。

一、智能机器人及其引出的哲学问题

自20世纪50年代人工智能产生以来,关于智能机器人的设想就引起了学者的思考并进入了大众的视野。人们关于智能机器人有很多种思考角度,恐怖谷理论则是从人类的感受和审美体验的角度谈论人类和智能机器人之间的关系。

在AI产生之后,人们就期望制造出具有类似于人的智能和行动能力的机器人,可以承担很多人类的工作,甚至这些机器人也会具有类似于人类的思维、情感和价值,成为人类生活的重要成员。后来,西方产生了很多具有影响力的机器人主题的科幻小说和科幻电影,核心问题是探讨人类和机器人之间的关系。

过去几十年,国际科技界一直有人在努力研发高仿真机器人,尤其是日本科技界投入了极大的智力和财力资源进行机器人研发,虽然取得了很大进步,但多次陷入停滞状态,迄今距离目标依然很遥远。这主要是因为数十年来AI科技进展缓慢。

2010年左右,随着辛顿(Hinton)等在深度学习算法领域中的重要突破, AI科技才重获新生,随之而来的是新一代人工智能技术研究和产业的爆发式发展。现在的机器学习算法,成为人工智能的主流,在人类认知的图像识别、自然语言、机器翻译、自动驾驶等领域不断取得进步,让人们看到人工智能的大规模产业化乃至引发新的产业革命的前景。AI机器人可以为人类的生活和工作提供很多全新的重要辅助工作,甚至在很多场景中替代很多原先由人类承担的工作和服务。

很多人期待,在不久的将来,具有高度智能的机器人能够在人类日常生活中扮演重要角色,例如承担家务、看护等工作,甚至可以充当聊天、陪伴的伴侣,机器人不仅可以模拟人的思维、行为能力,而且可以具有类似于人的行为举止、言说谈吐、姿态表情(强人工智能者认为机器人还可以具有类似于人的情绪及情绪表达)。

未来的高仿真机器人能够达到什么程度,很大程度上要回溯到人工智能的极限到底在哪里这个问题。数十年来,很多参与和关注人工智能领域的科学家、哲学家一直就这个问题争论不休。AI的极限问题不仅涉及到前沿技术和基础科学问题,更涉及到对意识、脑和人等问题的基本哲学立场和基本观点层面的争论。

这里最基本的问题就是对心智、意识和计算之间关系的看法。早在18世纪,法国哲学家拉·梅特里就提出著名的命题“人是机器”[1]。现在人工智能又把这个问题推到了新的阶段:即心智的本质是不是算法?人和智能机器有没有本质区别?20世纪50年代以来,立足于功能主义的科学家和哲学家如图灵、丘奇等主张心智的本质就是计算,大脑就是计算机,因此计算机可以模拟人脑,而且可以由电脑的软硬件模拟出一种类似于人类的、人工的意识;另外,立足联结主义的科学家和哲学家则主张大脑并非计算机,意识也不能归约为符号计算的算法,但他们主张可以模拟大脑来发展人工智能。

现在看来,这个问题并非可以简单回答,最终要由人工智能、认知科学以及现象学等科学、哲学来联合解答。

二、恐怖谷理论及其现象学分析

数十年来,人们关于智能机器人有多种思考角度,恐怖谷理论则是从人类的感受和审美体验的角度论述人类和智能机器人之间的关系。

(一)恐怖谷理论概述

1970年日本机器人专家森昌弘在经过大量关于机器人的田野调查基础上撰写了短文《恐怖谷》,阐述了恐怖谷理论。森昌弘文中的“恐怖谷效应”是一个关于人类对机器人和非人类物体的感觉的假设。“恐怖谷”这个名词最初来自Ernst Jentsch于1909年的论文《恐怖谷心理学》,1919年弗洛伊德在论文《恐怖谷》中进行了进一步阐述。森昌弘的恐怖谷理论则把恐怖心理学理论引进到机器人领域,成为AI领域的一个重要问题。

森昌弘认为:“当机器人与人类相像超过95%的时候,由于机器人与人类在外表﹑动作上都相当相似,所以人类亦会对机器人产生正面的情感。直至到了一个特定程度,他们的反应便会突然变得极之反感。哪怕机器人与人类有一点点的差别,都会显得非常显眼刺目,让整个机器人显得非常僵硬恐怖,让人有面对行尸走肉的感觉。人形玩具或机器人的仿真度越高人们越有好感,但当超过一个临界点时,这种好感度会突然降低,越像人越反感恐惧,直至谷底,称之为恐怖谷。可是,当机器人的外表和动作和人类的相似度继续上升的时候,人类对他们的情感反应亦会变回正面,贴近人类与人类之间的移情作用。”(1)百度百科.恐怖谷.https://wapbaike.baidu.com/item/%E6%81%90%E6%80%96%E8%B0%B7%E7%90%86%E8%AE%BA?adapt=1.

图1 恐怖谷函数图

从图1的曲线可知,所谓恐怖谷与人造物的外形、动作的逼真度直接相关;在恐怖谷的范围内,相比而言,在同样的逼真程度下,机器人在动态时比静态时更让人感到恐怖。

对“恐怖谷效应”的相关问题在学界有种种阐释,如艾斯·萨伊琴(Ayse Saygin)认为其是由感知错乱引起的,“人的大脑会预先根据观察对象的外表预测对方可能的动作。而发现一个外表像人,走路却像机器人的物体时,这会超出大脑的预期,产生错乱”[2]。心理学家科特·格雷(Kurt Grey)等的研究表明,机器人“拥有感情”的特质最令人感觉不安,这是因为我们在类人机器人身上看到了人类情感的影子,但我们却无法理解这样的情感[3]129。

恐怖谷理论发布之后,在机器人制造等行业产生了广泛的影响,人们设计产品时尽量设法远离恐怖谷区域,以免让人产生不适感。在后来的电影、动漫、漫画以及电子游戏等制作中,人们也尽量使卡通人物在外形上减少人类的特征,以免堕入恐怖谷陷阱。

近日,德国的神经科学家Pütten等在《神经科学杂志》(JournalofNeuroscience)上发表文章称,已经确定了大脑内部的机制有助于解释恐怖谷效应是如何发生的。他们在研究时发现内侧前额叶皮层的两个不同部分对恐怖谷非常重要,“其中一部分将人类感的信号转换为‘人类探测’信号,该区域的活动过度强调了人类和非人类刺激之间的界限——对人类的反应最为强烈,而对非人的反应则要弱得多。第二部分,脑内侧前额叶皮质(VMPFC),将这一信号与可爱度评估相结合,产生了一种与恐怖谷反应密切匹配的独特活动模式”。他们的研究验证了恐怖谷理论,“我们惊讶地发现,腹内侧前额叶皮质对类人机器人的反应就像恐怖谷假说预测的那样,对更像人类的因素反应更强烈,但随后在接近人类/非人类边界的地方——即典型的‘山谷’——活动就会出现下降”[4]。

Pütten等的研究发现,恐怖谷效应的强度存在个体差异[4],因此没有一种机器人设计能适合所有用户,或者从另一个角度说,没有一种机器人让所有人害怕。

(二)恐怖谷效应的现象学分析

由现象学角度分析恐怖谷效应,需要解决如下3个方面的问题:

(1)主体关于机器人的经验是如何构成的

从现象学的角度看,我们所认知的外在存在有两种类型:一种是关于外在对象和事物的认知,另一种是关于对其他主体的认知。这两类认知所具有的共性都是基于主体的意向性构成,其显现的结构也都是由直观显现和非直观的共现两个方面组成,主体对对象的感知都有主题化和非主题化两种方式。通常大多数的直观中,对象的正面被我们感知,但是还有一部分并未直接显现,而是以“共现”的方式间接为我们把握,也就是我们通常只是直观到对象的某些面或部分,但我们的意识把它构成为一个对象整体。当然,由于大多数感知并非被完全充实地直观,因此总是有部分错误的可能性。这两类认知方式的差异在于:对于外部对象的认知是一种客体化行为,而对于其他主体的认知则包含着对身体、动作和表情等的客体化认知,同时也有非对象化把握的部分,会把他人的身体、动作、表情认知为不同于自我的其他主体的一部分,而不是看作像自然物一样的、非生命的客观对象。在更原初的层面,我们不仅以主体间性的方式把握他者的外形、语言和动作,而且把对象认知为主体间性显现的客体。

(2)恐怖谷效应是如何产生的

我们对一个机器人的感知也是首先把握了其外形或行为的一部分,而意识在某些情况下会自发地把它构成一个具有完整的外形或连续的行为的对象的部分显现。当机器人的外形或者行为的逼真度达到某种高度时,我们的意识会把它把握为类似自我的智能行动者(intelligent agent)。随着智能机器人的逼真度由低到高,我们的意向构成方式在逼真度的某一节点处会出现一个根本性的转换,即由对对象的构成方式转变为对他者主体的构成方式。这种意向构成方式的自发转换,是由于前述的感觉错乱造成的。

我们对他者的具体的意向构成包含很多配对、移情的意识构成形式,这些方式依赖以往的具体经验。这种意向构成的内在视域具有整体性,是由对象的类型上的先天确定性所决定的。因此,虽然对象只是部分被直观,意向构成原则上是可错的,但主体对对象内在视域的整体把握引导着对对象的进一步意向构成和直观充实的方向,避免意向构成发生类型错乱和部分之间的内在冲突。但同时,以往的具体经验和意识模式也会参与和干扰意向构成过程:我们的意向构成会参杂着以往的经验、判断和信念,如果不进行现象学式的悬置,这些自然态度下的经验会以联想、类比、猜测的方式夹杂在我们的具体经验中,那错误更难以避免。因此,在机器人的外形、语言及动作逼真度达到某种高度时,意识会具有一种自发地把它们类人主体的倾向。但由于机器人和人的类型上的先天性差异性,在对机器人的具体的认知中,主观上认知他者的期望和预判导致对机器人的认知由客体对象构成模式转换为他者主体构成模式;同时,由于主体和机器人的内在视域类型的差异性,这种对他者主体的经验的构成会遭遇阻碍,导致该经验的内在统一性、整体性无法达成,即对机器人的经验产生自我冲突,也就是造成感知错乱。进而,这种怪异的感知把机器人经验为怪异的、类型上陌生的、未知的他者,由此产生恐惧感。

当机器人的逼真度进一步提高,和人的相似度达到极高的程度时,至少从外表上,机器人和人在客体化直观中被构成类似于人的主体,类型上的差异性在某种程度上被克服,这个时候不适感、恐惧感消失。但这种相似性总是局部的、相对的,而某些方面细节的差异是难以克服的。例如主体的身体、表情和动作都是具身性的,是精神的一种外在表达,这种具身性表达往往是智能机器人无法模拟的。

(3)机器人的哪些方面的高逼真性可以引起恐怖谷效应

如上所述,当主体试图以经验他者主体的方式去认知机器人时,就会因感知错乱引起恐怖感受。可见,机器人的逼真性不限于外表和动作这些表象的层面,凡是类似于人的外形、思维、语言、表情、姿态、情绪、行为等诸多方面,都可以作为逼真性的内容范围。森昌弘的逼真度概念受限于当时的AI科技的发展水平,主要是涉及机器人的外形和动作两个方面,可称之为狭义的逼真度概念。可以设想,未来的智能机器人可以模仿人类的内容,不仅体现在范围广泛而全面,更体现在它可能能够模拟人的最内在的层面,包括模仿人的思维、语言、表情、情绪等。因此,我们可以在森昌弘的狭义逼真度概念的基础上提出广义的逼真度概念,即机器人在思维方式、语言表述、情感表达、情绪以及日常行为等多方面和人类的相似性。可以设想,这些涉及人类精神性的方面综合起来后所能引起的情感错乱的程度和恐怖谷效应的程度,应该远非以前的机器人的外表和动作所可比拟的。未来的机器人将会是对人类从身体、语言、行为、情绪等方面更为全面、综合和深入的模仿。因此,恐怖谷理论的原图(图1)将会随着AI科技的发展和逼真度概念的扩展而不断地被改进修正,图中的“恐怖谷”的“谷底”应该会更深、两侧“谷壁”会更加陡峭。

因此,对于未来智能机器人可能达到的逼真性程度以及是否能够跨越“恐怖谷”等问题的追问,必然会导向追问未来AI科技所能达到的深度和广度的问题,即未来人工智能所能达到的智力和功能将在何种程度上或哪些方面能够逐渐逼近乃至超越人类的智力和功能?

三、未来人工智能的可能性:多视角的比照

未来可实现的智能机器人能达到什么程度?这取决于AI的算法可以模拟的范围,因为AI的智能基于算法。如果要让机器人模仿人类的思维、认知、语言、行为、姿态、表情乃至情绪,前提是AI的算法可以模拟人的认知、语言和行为等方面。这意味着可以把人类的这些认知、言谈及行为理解为本质上是一种基于种种软件和硬件的生物计算。要实现未来的高仿真机器人的类人的基本功能,AI科技面临的核心难题是如何解决智能算法问题。

下面本文将从功能主义、联结主义、生物自然主义以及现象学等多个角度来考量未来人工智能可能达到的程度以及所需要的条件。

这里首先会遇到的问题是:智能和意识可以被归结为自然的因素和规律的产物吗?

按照自然主义的立场,答案是肯定的。自然主义认为一切事物都可以归为基础本体层面和与主体相关的层面。所谓基础本体层面是物理层面,人在最基础层面是作为自然世界的一部分,人的身体包括大脑属于所谓自然的基础本体的层面,人的包括意识、语言、文化、价值等在内的与主体相关的层面是奠基于自然本体的层面。在物理主义看来,宇宙是完全由物理规律支配的,是物理上封闭的宇宙,没有非物理的心灵因素可以参与到物理世界的因果过程中。因此,一切生命过程包括人的意识、智能都是基于物理和生物规律的。

而从非物理主义的角度看,人的意识现象具有独立性,不能被完全归约为物理、生物的因素和规律。最典型的非物理主义是二元论,认为身心是两种不同类型的实体或者属性。

从现象学角度看,人的智能是具身性主体的功能,因此与意识、大脑乃至身体有关,但意识是产生智能的核心因素,而意识并不能归约为大脑,甚至意识并非自然的产物,意识现象也超出了物理和生物的规律。归根结底,人的意识乃至整个人的存在模式都不能被归约为自然因素和规律的产物,而是由精神性的动机引发机制驱动的。因此,智能与意识、脑、身体相关,但并不能归结为生物学层面。

第二个问题随之而来:认知科学或者生命科学能够系统、准确地揭示人类的智能乃至意识的本质和运作机制吗?

按照物理主义,意识现象不具有独立的本体论地位,具有随附性,乃是物理现象和性质的表现形态。按照功能主义,基于硅基硬件和软件的算法,计算机可以模拟出意识。按照自然主义,既然意识、智能根本上是生物现象,遵循生物学原理和物理规律,在原则上,神经生物学或者整个生命科学等自然科学可以揭示这些关于人的智能和意识的客观事实和规律。而按照非物理主义,意识现象具有独立的本体论地位,不能规约为物理和生物现象,意识的特性及规律并非自然科学可以揭示的。

现象学认为,既然意识不等同于脑,主体并不等同于身体,因而自然科学基于物理和生理层面的研究进路是无法揭示意识的本质和运作机制的。现象学并不关注大脑及身体的生理物理运行机制,但依据本质直观方法,以描述的方式揭示意识的本质特性和运行机制。因此,未来的AI研究除了基于脑科学之外,还可以从现象学的意识研究中获取启发。

第三个问题是:关于人的这些生物事实和生物规律乃至意识,都可以归结为算法吗?

按照塞尔的看法,算法是与主体性相关的,“计算在本质上并不是一种像消化或者光合作用那样的内在过程,而只是相对于为这种物理学提供一种计算性解释的某智能体才会存在。结果是,计算并不是自然所固有的,而是相对于观察者或使用者而言的”[5]9。从理性的人的角度看,不仅计算机有算法,一切自然现象当中都包含算法,因此大脑乃至身体的运作模式都是基于某一类生物的算法。

从非物理主义角度看,意识超出了物理规律的范围,也无法形式化,不能被归约为计算机的算法。

从现象学的角度看,意识不仅有高级的推理、抽象等理性思维形式,还有更基本的感性论层面[6],而后者是无法完全被形式化地刻画的,此外还有更为原初的、前谓词的、非对象性的层面均无法被对象化地表征;另外,心智具有具身性,身心是主体的不可分割的整体,因此很多具身性的意识现象和非对象性的身体现象并不能被符号表征,因而不能归约为算法。

问题在于,即便退一步而言,我们把宇宙的运行、生命的活动、大脑的运作和意识活动都看作遵循某些广义的算法,但这些现象分别是物理的、生物的和意识的活动,很难说它们本身就是一种计算机计算意义上的算法。

第四个问题是:关于人的智能、意识的这些基于生命运作的算法可以被计算机模拟吗?

首先,一个问题是广义算法的可模拟性问题,即使人的智能、意识等可以被看作广义的算法,但并不等于这些广义的算法可以被模拟。按照功能主义的观念,智能本质无非是计算,心灵就像电脑,强人工智能可以由硅基的芯片以及算法实现人类的智能甚至产生类似于人类的意识;而按照弱人工智能的看法,类似人类的智能需要计算机模拟人脑神经网络及其运行,这种模仿是有限的,因此人工智能可以在某种程度上逼近人类智能,但无法代替人类智能,更不用说产生意识了。按照塞尔的生物中心主义的看法,虽然人类的智能属于广义的算法,但基于生物的功能性组织,纯粹依赖计算机算法和硬件,无法模拟人类的智能,但类似于人类的智能可以由类似于人类大脑的功能性组织实现。

根据现象学,既然人类的部分意识和行为的确可以被符号表征,那么就具备了用算法模拟的基础,如高级的理性思维形式(推理、论证、想象等思维),以及在经验基础上的归纳、类比、联想等思维模式,都可以用符号计算或者仿脑的算法来模拟,因此人工智能可以在很多认知方面接近于人的智能。但是,主体更为基础的、原初的、具身的、非对象性的、整体性的层面则无法被转化为算法模拟。

其次,这个问题涉及到AI的可计算性和算法复杂性。现有的AI都是基于图灵机, AI的可计算性也受到图灵机基本原理的限制,即便从理论原则上人的智能和意识等都属于广义的算法,而在逻辑和工程层面,基于丘奇-图灵原则的计算机也未必能够模拟人类智能和意识。除非,未来能够发明一种“超计算”(Hyper-computation)[7]205解决AI的可计算性问题,以及未来量子计算机的成熟能够解决AI所面临的算力和计算复杂性问题。

总而言之,不同理论立场的人对AI的整体认知和信念不同,对其在未来角色的期待也不同。例如持强人工智能立场者坚信终有一天AI将具有比肩人类甚至超过人类的智能,是类人行动者,而赞同弱人工智能立场者则认为AI终究是辅助人类工作、生活的智能机器。

从现象学角度看,不仅强人工智能的预设无法实现,通常的模拟大脑的弱人工智能对未来AI智能的预期也难以达成。不过借助现象学的意识的研究方法,可以启发AI发明新的算法。也就是说,根据现象学,意识并不能完全归约为大脑的功能,而AI算法原则上只能部分模拟人的大脑和意识,那么未来可实现的AI只能是比联结主义所设想的弱AI更弱的AI。

过去几十年,AI功能主义和联结主义两种研究范式一直相互竞争,相应的符号计算和大脑模拟两种AI进路也此消彼长。目前最主流的人工智能是大脑模拟的机器学习,但还很难说哪一种范式会彻底胜出。也许在未来很长一段时间,这两种AI研究范式还会继续处于相互竞争但并存的状况。

目前,联结主义范式占据AI研究的优势地位,如以深度学习为代表的机器学习成为AI科技的主流,而深度学习算法恰好是在仿人类脑神经网络方面取得突破的;而基于功能主义的符号计算,AI依然在机器推理、证明等领域有其生命力。从制造智能机器人的角度看,研发未来AI的主要思路是要让机器算法拥有模仿人类的意识和行为背后的深层神经元运作机制,显然联结主义的范式更适合这种AI发展模式。因为,人类的思维、语言和行为能力虽然有其遗传和生理基础,但其能力的成熟是在社会生活中通过学习不断习得的。因此,对于未来智能机器人更全面地模仿人类而言,机器学习算法将会是一种非常重要的进路。

四、未来人工智能的科学和哲学基础

未来的AI科技需要什么样的学科基础?按照功能主义的强AI立场,未来以符号计算为主的AI科技主要是不断基于数学和计算理论而进行算法的创新;按照联结主义的弱AI立场,未来以仿大脑神经网络为主的AI科技需要建立在脑科学、认知神经科学乃至整个神经生物学基础上;而按照现象学的立场,未来AI科技除了需要以数学、逻辑学、脑科学、认知科学、神经生物学等自然科学为基础,还需要从哲学层面对意识、具身性等问题的探索来揭示智能的本质特性和运作机制。限于本文的主题,下面主要从脑科学和现象学的角度简述一下未来AI科技需要什么样的科学和哲学研究作为前提。

(一)未来AI的脑科学和神经生物学基础

如果按照联结主义的进路,那么AI和智能机器人的发展就需要基于未来的脑科学和生命科学。未来AI需要以基于脑神经科学、神经生物学乃至生物学的研究的高度成熟为前提。具体而言,要基于神经生物学尤其是脑神经科学所揭示的人类认知、语言和行为等的脑神经生物学的基本原理,创建相应的算法来模拟这些机制。这就意味着,未来AI的突破,需要以这些学科的高度成熟为前提,才可能实现以算法对人类的认知、语言和行为等诸多功能的高度近似的模拟。

首先,AI需要脑神经科学对认知、情绪、语言、行为等的脑神经元机制的揭示,因此脑神经科学是未来人工智能发展的基石。

其次,如果按照现象学的具身性理论,则人类的智能是具身的,也就是身体是塑造人类认知框架和意识结构的重要组成要素,因此未来的认知神经科学的研究将不限于脑神经结构及机制的研究,而是会扩展到全身的感知器官,以揭示人类感受所具有的整体性机制。

再次,如果超出认知而扩展到情绪、语言和行为等方面,则会发现人类的体验、认知、行为举止、言谈乃至表情,往往是关联的、动态的。因此,基于具身性的思路,需要对人的全身神经系统、运动系统乃至整个身体进行深入系统的研究,揭示整个具身性的身体在塑造人类认知和智能等方面所具有的基础性、框架性作用。

最后,如果按照海德格尔的存在论现象学,则此在的一切生存模式都是基于与世界的内在关联模式,即“此在在世界中存在”是理解人的认知、语言和行为的基本预先存在的框架,也就是说,人的感知系统是对环境开放的、与环境相耦合的、具有整体性的,因此需要揭示这种与环境耦合、互动的认知神经科学机制。对人类智能的探究需要把主体与环境的互动、耦合的整体结构考虑进去,因此海德格尔式AI需要计算机可以模拟此在的生存论结构尤其是与世界打交道的模式。

(二)未来AI的现象学基础

如前所述,从现象学的角度看,人类的智能仅从数学、脑科学、神经生物学等科学的角度进行研究是不够的,需要采用本质直观的方式来揭示人的意识、具身性以及此在的在世存在方式等方面的本质特征和运行机制。虽然现象学的第一人称视角也有其局限性,本质直观方法要受明见性原则的限制,但现象学依然可以为研究意识、主体、具身性等提供其独特的理论贡献。现象学的这些深刻的直观洞察一定程度上可以弥补自然科学方法研究意识方面的间接性局限,为AI算法的构造提供颇具价值的启发。因此,现象学将是未来AI发展的重要基础学科之一。

和未来AI相关性比较大的现象学问题主要有如下几个方面:第一是意向性问题,根据现象学,一切客体化意识都是意向性的,意识行为总是指向意向对象,构成意向对象。AI所处理的大多数问题都是对象化的认知、智能,因此意向性对于未来AI的认知能力至关重要。从现象学的角度阐明如何从对象的意向性构成角度分析对象的构成,对于AI识别视觉、听觉对象具有启发性。现象学认为,意向相关项(noema)[8]、意向对象的构成具有其内在视域,这种视域具有的整体性使得对象和意义的构成得以可能,这对于AI如何根据有限的数据分析来识别对象具有重要的启发作用。第二是现象学的感性论,涉及到心灵、身体的关系,这个部分的深入研究结合被动综合分析,可能对揭示底层的感性意识特性以及身心关系具有重要意义,这对于建构未来AI感知等基础层面的认知能力很重要。第三是具身性问题,结合现象学的感性论对身心问题、具身性的框架结构以及动感意识的研究,对于建构具有身体感知、运动感知的机器人具有很关键的作用。第四是生活世界问题,对生活世界的现象学研究,尤其是对生活世界中具有本质性的形态学结构和普遍性的基本运作方式的揭示,可能会对解决AI的“框架难问题”(the frame problem)具有重要的推动作用。第五是主体间性问题,主体间性问题涉及到自我与他者的交互认知关系,共涉及意识、语言和行为3个层面,对于主体间性的深层挖掘,有利于建构机器人与人类交流互动的能力,对于处理人类和机器人的相互关系,以及建立智能社会的秩序具有重要而基础的作用。第六是主体与世界的关系,如果按照海德格尔的存在论现象学,即“此在在世界中存在”是理解人的认知、语言和行为的基本预先存在的框架,则海德格尔式AI需要计算机模拟此在的生存论结构尤其是与世界打交道的模式。另外,AI科技可以借鉴情感现象学和道德现象学的研究,它们是研究所谓机器情感和机器伦理的重要理论视角,也是未来建立整个机器人的行动哲学和伦理学的重要理论基础。

五、结论

从现有的哲学理论看,关于未来智能机器人的发展具有以下几种可能性:从联结主义和现象学看,AI无法具有类似于人的意识和具身性的主体性,因为表情、语言和动作的类型上的差异性是机器人无法克服的。从现象学看,越是在精神性的层面,人和机器人之间的差距越大,二者的相似总是表面的。因此,在这种情境下,智能机器人对人类的模仿不可能无限逼近,让智能机器人达到足以跨越恐怖谷的超高逼真度是一件很困难的事情。

即便在设计智能机器人时避开机器人外形和动作这两方面与人类的雷同,但当机器人的认知模式、语言和行为模式的逼真度达到一定高度时,也会引起恐怖谷效应。这就使得某些智能机器人的设计陷入进退两难的境地:要么以降低逼真度为代价避免陷入“恐怖谷”,而这么做的缺点是智能机器人无法满足某些辅助和陪伴的功能需求;要么设计高逼真度的智能机器人以满足工作和生活的需求,但容易让人类陷入情感错乱,产生恐怖谷效应。

当然,从功能主义的强AI角度看,机器人也是会具有意识的,人的认知、情感等功能可以由算法加芯片实现。因此,对强人工智能而言,跨越恐怖谷并非难事。如果有一天,人类能够设计出这样超高逼真度的机器人,人类也许会产生错觉,模糊机器人和人类的界限,把机器人当作人类的同类,而不仅仅是作为人类生活中充当辅助工具的智能行动者。但功能主义本身面临如无法说明意识所具有的感受性质(qualia)这样的困难问题,因此即便智能机器人表面上几乎和人类一样,也不会对人和世界具有意识和体验,而仅仅是一种查尔莫斯所说的哲学僵尸(Philosophical Zombie or P-Zombie)[9]。

但如前所述,智能机器人及AI科技未来的成就并非现在就可以从理论上判定的,而最终是要通过AI科学的实践来回答。AI科技的发展必须要奠基于数学、脑科学、神经生物学及现象学等更为基础的学科,汲取这些学科关于意识、脑及计算等方面的前沿成就,尤其是要以现象学的方法和脑科学的方法为参照,以现象学关于意识的研究来补充脑科学的认知研究的不足,才可能最大程度地揭示人类智能的奥秘,才有可能让AI的智能逐渐臻于其极限。

另外,如果设想未来有一天机器人的逼真度达到极致的极端情境,即如果它能成功跨越“恐怖谷”而无限逼近人类的智能,这时会产生一个有趣但很难有答案的问题:它面对其他逼真度很高但没有能够跨越“恐怖谷”的类人智能机器时,是否也会有类似于人的认知错觉和情感错乱,产生类似于人类“恐怖谷”的效应?如果答案是肯定的,则无论这种“恐怖谷”效应只是“无心”的机器适应环境的智能反应,还是伴随着类似于人类的体验和感受,都表明人和智能机器之间的界限逐渐模糊了。

猜你喜欢

现象学机器人人工智能
2019:人工智能
揭露现实和预示无限——对电影营造空间的现象学解读
人工智能与就业
费尔巴哈之火:一个现象学的分析
数读人工智能
下一幕,人工智能!
对“如是我闻”的现象学诠释
机器人来帮你
认识机器人
机器人来啦