APP下载

人工智能是否会具有自我意识的研究探析

2020-11-18朱自强

海外文摘·艺术 2020年7期
关键词:机器教授机器人

朱自强

(上海大学社会科学学部,上海 200444)

20 世纪60 年代,马文·明斯基和麦卡锡提出“人工智能”的概念,人工智能诞生以来,由于计算机运算速度及智能系统等因素的局限,其发展经历了两起两落,时至今日,人工智能已备受人类的关注和青睐,也经历了前所未有的快速发展。IBM 公司和谷歌公司开发的“深蓝”和AlphaGo 已经在象棋和围棋领域战胜了人类,占领了人类思维活动的高地。不但如此,人工智能未来还会进一步影响人类的就业、生产、甚至是社会关系等各个方面。因而,人们不免会担忧,人工智能是否会拥有自我意识,就像许多智能机器人的电影中所呈现的那样,在未来取代人类取得统治地位?

1 人工智能的智能

江怡教授认为,人工智能和自我意识是两个不同的概念,一个是人类智慧的结晶,一个是人类本能的活动,人工智能产品的智能化程度,并不意味着其具有自我意识[1]。然而,当智能机器能够像人一样的思考,甚至和人类的智力相PK 的时候,人们自然会想到机器的意识问题以及可能会带来的威胁。这也说明,人工智能虽然和自我意识是两个不同的概念,但它们之间的区别并不意味着二者之间不会有联系。所以,本文将从智能和自我意识两个方面展开讨论。

根据现代汉语词典的定义,智能是智慧和能力的意思[2]。搜狗百科提供的定义是,知识与智力的总和,智力主要是先天决定的,知识主要来自后天的学习。本文将从感觉、思维、反思三个方面考察AI 的智能,感觉和思维主要是先天的,反思涉及自我学习和知识的累积。

机器人会有感觉吗?感觉在通常的意义上来说,包括五大感知:视觉,听觉,触觉,味觉,嗅觉。这个不难做到,大部分仿人的机器人都具有视觉、听觉和触觉,至于味觉和嗅觉机器人当然可以拥有,这个主要由机器人的功能决定的。而且,有些功能部分机器人并不需要拥有,譬如说味觉,因为机器人并不需要像人类一样进食。

机器人有思维能力吗?思维的严格定义很复杂,所以本文只能从一些主要方面来阐述。思维活动包括、分析与综合、比较与分类、抽象和概括等。分析是把问题分解成若干个小的部分,然后逐个解决。综合是把各个小部分整合在一起,以整体的思路来解决问题,二者是相反的过程。关于这个问题的答案是肯定的。因为目前的机器人已经初步可以根据不同的场景与人进行合适的交流,而交流的过程中对对方句子的分析必定包括分解句子成分的过程,而回答对方的问题则需要对词语进行组合。在龙泉寺十周年国庆普茶晚会上,贤二机器僧对小姑娘的问题的回答已经初步的说明了这一点。不过,目前机器人的分析与综合的能力还是相当有限的,处于初步发展阶段。贤二机器僧在对小姑娘的问题进行回答的时候必定会在不同的词语中进行比较和分类,然后从其中挑出合适的词语形成句子。机器人具有抽象的能力这是毫无疑问的,而将本质特征综合起来对于具有强大记忆的智能机器来说也是没有问题的。

机器人会进行反思吗?反思不是对现实事物的简单思考,而是对思维本身的考察,就如笛卡尔的“我思”。动物是不会进行反思的,因为动物只懂得满足目前的,现实的需要,并不能将需要扩展至一般,对概念或指称进行思考。普雷麦克和伍德拉夫曾经对黑猩猩的欺骗行为进行研究,结果表明,黑猩猩只是试图影响其他黑猩猩的所做所为,它并不企图影响其他黑猩猩相信什么。恩格斯曾明确指出:“动物仅仅利用外部自然界,简单的通过自身的存在在自然界中引起变化;而人则通过他所作出的改变使自然界为自己的目的服务,来支配自然界[3]。”人所造出的机器人可以对概念进行分析是毫无疑问的,因为它本身就是由抽象的概念及运算符号组成的。只是它能否对自己“头脑中产生的知识”进行思考,这就涉及到很吸引人的一个研究方向,就是AI 是否可以通过对自己“头脑中”产生的代码进行分析,而自主研制出更加先进的AI 产品来?这个需要时间来说明。不过,谷歌公司的AlphaGo Zero,可以从围棋小白的水平,在三天之内进行无数次的自我博弈,而不需要借助任何人类的经验,进行自我提高,从而达到世界第一的水平,打败上一代的AlphaGo。这说明了AlphaGo Zero 通过深度学习,可以反思,评估进而改进以前的行棋方式与方法,提高自身的水平。

综上所述,人工智能基本具有感觉、思维、反思的能力,至于自我意识,是下面着重要讨论的,将分别从心理学层面和哲学层面对人工智能的自我意识问题进行考察。

2 心理学层面的自我意识

从心理学层面来说,自我意识是个体对自身身心活动的觉察,就是人对自身的认识,包括认识自己的生理特征,心理特征,自己与社会的关系。自我意识主要包括三种成分:自我认识,自我体验,自我监控。

AI 能意识到自我之外还有其他的客体对象吗?答案是否定的。反驳者可能会说,在机器人的程序里加上一段代码,时刻提醒它“自我区别于别物”,并在自己的身体受到伤害的时候保护自己。但是,这看起来简单,但是不一定好实现,越是看起来容易的事,越难办。况且,能保护自己,并不等同于能“意识到自己”,即使能够成功的输入这段代码,但是“自我”是什么,它却不能理解。就像猴子一样,可能在危险的时候用爪子攻击“别物”,却不能意识到“自我”的存在。它也可以在需要的时候抓耳挠腮,虽然抓的是自己的耳朵和腮帮,并不是别的猴子的,但却并无“自我意识”。

AI 产品会自然地害羞或恐惧吗?

在电影《我,机器人》中,一个名叫桑尼的五代机器人,好奇自己的存在,像人一样的发问“Who am I ?”桑尼会睡觉,会做梦,在一场杀人案的审讯中会生气。笔者认为,这是不可能的。反对者可能会说,目前的AI 产品面部的类肌肉群那么发达,一点表情都做不出来吗?然而,能呆板地做出一些表情和自然而然流露出来的真情实感并不相同。具体说,害羞是别物的作用使自己感到不自然而表现出来的状态,然而AI 意识不到自己的存在也就谈不上害羞了。恐惧是别物或别物的攻击对自身的刺激而造成的生理反应,同样,AI 意识不到“自己”,也就谈不上恐慌了。可能反驳者还会说,目前机器在与人打招呼时,会微笑,但是训练过的猴子也能做到这一点,并且做得可能比机器人更真实、更自然。

AI 会监控自己的行为和言语吗?

AI 产品不懂得“自己”,因此监控对象是缺席的。同样的,AI 产品可以在程序里编制“不要说脏话”“不要扔东西”这类的命令语句,然后把脏话的内容编到程序里,禁止它说这些,从形式上似乎是能做到。然而,人若是做了过分的事,会从里面就有责备的感觉(譬如说第一次偷窃),这来自人的良心。然而,AI 是按照指令来行使,并不知道其中的意义,即使有一天代码出错,做了违反指令的事,也不会有自我的责备或处罚。

因此,在心理学的层面上,智能机器不具有自我意识。

3 哲学层面的自我意识

从哲学层面来说,自我意识是个体觉察到自身的存在,并且在自身之外,有事物与自身相对立。主客关系的第一个小阶段人类开始有自我意识,能区分自我和对象,意识到自我之外还有物与我对立。例如人吃食物时就能意识到食物在自己之外与自己对立[4]。

江怡教授认为,哲学家关于意识的讨论,基本上是关于三个方面的:描述性问题,解释性问题,功能性问题。而这三个方面的提问和探讨是属于语义上行的范畴。“语义上行”的方法,是蒯因提出的哲学研究的基本方法,在进行问题讨论时,不是要先分析对象,而是要先分析对象所对应的表达式,通过对概念,表达式的逻辑澄清,来确定其用法。江怡教授质疑这种研究方法,认为哲学的研究变成了对世界所对应的语言的研究,而不是研究世界本身。对人工智能和自我意识问题的研究,应当以“语义下行”的方式来进行。所谓“语义下行”,反其道而行,就是从对对象所对应的表达式的强调,转到强调世界对象的本身[1]。判断人工智能产品是否具有自我意识,需要关注人工智能产品的发展,而不仅仅是从概念上分析算法的产品具有意识的可能性。

3.1 “我之形而上学”的问题

关于自我意识的起源,本质和未来,蔡恒进教授在他的《我之形而上学:我之何来,我之何在,我之何往》一文中,作了细致的论述。虽然他的观点很新颖,论述也很精彩,但很多地方却有待商榷。

自我意识是怎样起源的?蔡恒进教授提出了自己的假说:触觉大脑假说。他认为,在人类漫长的历史里,由于基因突变导致人的毛发减少,皮肤敏感,由此获得了敏感的触觉,而敏感的触觉将自我和外在的世界区分了出来。他在自然界找了许多例证:单细胞生物依靠细胞膜来趋利避害,摄取所需的营养,同时避开有害的东西;刚出生的小乌鸦羽毛稀少,触觉敏感,相比刚出生就满身羽毛的小鸡更加聪明[5]。

蔡教授的理论的确打开了一个新的视角,值得专家学者继续深入的研究,进一步的完善。然而,就目前的理论本身而言,还存在些漏洞或者是不太明确的地方。比如:单细胞生物通过细胞膜与环境接触来趋利避害,但接触并不意味着触觉,也可能是味觉或者嗅觉,因为这两种感觉也是通过与物质分子的接触来收集信息的;即使单细胞生物的感觉是触觉,那假若其全身都是眼睛,或者是耳朵,通过视觉或听觉来趋利避害,那么是否可以说听觉或者视觉是人类智能的来源呢?

自我意识是什么?为了说明自己的观点,蔡教授首先对忒修斯悖论提出自己的看法。他认为,只要船的功能没有变,材料完全被换过一遍的船就还是原来的船。人身体的细胞,20 年全部换过一次,但“我”还是原来的“我”。其次,人的意识片段可以扩散给动物、植物甚至机器。人按照自己的意愿改造动植物,如植物嫁接、转基因、导盲狗等。人甚至可以按照需求制造机器,将自身意识的片段扩散给机器,规定机器的功能,来完成特定的工作。

最后,顺理成章的得出结论,结构就是物质,功能就是意识,物质和意识的关系,就是结构和功能的关系。

忒修斯悖论一直以来都有争议。笔者认为,若是用铁板来替换船上的木板的话,这艘船就不再是原来的船了(假设船足够的大,且铁船仍然可以在水上航行)。虽然功能没变,结构没变,但构成船的元素变了,铁船不再是原来的木船。至于人体的细胞,因为构成细胞的元素没有变化,并且人的记忆(自我意识)是连续的,因此“我”还是“我”。但如果人的记忆(自我意识)因故中断的话,那么此人不再会认为“我”还是“我”了。如果人按照自身的意愿制造机器,或者改造动植物可以算作意识片段的扩散的话,并且它们拥有了意识片段的话,那么岂不是可以说动植物拥有自我意识了?

蔡教授认为,意识片段(认知坎陷)源自认知主体,并且意识片段可以扩散给其他的认知主体。举例说明,人可以通过阅读他人的著作,得到他人的意识片段。并且,认知膜的契合度越高,扩散就越容易,所以电影,书籍等为人广泛接纳。

自我意识通常的意义是,个体觉察到自身的存在,并且自身区别于外部的世界。按照蔡教授此处关于自我意识的用法,似乎更像是意图或者思维。大多数情况下,意图是借着思维来传达的,意图并不直接被传达。如书籍,人们总是通过它的思想来判断人物的意图,价值取向。对于机器来说,更是这样。程序员不是直接将自己实现某种功能(如下围棋,驾驶汽车等)的意图输入机器,而是输入反映程序员思维的指令,来控制其行动。所以,蔡教授所谓的自我意识的扩散,其实是思维的扩散。然而,思维不是自我意识。江怡教授认为,理智和自我意识是两个不同的东西。人工智能产品反映了人类的理智,然而意识是本能活动,是不需要理智的参与就可以自发运作的,不能将理智和意识相等同,人工智能产品的智能(推理,思维等),并不能成为其是否具有意识的判断标准。蔡教授的观点——人工智能产品可以具有意识,是建立在程序员的意识可以扩散到机器内部的,既然自我意识无法扩散到机器内部,那么他的观点就不能成立。

3.2 人工智能的主体性

孙伟平教授认为主体是与客体相对的概念,主体是主动的,客体是被动的。讨论人工智能是否具有主体性①,可以参照人的主体性进行分析考察。这是自然的:人们若想对一个未知的事物进行认识,总是从已知的事物及其性质、规律出发,来推理、分析未知事物的性质。孙教授主要从三个方面来论证人工智能不具有主体性:存在论、认识论、价值论。

从存在论角度看,具有主体性意味着能够广泛的从事各样的生产活动。马克思指出,“动物只是按照它所属的那个种的尺度和需要来构造,而人却懂得按照任何一个种的尺度来进行生产,并且懂得处处都把固有的尺度运用于对象。”人工智能的功能活动是由程序决定的,而既然输入的程序的数量是有限的,那么就不可能“按照任何一个种的尺寸来生产”。但是,人却可以通过后天的学习,从事各样的生产活动[6]。

通过塞尔的中文屋对图灵测试的反驳,在认识论的范畴进行论证。简单地说,图灵测试就是询问者分别问人工智能问题和人问题,若是人工智能产品的回答和人的回答几乎分不出来,那么就认为该人工智能具有心理状态。塞尔认为,句法不是语义的结构性成分,也不是它的充分条件。人工智能产品被导入许多的代码,而这些代码帮助其回答询问者的问题,但是它本身却无法理解问题和回答的语义本身,因此也就不具有心灵状态(心灵能够理解)。有些专家提出反对意见,认为人工智能除了包含句法外,还有电子因果系统。孙教授为塞尔提出辩护:语义和辩护的逻辑相关,而因果关系属于经验性的描述,二者属于不同的层次,不能混淆,因此人工智能的电子因果系统不能为它的不具有心灵状态提供任何的辩护。

从价值论的角度看,具有主体性,意味着能够推理反思,以及自由的决策和行动。人工智能产品能够进行推理,甚至反思,譬如AlphaGo Zero 可以通过深度学习,不用导入棋谱,而在短时间内飞速的提高围棋水平,以至于打败世界围棋冠军。这证明了其能够推理下棋的规律,反思自己下棋的经验,提高自身。真正的自由的决策和行动,指的是可以突破特定的目的甚至自身的限制,在所有可能出现的情况中进行选择。无人驾驶汽车只能在选择路线以及驾驶方式上是自由的,而无法突破这个目的,故此不能算是真正的自由。假若人工智能可以自己编程,创造新的人工智能产品,那新的产品将受限于初代人工智能,因而仍不是完全自由的。

因此,孙教授认为,人工智能在存在论,认识论,价值论意义上,均不满足主体性的要求,因此不具有主体性。即使具有所谓的主体性,也是人为强加的。

江怡教授认为智能并不意味着意识,孙伟平教授从人的主体性出发,得出智能机器不具有类似人的主体性的主体性,即使拥有,也只是人强行加给的,并不名至实归。因此,在哲学层面上,智能机器不具有类似人类意识的自我意识。

4 结语

在智能发面,智能机器在很多领域已经超越了人类,甚至是遥遥领先。人工智能的感官比人类的更加敏锐,智能机器计算能力,记忆能力毫无疑问已经远远的把人类甩在了后面。谷歌公司的AlphaGo 战胜世界围棋冠军,表明其推理和决策力也超过了人类。然而,这并不意味着,人工智能本身会在将来成为地球的统治者,因为其不具有自我意识或主体性。智能机器的智能,依靠的是程序员输入的复杂的代码,反映的是人类的智慧。智能机器的智能化并不意味其具有自我意识,二者是不同的概念,智能也不是自我意识产生的充分条件。智能机器不具有心理学意义上的自我意识,也就是没有类似人的心理活动,如自我认识,自我体验等;也不具有哲学意义上的自我意识,人的意识不能扩散到机器内部,也不能因为其内部结构而自己产生自我意识,并且,不能拥有类似人类主体性的主体性,进而统治人类。

注释

①虽然主体性与自我意识是两个不同的概念,一个说的是主体与客体相区别,主体对客体进行认识,改造等,另一个说的是,意识到自我的存在,且自我区别于外物。但在对人工智能的是否具有自我意识的讨论中,二者的基本内涵是一致的,可以说,若是人工智能具有主体性,那么就可认为其具有自我意识,反之亦然。

猜你喜欢

机器教授机器人
机器狗
机器狗
未来机器城
机器人来帮你
认识机器人
机器人来啦
开心格格
恐怖的教授
心不在焉的教授
数钱