关于人工智能认知限定与限度的多重思考
——基于马克思主义认识论的分析视角
2021-04-15
(杭州电子科技大学 马克思主义学院,浙江 杭州 310016)
当今时代,人工智能(Artificial Intelligence)技术方兴未艾。人工智能具有高度专业化、系统化的技术交叉特征,同时又发展成为多学科、多领域相互借鉴、综合运用的前沿科技。总体来说,人工智能时代是人类社会发展的必然趋势,也是人类自身需求和主体能力不断提升与扩展的必然结果。马克思就曾指出科技在推动文明进步和社会发展中所表现出的重大作用:技术基础即机器本身“一旦与大工业相适应的一般生产条件形成起来,这种生产方式就获得一种弹力,一种突然地跳跃式地扩展的能力”[1]。有专家认为:“人工智能的本质是一轮新的技术革命。这种技术革命对整体社会的进步具有推动意义。”[2]但也有人认为人工智能犹如一把“达摩克利斯之剑”,其在为人类提供智能福利的同时,也对人类的生存境遇、主体地位以及文明发展构成前所未有之威胁。以哲学视角看待智能时代“人与机器”的主题,马克思主义哲学不能保持缄默。从马克思主义认识论的宏观视域思考和审视人工智能的认知方式与认知本质,能够回应人类智慧与人工智能的趋同性和差异性、人工智能的认知限定与技术限度、人工智能的未知性和可控性等诸多猜测与质疑。并且,从马克思主义认识论出发,可以引导人们辩证客观地认识科技变革,正确看待人工智能的本质属性,从而消弭技术宿命论与决定论所引发的焦虑和担忧。
一、人类智慧与人工智能的认知差异及本质区别
哲学家大卫·查默斯(David Chalmers)多次声称,“意识问题”是人类迄今为止最难以解决的问题。人工智能的研发加速了人类对大脑和意识更为深层次的认知与了解。这其中,以符号主义、连接主义和行为主义三个学派尤为突出。他们选择从生物工程、语言符号以及具身认知等不同研究路径对“机器模仿人脑功能的原理”作出理解和诠释。从马克思认识论的分析视角来看,三个学派所关注和亟待解决的技术焦点仍然归属于意识与大脑、意识与语言、意识与思维以及意识与实践之间的关系问题。因此,厘清“意识”的相关属性与范畴,也就明确了人类智慧和人工智能的关键差异与本质区别,也就把握了人工智能的根本限度与局限。
(一)模拟大脑:对人脑部分功能的复刻与强化
马克思主义认识论对人类意识的产生进行了根本性说明:“我们的意识和思维,不论它看起来是多么超感觉的,总是物质的、肉体的器官即人脑的产物。物质不是精神的产物,而精神本身只是物质的最高产物。”[3]意识是人脑的机能,是对客观实在的复写、摄影和反映[4],“外部世界对人的影响表现在人的头脑中,反映在人的头脑中,成为感觉、思想、动机、意志”[5]。意识是物质高度发展的产物,即便用现代科技来观察和监测人类大脑,马克思主义认识论仍具有正确的理论奠基。
研究表明,人类大脑有大量的神经元,人的意识经由神经元群的“聚类模式”产生,神经元细胞中的“树突”(Dendrite)在受到外部刺激或指令之后,沿着“轴突”(Axon)传递信号,使脑细胞的空间构形布局发生改变从而产生指定的认知图式。此外,现代精密仪器同样能对大脑内部运作进行观察。譬如,“近红外光谱成像”(NIRS)可以对脑活动变化进行观测,“功能性磁共振成像”(FMRI)可用来测量神经元活动所引起的脑部血流量变化。由此可见,现代科技为人脑功能作出了更为具体和精确的描述。
在人工智能领域,连接主义(Connectionism)试图在物理世界还原和重现人类意识。他们以仿生学方式模拟大脑的神经网络来实现机器思考,通过“模拟神经网络的联结机制”作为智能前提,使得机器的自我逻辑建构成为可能。早期连接主义先驱皮茨(Walter Pitts)和麦克洛克(Warren McCulloch)曾提出大脑思维模型的雏形,其后“感知机”(Perceptron)、“玻尔兹曼机”(Boltzmann Machine)的发明以及“误差反向传播学习算法”(Back-Propagation)的推出,都尝试构建人工神经网络和多层神经网络模式,但因受当时计算机硬件能力的限制,其数据量和运算能力难以实现大规模的神经模拟。辛顿(Geoffrey Hinton)提出的深度信念网络(Deep Belief Network)相较于传统的判别模型神经网络有很大的区别,它更为具体地模仿了信息从“视觉细胞”到“中枢神经”,并将信息转换成不断“分层迭代”“逐级抽象”的深度学习和计算过程[6]。在目前较为前沿的智能领域,深度学习的智能方式已经表现出超越人脑部分能力的优越性,但机器智能完全代替人脑从根本上仍是无法模拟和实现的。因为深度神经网络的运作效率是有限度的,一方面,深度学习本身仍是数字驱动算法,越是强大的数据建模就需要越多参数,这就意味着更庞大的数据支撑、昂贵的经费以及高功率的能量消耗;另一方面,深度学习又称为“无监督特征学习”,这种模型建构还称为“黑箱”系统,其本身的非解释性和不可描述性也限制了计算机提升到更高阶段的智能水平。
从本质上来说,意识是经由大脑的物质载体在处理信息、消耗能量以及缜密运作的过程中所产生的既高于基本物理属性,又不脱离人脑物质基础的精神反映范式。马克思强调:“意识在任何时候都只能是被意识到了的存在。”[7]意识本身作为物质的最高产物,这是人工智能无法复刻和超越的。连接主义学派试图模仿脑神经网络的运作机理并非易事,生物体和机械体的通融和转化也不是一蹴而就的,这也就证实了机器智能无法真正成为大脑并发挥人脑功能的客观事实。
(二)符号语言:意义表征性与意向性的迥异对接
马克思在《德意志意识形态》中指出,人所具有的“并非一开始就是‘纯粹的’意识”[8],意识的独立化过程是同劳动和语言“纠结在一起的”,“思想、观念、意识的生产最初是直接与人们的物质活动,与人们的物质交往,与现实生活的语言交织在一起的”[9]。可见,劳动和语言是促进大脑和感觉器官进化的推动力。人类的思维与意识在语言中生成,语言从“空间指示”向“抽象指代”的转移成为意识发展的转捩点。换言之,人类通过语言来表达、反馈和输出抽象化、概念化的信息,即以生物的功能属性对客观世界进行直观、感性的界定与认知,并将其纳入相对应和相对等的思维范畴之中。人类运用语言而不是具体地展现某种东西就能够形象且生动地表达客观事物或抽象思维,语言使行为活动内化为思维活动。语言和思维的同步性和可协调性标示着人类活动方式的根本性转变,进而促进了人类实践活动的巨大飞跃。
与人类在现实需要和交往活动中所形成的自然语言不同,人工智能语言是一种机器语言,抑或称为人工语言。它是一种通过数字符号、程序公式而组成的逻辑演绎和推理系统。符号主义学派(Symbolicism)就试图利用计算机符号语言来实现机器的智能化和自动化。其先驱者纽厄尔(Allen Newell)和司马贺(Herbert Simon)认为,符号不仅是一切智能活动的源头,也是人工智能技术的核心。现代符号主义学派则认为,符号语言系统与数学逻辑语言一脉相承,是机器智能的充分且必要条件,也就是“认知即计算”“计算即表达”。智能语言特点体现为:思维的表征性与智能的形式化、符号化相联结,通过规范化的固定程式、算法对信息进行高效率、高精准的加工、处理和转化,进而得出数字化、符号化的处理方案。实际上,机器语言只有与外部世界的指称相对应、相联系才能真正地实现“人机”沟通,但前提是需要预设大量的数据系统进行先验的知识储备。因此,符号主义学派逐渐发展为由“数字逻辑”(Digital Logic)向“知识表示”(Knowledge Representation)再到“知识系统”(Knowledge Based Systems)的研究转向,目的是以庞大的符号数据为支撑来构建机器智能的认知体系。但现阶段“知识系统”的瓶颈在于:一方面,机器的知识库是被人类“灌输”而成的,其输入速度永远无法追赶上知识的增长速度;另一方面,知识不仅包含符号化内容,也存在非符号、非具象的部分。马克思认为,“思维过程本身是在一定的条件中生成的,它本身是一个自然过程”[10]。对人脑活动(抑或说意识与思维)的表述方式可以进行描述性、解释性以及功能性的分析,在特定领域可以运用符号语言进行数字化和程式化处理,但人类语言是一个纷繁复杂的系统,诸如心理和行为活动是无法被形式化和符号化的。由此可见,计算机语言与人类语言分属两种不同语言范畴,二者存在着本质性的差别。人机对话实际上是一种基于语言符号的范式转化,但终究无法在真正意义上实现同一层级的交流与沟通。
(三)智能行为:去自我意识化的机械存在样态
马克思认为,人类异于动物“畜群意识”的关键在于人类具有“自我意识”。“自我意识”是人在与客观环境发生关系之时,把“自我”作为自反性认识对象而产生的认知结果,即“我对我的环境的关系是我的意识”[11]。将“自我意识”与“对象意识”相区别,不仅反映出自我认知维度与客观世界的差异性,同时亦揭示了主观世界和客观世界的辩证与统一。与此同时,人可以在“自我意识”和“对象意识”的关系中构建自我,从思维发展的内在逻辑中明确主体与客体、意识与存在的关系,进而促成人的思想与行为相互协调一致。可以说,在认识论中考察“自我意识”,即是将人作为认知主体,从而挖掘出人类认知自我、掌控自我和管理行为的能力。换言之,也可视为在认知主体、外部世界以及思维逻辑“三位一体”的基础上架构起人类“脑—身—心”协作统一的行为方式。
长久以来,行为主义学派从“具身智能”(Embodied Intelligence)角度出发,试图凭借对外部环境和信息的接收与反馈机制,使机器能动、自主地完成一系列智能行为活动。他们认为:“概念是实践性的机能,意识活动并非存在于大脑之中,而是存在属于身体活动的一个组成部分。”[12]也就是说,机器智能不应仅仅停留在“脑”的智能,还要达成机器“身体”功能和行为活动的智能。正如人类是“感知—行为”的活动方式,机械亦可看作是“输入—输出”的指令活动模式。无论是人类还是机器,都可以依据对客观环境的辨识与分析作出“刺激(控制)—反应(反馈)”的行为模式。以无人驾驶技术为例,美国斯坦福大学研发的自动驾驶汽车(Stanley)以及特斯拉公司(Tesla)的无人驾驶系统能够依据现实公路环境进行较高程度(L2半自动驾驭至L3高自动驾驶等级之间)的智能判断与无人操作,但与L5等级的全自动智能驾驶仍有较大差距,因为“控制论”下的人工智能并不具备由自主意识而引发的行为判断与决策,所以还难以应对较为复杂的环境和特殊情境。以马克思主义认识论的观点来看,这种智能尚囿于机械主义的还原论范畴之中,是将人的意识与身体机能降格或类比为物质运动形式,即机械运动。人类思维在应对复杂多变的外部环境时具有自主、灵活的决策与应对能力,这要归功于高度进化的身体各器官能够在大脑统摄之下协调运作。而人工智能并不具备自我认知和“脑—身—心”统一的行为主体,其反应、调控和反馈功能完全取决于程序系统是否完善以及其他设备的更新、修复和升级。
综上所述,人类智慧与人工智能存在着本质性的差异。自我意识的出现并非一件易事,因此,人工智能无法真正地模拟大脑功能,机器语言与人类语言亦不属于同一范畴,机器也尚未实现思维与行为的内在统一。所谓的智能认知归根结底仍属于计算而非思考。人工智能更无法等同和代替人类智慧,人工智能的自身限度决定了机器人终究无法成为“类人”的生命体。
二、反驳人工智能主体存在论与认知论的溯因推理
人工智能标志着人类实践能力的突破性跃进与长足发展。在可预见的未来,人工智能将被赋予强大的信息处理能力和反馈功能,机器凭借更高新尖端科技的加持,俨然要成为与人类“并驾齐驱”的类存在物。机器更多地表现出社会化、情感化和道德化等特征,逐渐趋近于人的类本质属性的关系性存在,这将使人类的认知方式和交往模式发生重大改变,甚至对人类的主体地位构成威胁和挑战。基于马克思主义认识论的分析视角,从机器作为实践主体、情感主体和道德主体的三个预设来分析人工智能对人类主体的影响,其结论是人工智能的“危机论”似乎过于“杞人忧天”。
(一)机器作为“实践主体”崛起的可能性与存在局限
马克思科学地阐明了实践的本质以及人的主体性地位,他指出:“全部社会生活在本质上是实践的。”[13]人类通过多种实践活动以“人的方式”改造“物的方式”,彰显了在自然世界之中的主体地位。随着人工智能的发展,人类实践范围逐渐向机器让渡,这成为机器僭越人类主体的第一个潜在隐忧。但与机器相比,人作为实践主体具有其独特的地位与优势。
首先,人的实践是以直观感觉和感官尺度来理解客观世界。人在实践中产生了意识和行为的双重指向:一是对外部事物的熟悉、改造和控制,二是对内部自身的了解、管理和调节。在这一过程中,“通过实践创造对象世界,改造无机界,人证明自己是有意识的类存在物”[14],也通过实践建构了感觉器官和身体机能协调统一的整体性本质。根据上文所述,人类智力与机器智能的差异是不言自明的。机器智能在计算、逻辑和记忆等方面有着人类无法比拟的高效率和精准度,但机器行为的前提是需要清晰指令和精准界定的。算法逻辑的严谨无法代替感官和直觉的盲区。正如“莫拉维克悖论”(Moravec's Paradox)所指出,越是人类智力难以胜任的事情,机器智能越容易完成;相反,越是人类智力容易完成的事情,机器智能越无法掌握。可见,机器认知属于低层级认知,其本身并不具备实践主体的认知因素,依然要归结到人类实践客体、实践中介和工具的存在范畴。
其次,人类在实践中自觉地掌握了操作性思维和领悟性思维。人类在亿万次的重复实践中熟稔并掌握了分辨现象、本质以及把握事物规律的能力。可以说,人类从实践中获取了思维演绎和递进发展的依据,亦从实践中学习、领悟到了真理与真知。从“熟知”到“真知”的过程拓展了人类思维的广度和深度。人工智能也在一定程度上具备深度学习的能力。但人工智能的思维模式与人类是大相径庭的,即便有海量数据为依托,机器智能也只是在算法和程序框架中进行深度学习和自我优化,其操作能力不能脱离预定范围,更无法在真正意义上实现独立思考、领悟与运用。
最后,人的实践蕴含了衡量行为目的与行为意义的价值尺度。实践主体的行为活动以对客观世界的认知和把握为依据,具有任意决定和选择的主观意向。这样,实践的方向性和目的性就决定了人类在认知与行为层面具备了主观性同客观性的统一、价值性同功效性的一致。再者而言,人的实践具有历史和文化属性的烙印。从社会历史的发展境遇出发,人是社会的和现实的实践主体,这就赋予了人的生命存在、社会生活的功能属性和价值意义。反观人工智能的行为动机与行为方式恰恰与人类“背道而驰”,其行为是被预先给定的,无法对自身行为目的进行判断和抉择。同样,机器的行为价值被规定为“有用”和“专长”,桎梏于“算法效率”和“决策最佳”定律之中,其“思维逻辑”自然限制了机器活动的随意性和选择性。另外,人类的主体意义在于历史性与社会性的行为方式,而人工智能并不具备社会感、历史感与现实感的生命体验,没有形成生命和历史感知的实践体征,也就必然无法僭越人的主体地位。
(二)机器作为“情感主体”尚未在智能理性之中发生
人工智能对人类主体性的第二个威胁是机器情感的出现。美国科幻小说家阿西莫夫(Isaac Asimov)就曾描述过机器人情感“奇点”的出现,当人类打开幽暗的集装箱那一刻,机器人不是等距离排列站立,而是三五成群地聚集在一起。当然,这种“拟人”化的交流方式对于人工智能来说未免显得“原始”和“低级”,但这在一定程度上预示了机器情感的端倪。目前,人们已经尝试利用算法和程序来模拟智能情感。例如,利用“詹姆斯—兰格情绪理论”(James-Lange Theory of Emotions)来构建机器的智能情感体系。又如,“新詹姆斯主义”者尝试在机器整体性能和运作过程中植入情感程序,使机器能够具有选择性和意向性等情绪判断功能[15]。与之相反,认知主义者则强调先将机器设定为情感功能型,再通过与人类缔结交往进行情感学习,进而激发机器人的情感认识和情感建设,最终实现人化情感模式。
就目前而言,对于智能情感的建构具有诸多争议。一是人的情感在运算逻辑中是否具有可执行性。机器本身就缺乏由情感主导而产生的心理感受和情绪反映,这种内在的功能性缺失无法实现“智能体共情效应”(Artificial Empathy)。二是人的情感在数字和符号层面是否具有可替代性。如果机器情感可以转化表达范式,这种表达是否具有意义。与阿西莫夫的隐喻性情感交流不同,在共享主机资源数据的前提下,机器与机器之间并不需要表征性交流,其无效性也就决定了机器情感设定的无意义和无价值。三是智能情感并不真正等同于人类情感。从某种意义上来说,智能情感和人类情感是在信息判断与反应机制层面进行的对接,这种情感交流只不过是人类强加于机器的观念性和行为性交流方式,是人工智能基于数据和程序对人类情感行为作出的信息反馈,而人类是否真正需要人工智能的情感功能还有待商榷。与机器相比较,人类情感并不单纯是脑功能产物。研究表明,人的情感与大脑、身心构成整体统一的存在体,大脑通过内源性活性物质(诸如神经肽、内啡肽和多巴胺等神经递质)与人体的神经组织和神经系统产生联系,以此影响人的情绪、感受,甚至调节免疫系统。在马克思主义理论中,人是情感的承载者与体验者,无论是感性还是理性认知,都存在着情感与意志等非理性、非逻辑性的因素。情感是推动实践主体心理反应的内部动力,对主体行为具有激励或抑制作用。并且人类情感具有整体性、系统性和历史性,要了解人类情感功能,需要在人类发展的历史脉络中,从人的需要、欲望、利益等层面考察情感的复杂性和多元性。因此,无论是从系统论还是功能性角度出发,智能情感都并非易事。
机器以“类人”属性介入人类群体之中,赋予机器以情感功能来缩短人与机器的距离,这虽然昭示感性认知与技术理性的通融性实践,但人类无法形成与机器情感共鸣的“感同身受”,这在本质上是一种对人机情感交流的误用与误读。人工智能的情感预设是否真的有必要,还有待未来人类实践去定夺。但我们亦要清醒地认识到人工智能的情感本质,警惕人类情感异化而导致的机器对人类主体性地位的取代。
(三)机器作为“道德主体”在伦理架空下的建构缺憾
道德觉醒是机器对人类主体性存在的第三个潜在威胁。人工智能是否能够形成道德认知、进行道德选择与判断,成为具有独立意志的道德行为承担者?笔者认为,与其盲目相信机器道德意识的自我觉醒,还不如承认机器道德是被人类强行“灌注”的,而这两方面似乎都不能完全论证机器成为道德主体的可能。
在马克思主义认识论中,人们在实践活动中所缔结的生产与生活关系成为道德产生的社会必要条件。智能机器在生产、生活中与人类缔结交往关系,进行情感接触,建立情感联结,但“情理困境”或许使机器道德觉醒成为“泡影”。如前文所述,机器不具备需求、欲望与动机的逻辑,无法生成主观体验以及主观感受,心智活动的缺失必然导致认知功能与情感功能相剥离,而这种“缺陷”又进一步使得伦理建构成为一种“缺憾”。人与机器无法在伦理道德层面实现同构,究其根本是人的自然选择属性、社会关系属性与机器之间的本质差异所决定的。正如纽厄尔与西蒙所一致认为的,智能计算机就是一套数字编程和程序运行系统。将道德属性向指称化、表征化和符号化转变是难以实现的,正如唤醒机器情感一样艰难。人的道德观念是以感性和理智的综合因素而作出的审时度势之平衡选择,而人工智能的单向且线性的反馈机制则仅仅从“机器理性”抑或是效益最优方面进行抉择,这就无法在伦理道德层面进行人道的考量与权衡,也就形成了决策偏差。休谟曾说:“道德准则不能由理性得来,这是因为单有理性永不能有任何那类的影响。”[16]马克思也指出:“对于有机物最高精华的运动,即对于人的精神起作用的,是一种和无机物的运动规律正好相反的规律。”[17]人工智能的“理性”建构比重远远胜于“感性”程度,因此,道德意识在机器那里便成为“空中楼阁”。由此可见,人工智能本身并不具备产生道德意识的主观因素,也就不可能由机器自觉实现道德主体的行为实践。
那么,如果对机器进行道德的前提性嵌入会发生什么情况呢?对人工智能的道德预设大体有两种路径:其一,对人工智能进行道德标准和道德限制规定。“机器人三大法则”(Three Laws of Robotics)明确了机器人所需承担、履行的道德义务和职责。诸如PAPA和APETHICS①PAPA即隐私权(Privacy)、准确性(Accuracy)、所有权(Property)、易获得性(Accessibility);APETHICS即问责原则、隐私原则、平等原则、透明原则、不伤害原则、身份认同原则、预警原则和稳定原则(the Principles of Accountability;Privacy;Equality;Transparency;No harm;Identity;Precaution;Stability)。同样是对人工智能进行道德原则的预设和限定[18]。其二,试图赋予人工智能不同道德原理、观念以及价值体系。譬如,研究人工智能哲学的塞拉斯(John Sullins)和泰勒(Paul Tailor)指出,人工智能应具备自由、自主地进行道德选择、判断的运作方式和能力;鲍尔斯(Thomas Powers)在《康德机器的前景》以及格劳(Christopher Grau) 在《“机器人”中没有“我”:机器人功利主义者和功利主义机器人》[19]中都涉及从不同经典伦理学原理中寻求构建机器道德向度的路径和方法。但问题的关键在于,人们将给予机器何种道德价值、何种标准、何种导向?人们让机器如何抉择人类的道德悖论和伦理问题?质言之,道德预设越趋近于严谨与完美,就越反映出人类对自身道德界定和标准缺乏达成一致和统一的认知。在人工智能中嵌入道德,无非是将道德起源论、道德目的论、道德自律与他律、义务论和功利主义之争在机器维度再次轮回重演。可见,对于人类主体存在的担忧,人工智能不是问题,科技亦不是问题,人类自身的冲突才是真正的问题。
三、未来“人机关系”构想中的认知限定与技术控制
西方悲观主义者表达了对人工智能的负面预期,他们认为,如若像西方学者库茨韦尔(Ray Kurzweil)所预言那样,人工智能在触发“奇点”(Technological Singularity)之后,机械体势必要向生物体发起最具震慑力的挑战。后人类主义学者尼克·波斯特罗姆(Nick Bostrom)曾指出,人工智能具有“欺骗转向”的意识策略(Treacherous Turn),即为确保机器的生存利益而采取自保决策,并有可能向人类发起反击。这一猜想似乎有些危言耸听,但史蒂芬·霍金等人也都曾频繁地提出人工智能可能终结人类的警示。那么,我们不妨就针对这样的“后人类时代”进行一番预测和分析,在喜忧参半的未来文明画卷中勾勒出人类与机器的关系走向。需要说明的是,我们之所以要将人与机器置于最为极端的境遇下进行讨论,目的是要在更为严峻和残酷的构想下反思人的生存境遇和存在意义。
“奇点”之后的强人工智能抑或是超人工智能阶段,机器突破了生物器官和身体机能的限制,涌现出自主意识等思维特征,他们凭借特异属性超越了工具性的意义范畴,进而使人类的发展走向变得扑朔迷离。基于强人工智能的预设前提,人类与机器呈现出多元化存在范式。具体来说,可能有以下三种关系:其一,人机合体的“复合”生物模式,即将人的自然生物属性部分修改为机械属性,凭借“半人马”双系统实现机械与肉身的整合。复合生命体隐含着有机与无机契合的同一性,机器可能拥有自我意识和可控身体,抑或是人类遗弃身体将意识储存于网络之中,通过机器使思维实现虚拟化存储和永久性存在。这样,人类以适当让渡“类本质”属性而转换了主体存在形态,从而昭示了人机混合体——赛博格(Cyborg)的产生。其二,机器文明的“共生”模式,是以机器文明、虚拟文明替代人类文明,抑或是与人类文明达成共生的假象。像电影《黑客帝国》中所描述的场景,人类遮蔽天空阻断了供给机器的太阳能源,而机器则把人类像“稻田”一样种在地里,通过汲取人体生物能源而运行。人类身体浸泡在容器之中,大脑与虚拟世界相连接,意识存活在虚拟的社会历史之中,成为真正意义上的“容器中的大脑”。这样,机器颠覆了人与机器的主从关系。人类意识被囚禁在“电子监狱”之中,其肉身为机器提供能量支撑,人类和机器之间达成了“和谐共生”。其三,人类文明的“黑域”模式,即与人工智能的根本决裂。这并不像拔掉机器插头或是关掉开关那样简单,制造者和被创造者之间的矛盾与对抗可能贯穿整个后人类时代历史之中。人类需要付出科技倒退和文明衰败的惨痛代价来彻底扼杀人工智能,以此捍卫种族存活的地位和生存价值。
根据上述推测不难发现,人类忧虑的焦点在于人工智能技术的全面失控以及人类自身存在地位的剥夺与丧失。对技术的信赖使人类消弭了对自然的恐惧和对风险的避让,而技术力量逾越了人类可控范围,就会使人与工具的关系发生实质性转变。人类以上帝身份赋予机器“类本质”属性,然而,其造物主的身份却由于他们的“制造物”而发生根本性变革,这是人类所不允许的。“尽管人工智能的短期影响取决于控制人工智能的人,它的长期影响取决于人工智能到底能否受到控制”[20]。人工智能的技术困局不在于机器,而取决于人类自身。人类理应以“命运共通、命运共同”的立场应对人工智能技术,不能受机器决定论和宿命论的威慑而自我降格,亦不能在自我创造的“器物”之中迷惘和沉沦。人类理应消除各自分歧,共同坚守科技伦理底线,唯有如此,才能捍卫人类的未来与尊严。
第一,正视人与机器的根本区别,明确人工智能的工具属性。马克思在《资本论》中阐述了对待机器的观点,即以蒸汽动力和电力来替代人类体能,提高劳动能力和劳动效率的操作工具。不可否认,人工智能是继三次工业革命之后的又一次机器革命与创新。不同的是,伴随着互联网、大数据以及计算机硬件和软件的不断升级,机器智能更加趋近于模仿人脑的运作机能,其工具属性从对人的肢体代替扩展到对人脑能力的强化,并且在精准作业、准确运算和运行速度等诸多方面超越了生物局限,进而使人从基础性、程式化和繁重的劳动中分离出来。但从本质上而言,人工智能的核心技术无非是由电子芯片、集成电路等电子元件以及程序系统所组成的机械实物,其物理运作本质与之前的机器工作机理并无本质性差异。换言之,仍然是人类用无机物来模仿有机体而创造的生产工具,并借助程序和机械操作来实现“人的延伸”。总之,人不是机器,机器也非人。人类存在是感知,是理性,是对生命目的、意义和价值的考量与体验;人工智能是硬件、软件,是程序的计算运行与推理。二者的类本质界定与划分不能被模糊、泛化,更不能被等同、趋同。
第二,纠正对人工智能盲目自信与推崇而引发的认识偏差。实际上,技术崇拜背后隐匿的是一种将实践主体让渡给机器的谬误,其目的是将人的意识存在和生命形式向虚拟载体转化,其结果是以牺牲人类的本质特征来孕育新的种群形式。可以认为,这是当代形而上学机械论的翻版。“人之存在”的首要前提是具有自然生命体征,上述这种颠覆性的认知错误不但让“半人半机”的复合生命模式成为可能,并且在人类自然进化与社会历史发展的进程中逆向而行,亦是对生命意义和生存价值的解构和否定。马克思主义认识论强调,整个人类文明的发展史可以视为以生产活动和社会交往而表现出来的认知史和实践史。马克思指出:“以真正的、不变的、最后的终极的真理的标准来衡量认识,那么,他只是证明他自己的无知和荒谬。”[21]现今人类的生存方式仍处于不断演化和发展之中,并不是文明的终极形式。悲观主义者和后人类主义者所想象的“机器乌托邦”却恰恰逾越了人类演进的秩序,忽视历史发展规律,因此也就丧失了“人何以为人”的最为本源与实质的特征。高扬人的主体性是维护人类尊严、维系未来命运的必要前提和根本保障。人工智能是人脑的对象化投射物与创造物,亦是人的“类本质特性”的对象化表现。人工智能的类人属性只有与人产生关系,其本身才具有存在的价值。在智能时代,人与机器的关系不应该是竞争、对立与胁迫的关系,而应是充分利用和相互补充的关系。即便未来社会赋予了多元化的主体表现机会,人类依然要以自身认知和实践方式来面对世界,来阐释对其自身存在意义与价值的合理确证,这才是科技的真正意义之所在。
第三,回归人类智慧本身,规避人工智能的技术风险与威胁。崇拜技术的决定论者与仇恨机器的卢德主义者之间争执焦点代表了人类对待人工智能的不同立场:一部分人过于夸大机器智能的创造力和改造力,试图不断寻找人工智能突破人类智慧疆界的佐证;而另一部分人则盲目冲动地反抗异质的“类存在”力量,反对机器对人类施加制约和压迫。究其根本,与其说是由于人工智能的不可控制性而产生恐惧,不如说是未能正确审视人类自身智慧的内在本质。人类不应在赋予创造物以精妙绝伦的“生命”特征的同时,将自身的生命体征转化为冰冷的“机器”。人类亦不应将发明物的认知功能潜力开发到极致的同时,却将自身的感知器官变为愚昧的“工具”。正如蒂姆·库克(Tim Cook)所说:“我并不担心人工智能能够像人一样思考,我更关心的是人们像计算机一样思考,没有价值观,没有同情心,没有对结果的敬畏之心。”[22]科学技术是人类智慧能力充分发挥的必然形式,而人类智慧的独特优势就在于能够以超前预测、超前反馈的思维系统在人工智能的源头进行能力限制和技术祛魅,以此遏制机器智能的风险因素。因此,人与物的关系还是要归结于人类的正确使用和正向引导。正如爱因斯坦所说:“科学是一种强有力的工具。怎样用它,究竟是给人带来幸福还是带来灾难,全取决于人自己,而不取决于工具。”[23]对人工智能进行利弊权衡,用智慧和理性来规避技术风险,才能真正驯服“机械巨兽”。
综上所述,无论生物学意义上的人是否做好准备,人工智能终将不期而至。从马克思主义认识论出发思考智能时代,一方面,人类的自然进化和演变轨迹是不可逆向的;另一方面,人类历史文明的发展与抉择亦是无法改变的。因此,人类作为认知主体、实践主体的存在地位和存在意义是无法变更和替代的。随着人类实践领域愈发宽泛,实践问题也愈发复杂。我们亦十分清楚地知道,人工智能在带来巨大利益和福祉的同时,也隐匿着受功利驱使和诱导而潜藏着危机。我们不得不警惕在经济资本和权力场域运作下,机器成为攫取利益的工具,并有可能超越工具属性的藩篱进而对人类生存境遇发起冲击和挑战。正因如此,本文基于马克思主义认识论的分析视角来对人工智能的“类存在”本质进行理论澄明与科学限定,意在消解盲目的技术崇拜、矫正认知偏差,祛除科技幻象。人类一切美好理想与奋斗追求都寄予在对其自身的超越之中,人类的生存目的和意义不仅仅是“存活”,而在于更高品质的生活质量和更高价值的生命境界。因此,人工智能理应尽可能以满足人的发展需要为价值尺度和根本立足点。总而言之,人工智能归根到底是人的智慧在机器中的反映,是人的智慧的对象化产物,以人的主体视野来关注自身未来发展及命运走向才是科技价值的真正旨归和意义之所在。