APP下载

康德批判哲学对人工智能发展的启示

2020-02-24

商丘职业技术学院学报 2020年4期
关键词:知性康德理性

高 原

(郑州大学 哲学学院,河南 郑州 450001)

相对脑科学、心理学和语言学等能够给人工智能的发展带来更多具体经验层面帮助的学科而言,强调从人类理性出发思考问题的哲学、数学和逻辑学等学科因其往往不受限于具体经验事实,因而对人工智能发展的助益更具普适性。数学和逻辑学能够给人工智能的发展提供基础性的分析和运算工具,哲学则能为人工智能的发展厘清基本概念①、设定终极目标并提供一定的方法论指导。从哲学层面反思人类智能对人工智能发展过程中面临的一些重大问题的解决具有重要意义,这些问题包括人工智能是否能够以及应当怎样认识世界;人工智能正在面临以及将要面临哪些伦理问题及如何解决这些伦理问题;人工智能美学是否可能出现及可能出现的原因;等等。人工智能致力于模拟、扩展和延伸人类智能,内在证明了对人类智能自身的反思和探究。康德批判哲学对认识论、伦理学和美学等的哲学反思广泛涉及人类智能的知、情、意等多个层次,能够给人工智能的发展带来诸多启示。

一、认识论的启示

认识论是哲学能够对人工智能产生影响的一个重要领域。康德在其对纯粹理性的批判中着重探讨了先天综合判断何以可能的问题,这能够在一定程度上解答人工智能发展过程中面临的认识论问题。

(一)对人工智能当前发展的认识论启示

先天综合判断可被看作对人工智能长期发展过程中面临的将人工智能奠基于知识层、符号层、寄存器传送层或物理执行层等不同抽象层级,以及由此层级出发,向更高抽象层级,抑或向更低抽象层级发展的问题给出的一种解决方案:对人工智能“自上而下”和“自下而上”两种进路的综合②。

康德把人类智能的知觉活动区分为感性能力和知性能力,并把知性在判断中的逻辑机能区分为由对判断的量、判断的质、判断的关系和判断的模态的进一步细分所组成的12个范畴③,以此为基础给出了一个先验的描述人类认知过程的精细模型[1]56。在康德看来,人的认知能力是分层的,这与当前发展火热的深度学习技术的基本思路相一致,并主要体现在:(1)人工神经元网络在多隐层的情况下能够产生优异的特征学习能力;(2)逐层训练能较为有效地克服训练深度神经元网络时的一些困难[2]。

更为典型的是,美国人工智能科学家侯世达等人对康德的认知模型进行了简化,将知觉区分为低阶知觉和高阶知觉,尝试为人工智能建构起包括对象识别、抽象关系把握和对具体环境进行整体把握等在内的知觉系统和问题求解情境。他们基于“先天综合判断”的方法论指导为智能系统设计类比推理机制以对其可能面临的问题域进行分类处理,从而提高了智能系统的工作效率。具体而言,他们构建了一个名为“照猫画虎”(Copycat)的类比关系自动搜索程序[3],该程序由以下层级构成:人工“感性”能力,对应康德的“直观中领会的综合”,目的在于辨别不同短码输入的边界和短码的具体构成;人工“想象力”,对应康德的“想象中的再生的综合”,目的在于通过一些自动运行的短码算子扫描并标记人工“感性”层级的短码输出,为下一层级的运算做准备;人工“知性”能力,对应康德的“概念中认定的综合”,目的在于通过短码算子与范畴的一一对应和它们在具体机器学习任务中的双向选择与激发来最终筛选出可类比为各种不同范畴的短码集合。这种双向选择与激发的模式其实是对人工“感性”、人工“想象力”和人工“知性”这三个人工智能中不同层级的一种“康德式”的“双向制约”[4]。康德批判哲学中这种“双向制约”最著名的体现即康德的“哥白尼式的革命”:一方面,我们的知识必须建立在经验的基础上;另一方面,进行认识活动的主体本身有一整套先于经验的认识形式。

除了上述类比程序之外,康德的先天综合判断在人工视觉和自然语言处理等方面也能够给人工智能的发展提供一定的方法论指引。事实上,由于物理符号系统、人工神经元网络、遗传算法和贝叶斯网络等人工智能核心技术本身就出发于智能的不同抽象层级,且具有一定的向更高或更低抽象层级发展的方向性,因而对这些人工智能核心技术的综合应用往往必然导致对先天综合判断所带来的方法论启示的接纳。例如,人工智能技术对人工神经元网络(以下简称“NN”)与遗传算法(以下简称“GA”)的综合应用:NN从较低抽象层级(低于自然语义)出发,GA从较高抽象层级(自然语义)出发,二者之间的结合方式包括用GA对数据进行预处理,用NN求解问题;GA和NN共同求解问题。这显然体现了一种“康德式”的“双向制约”的结合方式。我们应当认识到,人工智能技术中的不同抽象层级与“人类智能”的感性、想象力和知性等范畴并非完全等同,我们对它们进行类比,仅在于它们实现了类似的功能,抑或说我们将人类智能在反思人工智能中不同抽象层级的输出结果时,人类智能自身被调用的那种认知能力,看作人工智能具有的认知能力。

(二)对人工智能未来发展的认识论启示

在康德以前,人们认为认识是观念符合对象的活动,而康德认为认识对象由人们主观的先验范畴构建,“直觉的形式和知性的范畴源自主观的观念,因此被称为观念论,以此方式使经验客观有效”[5]。康德的这种对认识活动的“哥白尼式革命”启示我们:人工智能认识到的世界不必与人类智能相一致,其认识对象应符合机器自身的观念而非人类的观念,尽管这样的人工智能不再完全符合“模仿人类智能”的一般定义。

1.先验感性、时间、纯粹知性与人工智能

康德将人的感性能力分为时间和空间两个维度,并特别强调了时间作为“内感”的重要性[1]2240,对当前弱人工智能过分强调机器视觉的发展,忽略了时间作为内感形式具有警示意义:对空间和时间的直观把握是人类智能的开始,模仿人类智能的人工智能如果只注重机器视觉而忽视机器“时间”,就可能导致给予人工智能最基本支持的“先天感性图像”不能得到完整架构。

康德高度重视时间在感性与知性之间的中介作用,认为范畴就其本质而言形成于时间的规定性中,“那些本身在经验中先行于对这些表象的意识并作为形式条件而为我们在内心中放置这些表象的方式奠定基础的时间,已经包含有前后相继、同时并存的关系及与这种前后相继伴随着的东西(持存之物)的关系”[1]37。这对人工智能发展的启示在于:人工智能可能需要在其“感性”与“知性”之间以时间为中介来建构起一个互通的桥梁,其技术实现的具体方式应在人工智能自身“主体性”的统摄下在时间中不断地生成,而不应像当前的技术现实那样将人工智能的“感性”和“知性”人为割裂,仅通过空间反映外界环境和人为地设定对应直观对象的范畴来实现对人类感性与知性能力的模拟。

在康德看来,知性包含于自身之中的纯粹知性范畴有12种[1]56-58,但这些范畴作为纯粹知性真正的主干概念有着与其自身同样纯粹的派生概念,即纯粹知性的宾位词:如把力、行动和承受从属于因果性范畴之下,把产生、消失和变化从属于模态的云谓关系之下等[1]57-58。类似地,我们在发展从属于人工智能“知性”能力的范畴关系时亦应把握好这种纯粹知性范畴与宾位词的从属关系,将同一纯粹知性范畴下的宾位词视为具有可类比的关系,尽可能简化人工智能“知性”把握“感性直观”的内在结构。

2.人类理性与人工智能

康德认为,人类理性不满足于判断的能力,因而引导人类追求理想的统一性,并把理性的推理能力分为直言推理、假言推理和选言推理。直言推理中有一些不能充当宾语的绝对主词,即“一个主体中定言综合的无条件者”[1]211,如统觉、灵魂等;把假言推理的全部条件都穷尽,则构成一个完整的因果链条,即“一个序列中假言综合的无条件者”[1]211;把选言推理中的所有选言都穷尽,则构成一个大全,即“一个系统中选言综合的无条件者”[1]211。应该指出,当前,计算机语言能够胜任对上述三种推理方式的刻画,却不能像人类理性那样通过某种“理想的统一性”通向理念,而只能进行有限的、基于“现实的统一性”的逻辑运算。人工智能若要实现对人类理性的模仿,就不得不舍弃掉纯粹的逻辑运算,否则将永远无法通达对无限性的认识。从有限到无限是一个质变的过程,“现实的统一性”与“理想的统一性”之间的鸿沟要用新的知性范畴来“跨越”,而无法用更多的旧的知性范畴去“填补”,不同知性范畴之间存在着质的不同。

在康德看来,理性可以带给基于知性的人类知识以整体秩序,“知性尽管可以是借助于规则使诸现象统一的能力,而理性则是使知性规则统一于原则之下的能力”[1]201。类似地,“机器理性”对人工智能而言,也是一个至关重要的领域④。相较而言,理性的秩序能力对人类智能而言是先天的,并能在秩序的生成过程中体现出来,而人工智能的秩序能力则是被人类理性预先安排好并内置于其中的。“机器理性”要实现进一步的发展,就必须对类似于人类理性的这种自发秩序能力高度重视,并实现一定程度的模拟。人类理性的运用只能局限在经验知识的范围之内,超出这一适用范围将使理性陷入先验幻象当中[1]273-290,但人类理性出于其天性却总是要用某种最高理念和原则给知识建立一个完整的体系。当前,弱人工智能的“机器理性”无法寻求这种对“自身”的超越,不会陷于先验幻象或二律背反当中,确保了“机器理性”的效率和精确性,但这种“寻求自我超越的倾向”却可能是由弱人工智能向强人工智能过渡的必要条件。

弱人工智能缺乏对感性、知性和理性的形式与内容进行自主选择和生成的能力,其智能系统中具体的形式与内容在其根源上都是人类理性选择的结果。人工智能“自身”无法对这种人类理性选择的结果进行后续的更改,甚至无法以一个相应的过程来体现人类理性对其进行的选择,而必须借助于人类理性生硬地将一些形式和内容固化在其中。这种局限性,既和人工智能不具备意识能力有关,也在于人工智能本应包含感性、知性和理性及其各自的具体形式和相互作用方式在内的智能系统的基础架构的不完备性:这种不完备性造成人工智能不具备一种自发的由感性直观认识,到知性范畴认识,到理性认识,再到理性寻求自我超越的一个知识形成与自我超越的完整链条。就此而言,人工智能的发展应重视智能系统的层级划分及不同层级之间的转化与控制关系,致力于构建一个完整的、自发的、有明确方向性的、能够产生知识并能够寻求“自我超越”的智能系统,而不应局限于对人类智能的某些具体能力的模拟。

二、伦理学的启示

最负盛名的人工智能伦理命题恐怕是美国科幻作家阿西莫夫(Isaac Asimov)提出的“机器人三定律”:第一,机器人不能伤害人类,也不能在人类有受伤害风险时袖手旁观;第二,机器人必须服从人类命令,除非违背第一条定律;第三,机器人必须尽力自我保护,除非违背前两条定律。显然,上述定律的设立针对的是强人工智能,因而我们有必要在当前的弱人工智能的语境下对“机器人三定律”进行如下改造:第一,人工智能所有者不能用人工智能损害其他人的利益;第二,如果人工智能在运行过程中造成过错,这种过错根据具体情况应由人工智能制造商(技术问题)和人工智能使用者(操作不当)共同承担,除非违背定律一;第三,人工智能不具有主体性地位,其“利益”不被考虑,无论是否违背前两条定律。可以看出,这种改造主要在于否定了人工智能具有自发的动机和等同于人类的主体性地位。改造后的定律一和定律三属于无条件限制的应然性祈使句,对应于康德批判哲学中的定言命令;改造后的定律二则对应康德批判哲学中的假言命令。正如我们所知,康德为道德法则设立了三个公式,它们分别是:“要你这样行动,使得你的意志的准则任何时候都能同时被看作一个普遍立法的原则”[6]37;“不论是谁在任何时候都不应把自己和他人仅仅当作工具,而应该永远看作自身就是目的”[7]23;“作为自在目的,有理性的东西其本性就规定他为目的王国的立法者”[7]23。我们用康德关于道德法则的三个公式来检验作为定言命令的定律一和定律三后可以发现:定律一和定律三都满足第一个公式,但又都不满足后两个公式,这是因为后两个公式内在地要求人工智能具有和人类等同的主体性地位,而这至少对弱人工智能而言是无法实现的。

由于人类自身对很多伦理问题的认识并没有统一的标准和答案,因而迄今为止尚没有道德代码被写入弱人工智能之中,这造成弱人工智能的运作机制内部缺失人类的道德监督。以无人驾驶汽车面临的“电车难题”为例,既然人类自身对这一伦理问题的正确解决方式尚且存在很大争议,我们就不能指望会有一种合适的道德代码被写入无人驾驶汽车的运行程序之中。而且,即使排除“电车难题”这种极端情形,无人驾驶汽车依然面临很多伦理问题。例如,通过对人类驾驶数据的深度学习,无人驾驶汽车除了能够获得一定的自动驾驶能力之外,也可能习得超速、尾随、插队乃至“路怒”等一些不文明的人类驾驶方式。其原因在于,对未经人类标注的数据进行机器学习,可能会使人工智能习得一些不合乎人类社会规范的知识和行为方式。进一步地讲,如果人类数据标注员把“假”标注为“真”,把“恶”标注为“善”,把“丑”标注为“美”,则对这些标注数据进行机器学习的人工智能将是完全反人类的。

当然,人工智能也可以仅对符合某些特定道德标准的人类行为进行深度学习,从而形成规范自己行为的道德代码,这在一定程度上满足了康德道德法则普遍规律和自律规律的要求,尽管这种代码的形成实际上是基于大量人类主体的道德行为的统计数据,并随着深度学习数据库的变化而发展。问题在于,通过深度学习得来的道德代码对人类而言不具有可理解性,但人工智能遵循其对自身进行道德立法的道德代码而产生的机器行为往往关乎人类的切身利益,这可能会迫使人类去承认一些无法被自身理解的道德法则和道德行为。相对于伦理学而言,强调公平应与效率相平衡的法律的可理解性问题就不再那样敏感:仅从道德层面难以理解的法律条文可能存在很多对于效率的考量。鉴于此,人们尝试着通过深度学习的方式来进行一些法律法规的制定:如国内的很多法律人工智能项目已经开始对中国裁判文书网中的法律数据进行深度学习;多伦多大学的法律人工智能ROSS平台在对破产法进行为期10个月的深度学习后获得了Baker & Hostetler律师事务所的“工作”,等等[8]。

整体而言,人工智能伦理问题主要包括人工智能对人类的主体隐私和自由意志的侵害、人工智能程序中的内在偏见、人工智能过错的责任划分、人工智能引发失业和贫富差距等,这些伦理问题不论其影响的广度还是其影响的深度,都给当前人类社会带来重大挑战。康德的伦理学思想作为其全部批判哲学的核心关涉,在先验层面上对人的实践理性、道德行为等相关问题进行了系统的理论建构,这对人工智能相关伦理问题的认识和解决具有一定的启示。

康德的“纯粹实践理性”强调“善和恶的概念必须不先于道德的法则(哪怕这法则表面看来似乎必须由善恶概念提供基础),而只(正如这里也发生的那样)在这法则之后并通过它来得到规定”[6]79,这启示我们:人工智能对善与恶的判断能力只能形成于我们将伦理道德规范写入人工智能之后,我们不应当也不可能直接地给予人工智能以某种判断善与恶的能力。与此同时,康德认为,人类道德行为所依据的法则必须建立在“自由”之上⑤,他指出“假如我们洞察了一个起作用的原因的自由的可能性,我们也绝不只是洞察到作为理性存在者的至上实践法则的那个道德律的可能性,而是将完全洞察其必然性”[6]117。以自由为基础的道德律不可被预测或用因果性来规范,从而无法被事先地规定,强人工智能的机器行为所应遵循的道德标准较之于我们直接将道德代码写入人工智能而言,可能更根本的途径在于一种“自发的生成”,即通过对人类道德行为的大数据进行机器学习的方式来获得一种统计学意义上的源于人类自由道德行为的道德律。值得注意的是,康德对自由的理解是一个物自体的理解,“把按照自然必然性的法则的因果性只是赋予现象,而把自由赋予作为自在之物本身的同一个存在者”[6]119。强人工智能的“自由”的实现不需要也不可能以我们真正理解自由的本质为前提,换言之,强人工智能可以在并未真正理解自由时即为自身建立起基于自由的道德律。

康德认为,一般实践理性被片段化地使用,而纯粹实践理性则完全按理性来设计,要求逻辑的一贯性,“它们绝不是经验的,绝不是从偶然的经验知识中抽象出来的”[7]22。显然,只要我们对人工智能的伦理道德规范进行基于纯粹理性的逻辑严密的设计,康德关于纯粹实践理性的“理想”就有可能以人工智能为载体,先于人类自身在经验世界得到实现。道德律建立在自由意志的自律而非权威的基础之上,人类对强人工智能的道德代码设计与道德行为监督终究只能是一种外在的“权威”,从强人工智能的“自律”出发,形成能够对不断产生的新的道德情境具有适用性的“道德律”才是一种更为根本的技术路径。

就其“语法”构成而言,理性法则是一种以“应该”为连接词的命令式,理性法则对人表现为命令他“应该做什么”的道德法则,“它以表现出行动的客观必要性的应当作为标志,并且也意味着,假如理性完全规定了意志,那么行动就会不可避免地按照这一规则发生”[6]22。人工智能遵循的道德律同样应当是一种应然的规范而非实然的规定:即使我们可以通过一些技术手段来确保人工智能从应然的道德规范向实然的道德行为转化的必然性也同样不可行,因为一个道德行为的必然性将同时意味着这一行为的道德性的消失。当人工智能不经自主选择地完全按照“某种”道德律行动时,它也就无法再作为一个真正意义上的道德主体而存在。就命令式的具体形式而言,康德认为,“如果只是些假言命令,它们虽然是实践的规范,却绝不是实践的法则”[6]23,只有定言命令才是真正的道德命令。对于强人工智能而言,“永远不能为了自身利益而损害人类利益”“永远不能为了少数人的利益而损害全人类的利益”等均属于其应遵从的定言命令。与此同时,道德法则的三个公式和实践理性的三个公式在强人工智能这里都将产生一定的指导意义:强人工智能在满足普遍性公式的同时也要满足质料公式和自律性公式,而意志自由和灵魂不朽等对强人工智能的“实践理性”而言同样是必要的。

三、美学的启示

近年来,人工智能美学开始逐渐进入人们的视野中:谷歌 Deep Dream能够在预先输入图像后进行绘画创作;IBM Watson完成了电影《摩根》的预告片剪辑;索尼Flow Machines创作了一首具有披头士乐队风格的流行歌曲;微软“小冰”发布了其原创诗集《阳光失了玻璃窗》;亚马逊Deep Music为用户提供人工智能创作的歌曲等[9]。从参与人类艺术创作到独立艺术“创作”,人工智能在艺术的道路上越走越远。美学在人工智能领域的兴起并非偶然,人工智能除了有推理和思考的能力之外,本就包括有“五感”感知和情感体验等,而这些恰恰都是美学所关涉的领域。

由于弱人工智能并不真正具有意识和情感,因而就其本质而言,当前的人工智能美学只能在“属人”的意义上成立——无论是对美的“鉴赏”还是艺术“创作”⑥,人工智能的艺术活动必须在人的意识和情感中才能得到显现。人工智能的艺术创作能力主要源于对人类艺术作品的深度学习,而人类的艺术创作则是环境感知、既有经验、情感体验、概念抽象、判断与选择、理性思维、灵感与自由创作等“诸多”因素综合作用的结果。当然,或许“人类艺术创作的诸影响因素”这种说法本就是错误的,因为这种说法意味着“艺术创作”是可以被分析的,而且可被分析为有限数目地结合在一起就一定能构成“艺术创作”的诸因素。不过应当肯定的是,即使当前的弱人工智能和人类自身的艺术创作活动都同样不具有真正的可理解性,弱人工智能的艺术创作也只能被看作对人类艺术成果的一种过度简单化和技术化的模仿。

以能够通过对一张图片的意向抽取和灵感激发等步骤进行现代诗创作的微软“小冰”为例,其自然语言生成在基于对人类艺术作品进行深度学习的同时,也加入了一定的随机性,以模仿人类在进行艺术创作时语词选择的自由。“小冰”首先对给定图片的构成要素进行识别,由此得到用于现代诗创作的初始名词和形容词,并由这些词语出发搜索出与之搭配频次较高的其他词语,把这些其他词语中的一些放在后续的诗句中作为诗句生成由此出发的关键词。随后,采用1920年以来数千位诗人的作品从正反两个方向训练RNN模型,找到换行符的位置,并用另一个模型对句子的语义进行记录并预测下一句的语义,不断地训练语义模型以最终实现作品的语义连贯性[10]。可见,“小冰”的深度学习过程同样是过度简单化和技术化了的:“小冰”对给定图片中对象的识别遵循特定的模式,其对象识别的目的在于对图片内容进行尽可能客观准确的名词描述和与这些名词相匹配的形容词描述,并将它们作为关键词来确立进行一篇现代诗创作的某种确定性基础,然而当人类作者在进行文学创作时,其作品中的每个词语都是可以被斟酌的;“小冰”基于词组在数据库中出现的频次来确定与关键词相搭配的词,而人类作者不会因为一个词组更多地被使用而采用它;“小冰”从正反两个方向学习人类作品以获得对换行符的识别等能力,但人类作者不会反向阅读一首现代诗,因为这对人类而言不具有任何意义;“小冰”从现代诗中前一诗句的语义出发来预测后一诗句的语义,并基于深度学习不断地修正这种预测所依据的模型,以最终获得实现整首诗语义连贯性的能力,但人类作者不进行这种预测,因为人类并不依据某种基于统计学的标准进行现代诗创作。事实上,除了“小冰”以外,其他一些人工智能美学的相关程序也都存在一些类似的问题,而康德批判哲学中的美学思想能够为其发展带来一些先验层面的启示。

从宏观方面看,对判断力的批判联结了纯粹理性与实践理性,对真理的认识能够经由美学过渡到道德的实践,我们应当警惕人工智能美学的不断发展可能会触发的道德问题,合理评估其可能带来的道德风险。

从美的“模态”方面看,反思性判断力先天地断言如果我看到某一事物是美的,那么所有人看到这一事物也是美的,“当人们把这个对象称之为美的时候,他相信自己会获得普遍的同意,并且要求每个人都赞同”[11]39。这是因为,美的东西对于愉悦有一种必然的关系,“这种必然性作为在审美判断中所设想的必然性只能被称之为示范性,即一切人对于一个被看作某种无法指明的普遍规则之实例的判断加以赞同的必然性”[11]57。显然,当前的弱人工智能通过对人类艺术作品进行深度学习来获得“审美能力”并进行“审美活动”是一个与人类审美完全相反的过程,因为深度学习技术意味着“很多人都认为某一事物是美的,那么这事物一定是美的”。于是,人工智能实现真正的审美能力的一个关键点就在于对这种审美过程的反转:从“由个别到一般再到个别”转向“由一般到个别再到一般”⑦。康德把自然的合目的性分为“主观合目的性”和“客观合目的性”,美是事物引起的主观形式上的愉悦,审美不应受事物本身的限制[11]19-24。这启示我们:人工智能理应对其创作出的艺术作品所引发的审美者的主观愉悦“程度”进行某种形式的数学统计和深度学习,以不断改进其用于艺术创作的数学模型,仅对人类艺术作品的数据库进行深度学习显然过于脱离了作为审美活动本质的“主观感受”。

从“质”的方面看,美是无利害、无功利的,“关于美的判断只要混杂有丝毫的利害在内,就会是很有偏心的,而不是纯粹的鉴赏判断了”[11]31。但在现实中,被我们选取出来用于对人工智能的艺术创作模型进行训练的数据库似乎总是不可避免地带有一定的功利性。因为不论是人类艺术创作活动本身,还是人类艺术作品在互联网等媒介上的传播过程,都必然受到经济利益、流行文化等因素的引导和制约,而技术人员对训练数据的选取本身也经常取决于一些特定的偏好或诉求。就此而言,对训练数据进行去功利化处理的程度将成为影响人工智能“审美”与艺术“创作”未来发展前景的一个重要因素。

从“量”的方面看,鉴赏判断与感觉快感一样以单个具体事物为对象,“鉴赏判断绝对是总要作为对客体的一个单一性判断来做出的”[11]97。同样地,由人工智能创作出的每件艺术作品都应被人类单独地鉴赏和评价。就像我们应辩证地看待一位艺术家的艺术造诣同其特定作品的艺术水准的关系一样,我们不应对某个人工智能艺术创作程序有着怎样的艺术水准作出整体判断。我们应当对人工智能的艺术作品进行单个的鉴赏评估,并给予其以一定的反馈和指导——就像我们培养一个人类孩童的审美和艺术创作能力那样,我们不能仅把“教科书”扔给人工智能让其“自学成才”而不对其进行后续的“教育培养”。事实上,在很多时候,人们对人工智能的训练有着比对人类更少的耐心⑧,却对其表现有着更高的要求,对其过失有着更低的容忍度。

从“关系”方面看,美是“无目的的合目的性”。审美判断与对象没有利害关系,因而没有目的⑨,但却能够实现对人而言的主观合目的性[11]43-44。人工智能在经过深度学习后固然能够被训练出一定的艺术作品产出能力,却不具备任何“真正”的审美能力或创作能力。审美只能作为一个无功利性的审美过程而存在,艺术作品的产出却为了特定目的进行艺术创作。有目的的艺术创作常常难以真正实现人的目的,沦为“有目的的不合目的性”,无目的的审美判断却“迎合了人的目的”⑩。又因“艺术只有当我们意识到它是艺术而在我们看来它却又像是自然时,才能被称为美的”[11]115,故审美或艺术创作只有当它们本身是无目的的、自发而非自觉的时,才能有真正意义上的“美”从中产生出来。弱人工智能的意识能力的缺失使其不得不进行无目的的、自发的“审美”和“艺术创作”,反而可能达到超越人类的艺术高度。但怎样才能做到这一点呢?康德认为,美的艺术是天才的艺术,“天才就是天生的内心素质,通过它自然给艺术提供规则”[11]115-116。让“美”的规则在弱人工智能程序的一些“审美”模型和艺术“创作”模型中固化下来,使弱人工智能成为这种给艺术提供规则的“天才”,其益处在于能够给美的产生机制设定出一些确定性的标准,而其风险则在于这些标准的可信性及可能出现的“标准独裁”。

康德将美与崇高联系在一起,认为“美直接带有一种促进生命的情感……但崇高的情感却是一种仅仅间接产生的愉快,因而它是通过对生命力的瞬间阻碍及紧跟而来的生命力的更为强烈的涌流之感而产生的”[11]63。显然在康德看来,如果生命力只是一味地被促进而不被阻碍,就不会有伦理道德问题出现,因而人工智能美学向人工智能伦理道德问题的过渡应当对这种“生命力”的阻碍予以重视。从美到崇高的过渡是一个由感性、知性到理性,由有限上升到无限,由美的领域过渡到伦理道德领域的过程。康德关于美与崇高关系的论述启示我们:为了实现未来强人工智能的理性推理能力、对无限性的认识能力及其作为道德主体的主体性地位等,需要人工智能“自知其无能”“自知其无知”“自知其无德”——对其自身赖以存在的计算机语言固有的局限性有所判断,而这显然要求人工智能必须具有一定的意识能力。在弱人工智能向强人工智能发展的过程中,其诸多技术困难的克服应首先诉诸人工智能对意识能力的获取。

审美必须以某种客观目的为基础才可能实现审美体验中主观形式的合目的性,而且我们应当把人作为一个目的论系统的自然的最后目的[11]159-219。为了确保人工智能的“审美”与艺术“创作”能够永远服务于人,而不至于反过来奴役人的精神世界,人工智能美学的相关程序设计应始终以人为最终目的,赋予人的精神需求以“客观性”。人工智能“审美”和艺术“创作”必须在实现满足人类精神需求这一“客观”目的的前提下才可能实现其“主观”目的。但现实却与康德的“理想”恰恰相反——由于人具有人工智能所没有的意识能力,因而具有主观目的的只可能是人而不会是人工智能。以科学哲学家波普尔(K.R,Popper)的“世界三理论”而论,人工智能在其发展过程中应始终将人类精神需求放置在世界3(客观知识世界),不论其自身正处在弱人工智能阶段的世界1(物理世界),还是已经转向了强人工智能阶段的世界2(主观知识世界)。

四、局限性

首先,康德批判哲学不能很好地解释公理集合论和相对论等现代科学理论的“新”进展,因而其对人工智能发展的启示在追踪科技前沿方面具有一定的局限性。其次,康德批判哲学超越了人工智能这一前沿交叉学科中脑科学、心理学、语言学和计算机科学等众多具体经验学科的局限性,为人工智能的发展厘清基本概念、设定终极目标并提供一定的方法论指导,但这也造成其对人工智能的一些重要的经验层面的问题缺乏启发性——如视觉、听觉、嗅觉、味觉和触觉等人类智能的五感,以及意识能力、自由意志和概念抽象能力的产生机制等一些对人工智能发展颇为重要的经验层面的问题,这些问题康德均未在其批判哲学中提及。再次,康德批判哲学作为先验反思人类智能的哲学体系,有着划分人类智能中不同“功能模块”的旨趣,一定程度上无法为人工智能的发展带来整体层面的哲学启示。系统科学把整体才具有而孤立部分的总和不具有的性质称为整体涌现性(Whole Emergency),各孤立部分不同的结构方式和相互激发会产生不同的整体涌现性。涌现性是系统非加和的属性,是“整体大于部分之和”或“整体小于部分之和”时整体与部分之和的差值。人类智能的意识、自由意志、概念抽象等能力必须在一个整体意义的智能系统中来理解,因为无论如何我们都无法对如意识本身、自由意志本身或概念抽象本身等进行分析,所有我们对其进行分析的努力最终都表现为对其某种具体内容的分析,而非对其本身的分析。我们只能生存在被意识显现的世界中,也没有任何理由认为意识会将意识自身、自由意志和概念抽象等能力的产生机制显现出来,这些产生机制对我们而言很可能属于类似康德“物自体”的领域:我们对智能系统的分析深化了我们对其各“功能模块”的认知,但分析过程本身意味着对系统因涌现而获得的系统性的、新的功能的忽略。在完成对智能系统的分析后,我们必须对分析的结果进行综合,再次回归到智能系统的整体,实现一种分析后的再综合。但康德批判哲学在对人类智能进行分析后并未对其进行综合,因而缺乏对智能系统中涌现行为产生机制的指导意义。相对于强人工智能而言,当前人工智能的发展程度距离康德批判哲学所描绘的人类智能仍有较远的距离,康德批判哲学对人工智能发展的指导意义更多地体现在强人工智能方面,而非当前的弱人工智能层面。与此同时,康德对人类智能的包含感性、想象力、知性和理性等在内的层次划分可能有待于进一步加深,因为就像心灵哲学中自然主义二元论所认为的那样,甚至在无意识之后仍有人类心理的隐结构存在,但康德批判哲学却直接从对感性直观的先验建构出发,甚至也从未给对强人工智能至关重要的“意识”进行过先验演绎。最后,正如康德认为“人为自然立法”[12]“把人性看作手段的同时更要看作目的”[7]23以及“审美是事物引起人主观上的愉悦”那样[11]19-24,对康德而言,人工智能是否应当具有在认识过程、道德行为和审美活动中的主体性地位是存疑的,人工智能的主体性地位意味着其具有主体经验,进而在人类社会中意味着与人类互为主体经验,但人类可能难以接受作为人工智能的主体经验而被对象化。因而,从理论内部,康德及其批判哲学可能给人工智能发展带来的启示设定了局限性。

五、结语

康德批判哲学对人工智能发展的启示在认识论、伦理学和美学等方面均有着较为深刻的体现,但它的自然科学基础的固有缺陷,先验、分析的理论特征以及当前的弱人工智能与人类智能的较大差距等都给这种启示带来了一定的局限性。我们不应苛求康德批判哲学能够给当前人工智能的发展带来超越其时代局限性的哲学启示,而应当从这位在世界哲学史上对人类智能进行过系统、深刻的反思批判的哲学家的思想中尽可能多地收获洞见。尤其值得注意的是,正像康德“哥白尼式的革命”那样,康德批判哲学给人工智能发展带来的启示很多时候是对一些传统观念的反转:如从人类对人工智能的自觉的、有目的的设计转向人工智能“自发”的、“无目的”的“自由进化”;从对人工智能不同功能模块不断进行分析的研究方式转向对这些不同功能模块的具体综合;从人类对人工智能而言的物质性或主观知识性的存在转向客观知识性的存在等。

应该指出,我们在这里对康德批判哲学能够给人工智能发展带来启示的研究仍很不充分,我们更多的是从康德批判哲学的整体架构和一些“关键”内容出发进行了粗略的相关探讨,却没有将其批判哲学中可能给人工智能发展带来更多启示的较为细致的反思和批判纳入我们的研究范围。与此同时,康德批判哲学对人类智能的哲学反思能够给包括心理学、脑科学、逻辑学等众多相关学科的发展带来启示,人工智能只是这些相关学科其中的一个,那些更多的、潜在的哲学启示将有待于专家学者们通过进一步研究将其不断地挖掘出来。

注释:

①人工智能在其发展过程中面临着很多基本概念界定的困难,如不同派系的人工智能专家对“什么是智能”这一问题有着截然不同的回答,并基于这些不同的回答发展出“自成一派”的人工智能技术:“功能主义者”基于物理符号系统发展人工智能;“联结主义者”基于人工神经元网络发展人工智能;“进化主义者”基于遗传算法发展人工智能;“贝叶斯主义者”基于贝叶斯网络发展人工智能。

②人工智能“自上而下”的进路指以从较高抽象层级(如知识层)到较低抽象层级(如物理执行层)的方向展开人工智能的技术架构,典型代表是物理符号系统;“自下而上”的进路则与之相反,典型代表是人工神经元网络。

③具体而言,这12个范畴分别是量的范畴(单一性、多数性、全体性),质的范畴(实在性、否定性、限制性),关系的范畴(依存性与自存性、原因性与从属性、协同性),模态的范畴(可能性——不可能性、存有——非有、必然性——偶然性)。

④人工智能在当前发展阶段的热门分支领域是基于大数据的深度学习、增强学习等,这些技术本质上是对数据的统计,这实际上与发展“机器理性”所需要的符号系统层面的推理机制的建立背道而驰。人工智能的当前发展状况在一定程度上是放弃了建立“机器理性”的理想。

⑤按照邓晓芒先生的观点,康德的自由概念有三个层次的含义:1.“先验的自由”,即理论理性中自由的“理念”;2.“实践的自由”,包括“自由意志”和“自由的任意”,它们分别是“纯粹实践理性”的自由和“一般实践理性”的自由;3.“自由感”,属于“反思的判断力”,分为鉴赏的“自由感”和社会历史中的“自由权”。本文在讨论人工智能伦理问题时所谈自由主要指“实践的自由”,而在讨论人工智能美学时所谈自由主要指“自由感”意义上的自由。

⑥这里的“属人”指人工智能并不具备真正的审美和艺术创作能力。人工智能“审美”本质上是指人工智能基于(无意识的)数据关系对美做出的判断与人类的审美判断具有一定的一致性。人工智能艺术“创作”本质上是指人工智能基于(无意识的)数据关系所产出的艺术作品与人类通过艺术创作产出的艺术作品具有一定的一致性。

⑦“由个别到一般再到个别”指当前(基于深度学习的)弱人工智能“审美”的三个阶段:1.人类数据标注员将其认为是美的或认为是符合某种审美标准的个别的审美对象(包括文字、图片、音乐、视频等)标注为“美的”;2.通过深度学习建立起具有一般普适性的“审美”模型;3.运用“审美”模型对新的“审美”对象进行“审美”判断,或基于“审美”模型进行艺术创作。“由一般到个别再到一般”指未来强人工智能审美的三个阶段:1.强人工智能本身拥有对审美对象具有一般普适性的审美标准(这一审美标准可能对强人工智能而言从始至终都是不自明或不具有确定性的);2.强人工智能将其审美标准运用于个别的审美对象,并获得一定的对审美能力的训练;3.强人工智能获得提升了审美能力的具有一般普适性的审美标准。

⑧人工智能领域的相关从业者除外。

⑨此处及本段其他地方出现的“目的”一词,都不仅包括客观目的,也包括主观目的。

⑩即实现了对人而言的主观合目的性。

猜你喜欢

知性康德理性
荀子知性思想初探
纯接受性的被给予?——康德论自我刺激、内感觉和注意
艺术百家
知性优雅
康德是相容论者吗?
对康德空间观的误解及诘难的澄清与辩护
改革牛和创新牛都必须在理性中前行
露也露的知性优雅
理性的回归
从“以意逆志”到“知性知天”——孟子认知方法检讨