APP下载

人工智能的知识表示和智识极限

2024-09-26刘纯懿胡泳

现代出版 2024年9期

关键词:人工智能;知识表示;知识工程;智能传播;ChatCJPT

一、前言

根据彼得·帕克(Peter Burke)对知识社会的断代划分和对知识系统大转型的时期描述,自20世纪90年代以来,知识社会进入了“自反性时代”①。知识的“自反性”体现为知识的自我修正、自我更新、自我怀疑不断涌现,在不断怀疑、修正和更新过程中知识对变动中的社会的反映能力也在逐渐增强,曾经的不断修改补充的维基百科如此,今日不断吸收新的训练数据以生成更新的、更准确的知识的ChatGPT也是如此。“自反性”还体现为今天围绕知识的人类行为不仅是对“知识”的创建,更是对“知识的知识”的创建,这体现为大量的知识史类研究成为这一时期各个学科的新兴领域,对知识体系和知识建构过程的索骥和解剖构成了一种建立“元知识”的努力。而在这一系列建立“元知识”的壮志图景中,人工智能自诞生之日起就表明了其决心和勇气,并在起起伏伏的发展周期中不断地被寄予厚望。

人工智能的知识自反性和创建元知识的愿景似乎走得更远,因为人工智能的知识工作不仅包含对知识的存储、管理、理解、分析和调动,更包括一种关于知识的基底性工作,那就是知识表示(knowledge representation)。以罗杰·香客(Roger Schank)为首的人工智能理论家们曾声明,

“组织世界的知识问题是人工智能的最大难题”②,而知识表示就是用来解决这一“最大难题”的必经之路。知识表示是人工智能的一项本体论工程,它需要回答世界是什么的问题,但更重要的是,它需要将关于世界的知识转化为计算机可以处理的形式。因此知识表示不仅是人工智能储存机器获知信息的必备能力,更是一种创造“知识的知识”的不懈努力。知识表示是人工智能推理和行动的载体,可以说,如果没有恰切的知识表示方法,任何构建智能机器的愿景都无法得到实现。知识表示作为一种技术哲学意义的结构性力量建构着智能传播时代的知识样貌,也反映着人工智能存续以来的知识困境和智识极限。

二、人工智能的形式化知识表示

对知识表示的重视和人工智能专家系统的发展密不可分。专家系统也被称为基于知识的系统。人工智能专家系统是一个高度依赖知识表示的系统,如果给定合适的领域知识,在狭窄定义的问题上,人工智能足以匹敌甚至超过人类专家的表现。例如,第一个人工智能专家系统DENDRAL就能够像化学专家一样精确地解释质谱仪的输出,DENDRAL的发明者爱德华·菲根鲍姆(EdwardFeigenbaum)更是将在该程序和此后用于推导质量微量测定规则的程序METADENDRAL等所做的工作称为“知识工程”③。虽然DENDRAL的成功有助于使人工智能研究团体相信知识表示的重要性,但需要注意的是,在DENDRAL中使用的表示形式是高度特定于某一知识领域的。

随着专家系统取得鼓舞人心的进展,研究者更加对标准化和形式化的知识表示方法和知识本体论感兴趣,形式化知识表示能够使创建新的专家系统的过程简化且更有效率。于是,人工智能在知识层面进入先前由语言学家、哲学家们探索的领域。形式化知识表示并非是计算机和人工智能领域特有的行动过程,实际上任何领域的技术术语的发展都可以被视作一种形式化知识表示。从这一更大范围的定义来看,古希腊对数学术语定义的使用可以被看作西方形式化知识表示的最早样例,而在东方,形式化知识表示开始于公元前第一个千年时古印度对梵语语法的理论化。当人工智能加入往日在科学领域、语言领域等早已被思考过的形式化知识表示问题时,或者说,当形式化的知识表示位移至人工智能领域后,知识表示这一问题就变成了“如何在有关的情景中建立规则并用以描述特殊事物”的问题变种,其重要性正如麻省理工学院人工智能实验室主任帕特里克·温斯顿(Patrick Winston)在其人工智能集大成之作中所说:“知识表示是用来描述一类事物的一套成规惯例,好的知识表示是问题求解的关键,挖掘合适的知识表示是解决问题的主要步骤。”

知识表示一直是人工智能研究的关键问题,但在人工智能的知识工程时期,对于知识表示的探究更多聚焦于用尽可能少的知识取得尽可能多的成绩。然而沿着这一研究思路,问题也逐渐浮现,知识工程时期的瓶颈正如香客等人所说:“研究人员开始懂得,程序编制中的特技是有趣的,但却无法推广……人工智能研究者认识到,人们如何使用和表示知识是这一领域中的关键问题。”DENDRAL程序非常典型地代表了20世纪70年代人工智能发展的成就和特点。这一时期,人工智能研究者们的确在语言理解、场景分析、概念学习、机器人制造等方面取得了某种程度的成功,而这些工作的基础都是依据对某一任务领域的特定知识特性的利用,这导致这些程序虽具有专业性但缺乏推广性。面临专家系统的知识限制特点,人工智能最终不得不面对一个关键性的同时在哲学层面非常具有吸引力的问题——人工智能如何表示日常知识?

对日常知识进行形式化知识表示之所以成为人工智能向“智慧体”进发途中的一大困境,是因为一方面日常知识构成人工智能进行认知和行动的重要背景常识和上下文语境,它直接关乎人工智能对信息处理和输出的准确性与有效性;另一方面,人类对日常知识的获得高度依赖于人类在日常生活中的具体实践活动和相伴生的思维过程,日常知识是个人依靠自己的身体,借由同物质世界的相互作用,并在日复一日的训练和对训练的熟练化过程中领悟得来。需要注意的是,此“训练”远非今日如火如荼的生成式人工智能的“训练”,生成式人工智能的训练并不是基于其和物质世界的交互,而是基于被多次中介化的训练数据、语料。被誉为卷积神经网络之父的杨立昆(Yann LeCun)曾表明:深度学习的能力十分强大却又十分有限。只受过国际象棋训练的机器根本无法下围棋,反之亦然,而且它完全不理解自己所做的事情,它只不过是机械化地执行指令,它所掌握的常识甚至还不如一只野猫。

一壁是人类日常知识获取途径的不可机械性复制与重现,一壁是信息加工模型对人工智能知识认识论的影响,在二者共同作用下,人工智能对日常知识、背景知识、常识性知识的需要就转化为对人类一般性全部知识和信念进行明晰表现和有序组织的需要。而由于在人工智能两个派别并行发展的过程中,树搜索和专家系统先于神经网络和学习机器成为人工智能底层逻辑的代言人,因此在通向人工智能的常识化、一般化和通用化目标之时,早期人们借助的也是从专家系统中衍生而来的概念——微世界。

所谓微世界,是一个个可以孤立地进行分析的领域,20世纪的专家系统就诞生了大量的人工智能微世界,比如用于处理符号代数式的MATHLAB,可以激发积木运动的自然语言理解程序SHEDLU,以及上文提到的用于从质谱数据中推导化学结构的DENDRAL。“微世界”概念所包含的知识观念在于:虽然某种知识的各个方面都可以引申到人类活动的其他方面,但是这一知识及其无穷无尽的衍生物也可以成为一个由事实和关系组成的自足的集合。用人工智能科学家、SHEDLU的开发者特里·威诺格拉德(Terry Winograd)的描述来说:我们希望研究出一种形式化系统,或者说,形式化表示,用来描写知识,我们探索组成知识的“原子”“粒子”,以及用于各种知识的各种“力”。

棋盘世界、积木世界都属于典型的微世界,它包含着非常明确和特定的背景知识、行动对象和方法路径,机器的理解和行动是在一个有限度、有范围、有边界、有指向的语境中做出的。虽然今天人工智能的代表物和言说者已经由专家系统轮转为依赖神经网络和深度学习的认知机器,但是微世界的知识观念并未消失在技术的地表之下,人们依然可以从今天的人工智能知识表示中窥见一二。

以ChatGPT为例,虽然ChatGPT是一个通用式的生成式人工智能,其大语言模型之“大”、训练数据之“广”似乎与“微世界”相去甚远。但是仔细观察ChatGPT的人机交互界面会发现,ChatGPT采取的是“多对话界面”的形式,用户可以随时点击左侧任务栏的书写按钮来创建一个新的对话界面。ChatGPT的“多对话界面”“创建新对话框”的设计本质是在建立和隔离不同的孤立且自足的“微世界”。当用户打开一个新的对话界面发出第一个提问的同时,一个微世界的模型也正在搭建,而在用户和聊天机器人不停地就这一问题和该问题的衍生问题、相关问题进行循环往复的问答、补充和确认的时候,关于这个微世界的背景知识、话语规则、常识系统、思维指南也随之完善。因此,在借助ChatGPT进行知识获取的操作过程中经常会出现的现象是,当用户完成了上一轮的知识交互并打算对新的问题展开提问时,在既有的对话框里继续提问和创建一个新的对话框重启提问,两种操作方式所得到的结果并不相同,而后者往往能得到比前者更准确和有效的回答。

诚然,大规模知识表示需要通用本体论来组织和结合各种特定论域的知识。通用本体论需要包含全面化、多样化的各种知识,且原则上应当能够处理所有论域。但是构建大型通用本体论是一项尚未被完全了解的重大挑战。因此,由不同的微世界和特定有限的常识框架构建的知识集合依然是今天知识表示的一种有效的但也是简化的手段。换言之,将自己区别于专家系统的今日通用式人工智能依然无法依靠“训练”和“学习”完全突破人工智能的形式化知识表示的难题,人工智能的智识极限依然尚未突破。

三、人工智能的非形式化批判

对人工智能展开非形式化批判起源于图灵在《计算机机器和智能》中提到的人类行为的非形式化论据。图灵认为不可能制定一套规则来描述一个人在每一种可以想象的情况下应该做什么。他以交通行为为例:人们可能有一条规则,即看到红色交通灯就停车,看到绿色交通灯就走,但如果由于某种错误两者同时出现怎么办?人们也许会认为停止是最安全的。但此决定稍后可能会带来一些进一步的困难。试图以行为规则来涵盖所有可能发生的情况,包括交通信号灯引起的情况,似乎是不可能的。图灵紧接着区分了两个容易使问题变得含糊不清的概念——“行为规则”和“行为法则”。“行为规则”是指诸如“看到红灯就停下来”这样的规则,人们可以GS9Gm2NmAGkE3Q9d66KdkihJdKCW07vGy5E3XDLePH0=根据这些规则采取行动,也可以意识到这些规则。而“行为法则”是指应用于人类身体的自然法则,例如“如果你捏一个人,他就会发出声音”。

按照图灵对这两个概念的区分和阐释可以进一步总结,“规则”是一种机器属性,而“法则”更体现为人类属性,对人类行为的预测和模拟不能局限于对人类社会一系列规则的熟知,因为人类行为并不完全是在一套诸如交通信号灯之类的语境中诞生的,“交通信号灯”不起作用甚至是人类与世界交互时的常态。因此对人类行为,以及进一步地,对人类思想的理解,需要建立在对人类法则的完整获知基础之上,因此对“机器是否能够思考”或者说“机器是否能够拥有人类智识”等问题的探讨就更细致地导向了另一个问题——是否存在一套完整的关于人类的行为法则?这一点尚不能确定,但是唯一可以确定的是,即使存在一套可以称之为完整体的人类法则,那么唯一能从客观层面获得这一整套知识的手段就是科学观察,而图灵断言:“如果每个人都有一套明确的行为规则,那么他/她跟一台机器没什么两样。但没有这样的规则,所以人不能成为机器。”换言之,机器也不能通过“规则化的行为”这条路径来模拟人、成为人、替代人。

对人类行为的非形式化论证,旨在说明智能机器所做的不过是规则的集合,而人类行为太过复杂且无法通过任何简单的规则集合进行捕捉,所以,机器无法产生同人类一样的智能行为。这种从行为的非形式化人手论证机器不智能的思路被哲学家休伯特·德莱弗斯(Hubert Dreyfus)发扬光大。德莱弗斯是人工智能知识表示的形式化/非形式化论争的重要旗手,且德莱弗斯比图灵的非形式化观点更进了一步——图灵的非形式化主要针对的是人类行为的不可形式化,而德莱弗斯则将非形式化批判更广泛地指向人工智能所试图完成的知识形式化、语言形式化和行为形式化。

德莱弗斯将人工智能企图把一切知识形式化的意图溯源到古希腊的哲学偏向,古希腊的逻辑和几何将一切推理归结为计算,同时也将一些行为化约为程序。似乎借由这种形式化的努力,几乎所有论证都可以得到一劳永逸的解决。苏格拉底是指明这一形式化路径极具可能性的开创者——苏格拉底说道:“我想知道使所有行为变得温良的虔诚之心有什么特点……这样我便可以当作判断你的行为和其他人行为的标准来使用。”苏格拉底这里想获得的也即人工智能工程师们致力研发的“程序”,或用人工智能的重要先驱马文·明斯基(MarvinMinsky)的话说,它是可以不断地告诉人们如何行动的“规则”。在这一逻辑主义哲学倾向上,德莱弗斯戏称:人工智能可能早在公元前450年就已经开始。德莱弗斯以古希腊为起点,列举了人工智能的形式化知识观的思想来源。比如,霍布斯被视为第一个清晰地把思维句法概念表达为计算的人——“推理不过是在计算”.二元制的发明者莱布尼兹也自认为找到了一种通用的符号系统,它具有“可以用来把确定的特征数赋予每种事物的通用特点”。

将全部知识形式化的信念构成了西方传统哲学的底色,西方传统哲学认为凡是有序的事物都可以经由形式化成为一套“规则”或“程序”。人工智能中的逻辑主义流派就在这样的哲学基础上建立起来。然而,这种以“理性主义”为基点,认为存在一种合理化的“思维法则”并依循它而构建的人工智能路径存在两个主要的障碍。首先,一个问题原则上的可解性并不意味着这个问题事实上的可解性。将解决问题的知识程序化和问题求解过程结构化与实际解决该问题之间存在巨大的缝隙。求解有限事实的问题就可耗散智能机器的庞大计算资源,更不要说人类的智识成果是一个没有边际的、无法穷尽事实的知识旷野,虽然人工智能理论家和实践家更多地使用“知识库”一词来指称人工智能的训练材料,但这一称谓的迷惑性在于它设定了一个边界将可以被形式化、可以被框架化的知识纳入一个有限性的“库”中(即使知识库总是在不断更新,但它始终包含疆界和范围),而闭口不言那些无法被框定、难以被分类的非形式化知识其踪何处。其次,人类知识并非都是形式化的(比如依靠转瞬间的灵感创作的诗歌和依靠数十年的经验直觉制作的佳肴),而获取非形式的知识并用逻辑表示法要求的形式术语来对其展开陈述几乎是不可能的,更何况这些非形式化知识的生产者也只停留在“知其所以然”而不“知其然”的难以言喻的“非理性”状况之下。总结来说,将人类的智慧理念化和将人类的知识程式化既面临着形式化知识的障碍,也面临着非形式化知识的障碍。

虽然这两个障碍最先出现在逻辑主义流派中,但是建造计算推理系统的任何人工智能都需要直面这一机器智识极限。今天的生成式人工智能浪潮并不是以合理性为尺度追求思维法则的最高价值,而是以人脑为尺度寻求认知建模的路径轨迹。当基于逻辑主义的传统人工智能触及其发展极限之时,机器学习的拥护者们便找到了创造知识的更高阶的方法——创造人脑。对人工智能的神经学派而言,与其重现人类推理的完整逻辑序列,不如探索逻辑的载体,也就是大脑这个强大的生物处理器。这种机器学习的方式类似于一种原创体系架构,它类似人类的神经网络,当网络接收了输入信号,神经元以原创体系架构对信号进行处理以使输出端能够识别该信号,如是,通过大脑的基本功能单位——神经元之间的相互作用,思想得以产生。

然而,如果将“思想的产生“和“知识的创造”进行顺滑的联结,则会陷入形而上学的哲学陷阱之中。柏拉图将思维、智力、理性、心灵与技能、感情、身体、欲望相区分,这种身心二元论将知识与思维紧密联结在一起,将知识视为思维的结果和思维的独有创造。因此,当人工智能以为通过复制人类的思维过程就能重现知识的创造时,就会出现绕过躯体追求理性所必然遭遇的失落结果。因为基于思维推理的理性主义并不能解决人碰到热锅就立刻退缩的问题,基于感知觉的反射行为往往比审慎推理仔细思考后的结果更加迅速有效。知识并不仅仅产生于思维过程,它更产生于身体的需要、欲望、情绪和感知,更重要的是,它产生于身体和物质世界相互作用的实在过程之中。

人工智能的智识局限也是理性主义的哲学局限。人工智能试图通过对头脑的模拟解决“知识的载体”问题,寄希望于通过制定周密的逻辑规则来解决“知识的生产”问题,后又将目光锁定在一个包含所有“宇宙之书”的庞大知识库,试图通过该知识库来解决“知识的来源”问题。人工智能的以上诉求和路径本质上是在将大脑形式化、思维形式化和知识形式化。然而,这种形式化终究是与知识的生产背道而驰的,因为人类的知识起源于“无知”以及由这种“无知”带来的不安、好奇与探索的欲望。换言之,知识来源于“不确定”,而人工智能所搭建的知识工程也好,认知模拟也罢,都在无限追求一种“确定性”,智能机器有着明确的目标、详细的指令、完备的数据、周密的规则,但最终所得到的也只能是对知识的逆退性理解和自反性重复。今天以ChatGPT为代表的聊天机器人更是在实践一种“知识的悖论”——你想获知某知识的前提,是你已经基本掌握了这项知识。生成式人工智能对提示词(prompt)精准度的要求极高。与使用搜索引擎的体验不同,用户无法再通过输入模糊的检索词然后在所有可能的答案中进行筛选,相反,用户只有在输入精准、完备的提示词之后才能得到想要的答案。至此,借由对人工智能形式化/非形式化论争的讨论,今日隐藏在生成式人工智能的知识大众化、知识民主化、知识通用化之下的知识表示限度也得以揭开。

四、“标签”“学习”“局势”——生成式人工智能知识表示的本体、隐喻和限度

自生成式人工智能投入应用以来,围绕生成式人工智能和知识生产、知识获取、知识使用等一系列与知识相关问题的讨论层出不穷。今天的生成式人工智能究竟是一个知识新神的诞生,还是披着通用式外衣的另一种“知识工程”?今天的生成式人工智能在知识表示上采取了哪些新的手段,它或沿用或产生了关于知识表示的哪些关键词?这些手段是否回应了曾经由人工智能理论家们发出的对形式化的批判?这些关键词是切实有效的创新还是另一种技术话语的障眼法?在生成式人工智能知识表示的法则和观念确立的过程中,需要对其与它试图区别并超越的对象展开反复的对比性研究。生成式人工智能和曾经的知识存储载体、知识行为代理之间是否依然共享某一种承继性的知识观?在承继与变动之下生成式人工智能的知识表示在未来又需解决怎样的问题?这些是本节试图从本体、隐喻和限度三个层面回答的问题。

(一)“标签”作为一种本体论:知识表示的分类哲学

正如前文所述,知识表示虽然今天已经成为人工智能领域的核心工程和关键领域,但是关于知识表示的理想和实践却古已有之。自书写文化替代口语文化以来,相较于人类对知识的处理能力,人类对知识的存储能力毫无疑问是过载的,表现这种过载关系的经典具象就是图书馆和互联网。面对浩如烟海的世界之书,如何缓解有限的记忆面对无限的知识时的焦虑感与不安感?如何满足人类主体对知识客体的掌控和征服的欲望?在这一倾斜的杠杆两端,辅助平衡的砝码之于图书馆,是检索系统;之于互联网,是搜索引擎;之于人工智能,是知识表示。而图书馆的检索系统和互联网的搜索引擎其实也是一种知识表示的愿望和实践。

在丧失了口头文化时代面对知识的“结构性遗忘”的权力之后,面对无限增长的书写痕迹和相应的知识累计,图书馆和互联网都面临知识表示的问题,这些存储载体需要借助一个工具,使图书馆和互联网以及它们的使用者完成信息的输入、存储、输出。这一点和人工智能试图借助知识表示方法所想要达成的目标别无二致。而对于知识表示而言,“分类”是其中的重要环节,把知识对象组织成“类别”是知识表示的不可或缺的步骤。虽然具体的知识往往产生于世界和个别对象的互动过程中,但是人工智能的推理和预测是在“类别”这一层次上发生的。而知识载体也通常是在“类别”这一层次上完成对知识的存储和获取。比如,19世纪70年代图书馆管理学发展出知识领域的第一个分类系统——杜威十进制系统;谷歌等搜索引擎也通过给网页附上分类标签来实现对信息的检索。

图书分类系统、搜索引擎的标签和人工智能的类别化知识表示都在昭示着一个事实——“分类”已经成为今日知识的本体论。书籍因被编码而被找到,网页因被附上标签而被搜索到,通用常识性知识因被分类而得以被推理出来。知识的“存在”以及这种存在的“被感知”完全取决于知识是否被分类。如果说书写文化创造的本体论是“被记录下来的知识只是易于记录的知识”,那么在知识库时代,知识的本体论是“被查找到的知识只是易于被分类的知识”。我们可以据此推断,生成式人工智能虽声称其“知识库”无所不包——f63qsnvzVrIWuwRcQLz9qGomyuA9AE97I5Q/VEZl6D4=几乎包含互联网上的全部信息内容,但是训练模型依赖的是“有标记”的数据,⑩“标记知识”的背后是对“未标记知识”的舍弃和掩埋,在分类与标签的本体论笼罩下,生成式人工智能实际是一种以“剔除知识”而非“保存知识”为实质的知识工程。

(二)“学习”作为一种隐喻法:知识表示的谎言效果

今日的生成式人工智能以机器的自主学习为方法论。“机器学习”偏向于表达这样一种隐喻:机器可以在预编程好的、常规的、自动化的任务中得到改进和完善,它隐含着机器的“自主权”。毕竟“学习”一词更多地是与有感知能力的、有智慧的生命体相挂钩,“知识”也多紧跟在“学习”后面充当对象。于是“机器学习”从能指系统上造成一种混淆——机器能产生知识。

如果我们查找机器学习的官方定义,会发现今天人工智能所谓的深度学习与知识并不挂钩。Python机器学习库Scikit-Iearn对机器学习的定义为:“机器学习是学习一个数据集的一些属性,并将它们应用到新数据上。因此,在机器学习中,评估一个算法的常见做法是将数据分成两组,一组为训练集,用以学习数据属性;另一组为测试集,用以监测数据属性。”计算机学家汤姆,米歇尔(Tom Mitchell)也给机器学习下了一个定义:“对于某类指定任务T、性能指标P和经验E,如果一台机器在T上以P衡量的性能随着经验E而不断自我完善,那么我们称这台机器在向经验E学习。根据我们对T、P、E的具体设定,学习任务也可以这样命名:数据挖掘、自主发现、数据库更新、示例编程等。”可见,人工智能语境下的“学习”并不意味着机器拥有了智识,而是指机器根据预先定义的衡量指标,在执行某个特定任务时更加准确。这种学习的结果更导向一种“任务的完成”而非“知识的习得”。

“任务是否完成”曾是知识工程的首要指标。曾经,适用于狭窄有限领域的专家系统秉持这样一种评价标准:无论人们是否采纳这一方法,只要达到目的,该程序就被证明为有效程序。这一评价标准背后的潜台词是:通往目的的路径不是重要的,目的的达成才是重要的;达成目的的过程中是否真的获得了知识和技能不是重要的,一个符合评判标准的结果才是重要的。这是机器学习时代的“智能应试主义”和“智能优绩主义”。

然而,当人工智能理论家们逐渐放弃这一评价标准后,通用式人工智能又将其承袭下来,其具体体现为今日的生成式人工智能只要通过概率计算出一个最为通顺的语句并能够通顺地回答出用户的问题,或者画出一幅看似符合主题的图画,就被认为是完成了任务。大语言模型究其根本是一种概率模型,它用来计算一个句子出现的概率,比如,“我喜欢知识”和“我知识喜欢”,前者计算的概率值较大,因此更容易被判定为一个“正确的”文本生成。因此,在“学习知识”的隐喻谎言效果之下,概率才是生成式人工智能生产知识的机理,组成智能文本的、被编译为语义处理单元的词元(token)才是生成式人工智能所生产的知识的基本单位。

(三)“局势”作为一种限度:知识表示的终极目标

人工智能对知识进行形式化表示的执念来源于从古希腊开启的一条西方传统哲学脉络,这条以逻辑和推理为轴心的思想体系发现了世界的有序性并将其形式化为规则。人工智能先驱之一明斯基就曾立论说:“每当其在我们的行动中观察到一种定律时,便转交给确定性规则来表达。”然而,将知识形式化、将事实定律化、将行为规则化的做法往往在“微世界”的语境下才有成功的可能,因为微世界是一个闭合的世界,它拥有确定的对象、明确的标准和可控的变量。然而,还存在大量“知识”,其解决的问题是一些结构性开放问题,在这类问题中,“规则”不再起作用,“局势”(situation)成为更大的求解语境和限制性他律。

局势与规则不同。我们继续以图灵的交通信号灯为例,规则是在信号灯正常运转之下所产生的行为指令,而局势是在信号灯失效或者根本不存在信号灯的情况下对认知和行为的指引。简单来说,局势要求对当下情形的全面理解,有时还需要对过往经验和未来预期的纵向考量。以下棋为例,人类棋手并不能做到如同人工智能一样穷尽所有可能,但人类棋手依然能和人工智能在棋局上展开较量的原因在于,对人类棋手而言,对局势的理解要先于对局面的理解。局面指向当前的棋子位置和其背后的特征信息,而局势指向比赛的整体状况和长远判断。

局势来自经验和认知,而知识表示并不足以表达经验和认知。只有当上下文环境和其所包含的所有可能性事实可以用人工智能的语义网络和模型识别到、捕捉到的时候,这种局势才有被表达的可能。而当上下文环境是通过人的技艺、直觉、经验、情绪、情感来确立的时候,那么对一切知识表示的符号系统来说,其理解能力根本不能解释任何关于该局势的认知。正因如此,即使崇尚“确定性规则”的明斯基也承认大模型在逻辑定律上效果欠佳:“一个人思考问题过程中的每一时刻,都要接触大量的陈述、定义、联想以及一个目的网络。他不仅要处理有关事物的事实及事物之间关系的事实等,还要处理有关事实的事实及事实之间关系的事实,以及关于这些类之间关系的事实等。我们将会看到,启发程序在运用到小模型上时能顺利地证明一些原则,一旦用到大模型上就不好使了。”

对局势的把握和编码,不管是在人工智能发展的历史中还是在其流行的当下,都成为机器智能表示知识、获得智力的途中无法绕越的门槛,也因此成为人工智能的智慧限度。人类社会中的大量知识因其简单性、通俗性和难以言喻等特点而注定是隐晦的,但同时也代表着社会共识意义上的默契,这部分知识恰恰是人工智能无法进行符号化理解、结构化储存和逻辑性表达的“自然事实”。于是,人工智能的知识局限就荒诞地体现为:它可以帮助人类草拟文书、撰写编码,但它却无法解决人类如何使用双手、如何避免伤害等基本的自我生存法和自我维持问题。那么,当一个智慧体知道如何博弈和解答却不知如何存在和生活时,它在什么意义上是拥有知识的呢?

五、结语:人有人的用途

知识表示可以让人工智能机器从现有信息、经验或专家中学习,从而使机器的行为与人类无异。人工智能研究者争辩说(就像人工智能创始人约翰·麦卡锡那样),符号处理机有可能表示所有知识,而不管人类是否以同样的方式表示知识。德雷福斯认为,这种假设是没有道理的,因为人类的许多知识都不是符号性的。爱因斯坦说过:

“纯粹的逻辑思维无法让我们获得任何关于经验世界的知识;所有关于现实的知识都始于经验,止于经验。’

这涉及认识论方面的哲学问题。威诺格拉德曾有言:“发展人工智能的收获首先不在于我们创造的程序,而在于我们研究出的这套概念,在于我们把它们用于理解人类智能的方式。”如果将人类比作智能体的话,其知识系统是由形式化的准则、规范、公理和非形式化的技艺、灵感、直觉组成的复合系统,那些无法结构化的情绪、难以复制的感知觉神经活动、基于长远考量的目的及其解释都与人类所创造的知识紧密地联系在一起,日常生活的实践和分秒之间的灵光乍现永远无法用一套可抽象化的、精确明晰的信念网来代替。正如存在主义哲学家们所坚信的:那些关乎人类日常实践和兴趣的知识无须表达。因此,今日人工智能时代的知识哲学就不仅是机器无法用知识表示形式化所有知识的“不能”,更是机器无须用知识表示形式化所有知识的“不必”。

毕加索对计算机的看法是讨论人工智能局限性的一个很好的开端:“它们毫无用处。它们只能给你答案。”事实上,计算机和人工智能远非一无是处,正如机器学习最近取得的成功所显示的那样,但毕加索的观点仍然具有深刻的洞察力。人工智能是回答问题的工具,而不是提出问题的工具。这就意味着,企业家、创新者、科学家、创造者以及其他能够找出下一个要解决的问题或敢于探索新领域的人,将继续发挥至关重要的作用。