APP下载

人工智能的适应性知识表征与推理

2019-01-22魏屹东

关键词:缺省知识库范畴

魏屹东

关于表征,一般来说,是指信息在人脑中储存和呈现的方式,这就是通常所说的心理表征。心理表征的外化往往是通过符号,如自然语言、形式语言、图形等方式呈现的。以命题形式(陈述句)呈现的知识通常被称为陈述性知识。相比而言,以纯符号如逻辑和数学方程呈现的知识被称为程序性知识。在人工智能中,表征知识的方式通常是抽象的、形式化的或逻辑式的,一阶逻辑是最常用的表征工具。然而问题是,人工智能主体是如何通过逻辑推理表征这个真实世界的最重要方面,如行动、空间、时间、思想以及购物的呢?也就是通过何种途径表征和推理关于这个世界的事实,表征与推理是否是适应性的?这就是人工智能的适应性知识表征与推理问题。关于这个主题,21世纪以来国际上曾经召开过两次会议(2005年,[注]International and interdisciplinary conference on adaptive knowledge representation and reasoning, http://research.ics.aalto.fi/events/AKRR05/index.html。关于适应性知识表征与推理(AKRR)的国际和跨学科会议于2005年6月首次在芬兰的埃斯波召开,会议提出知识表征和推理是人工智能的传统领域,在现代社会中它们不仅是各种信息系统和网络中的底层结构单元,也是认知科学和认识论的核心主题。由于传统模式是基于谓词逻辑、语义网络和其他符号表征的,因此该会议涉及的相关问题包括我们如何知道我们所知道的,我们如何能够使用有效推理,我们如何在知识表征与推理的模型和应用中使用计算机。该会议的目的是探讨统计潜在变量模型、向量空间表征、统计机器学习、人工神经网络和动态系统等替代表征和算法。这些挑战对于生命科学也非常有意义,因为在生命科学中,疾病机制的复杂性和新药的开发过程需要新的方法。此次会议探讨了认知和社会系统中知识的产生、复杂性和自组织问题:知识是如何在人类和计算机中介网络中创造和建立的,以及语言作为知识建构的适应媒介的作用。2008年[注]International and interdisciplinary conference on adaptive knowledge representation and reasoning, http://research.ics.aalto.fi/events/AKRR08/。第二届适应性知识表征与推理(AKRR)国际和跨学科会议于2008年9月在芬兰的波尔沃召开,它虽然在主题上延续了2005年的,但其目的是将研究经验科学中复杂现象的科学家和开发处理复杂性的计算方法的科学家聚集在一起。经验科学方面包括认知科学、社会学、教育心理学、经济学、医学等方面的研究人员,方法科学方面涉及发展统计机器学习、动力系统理论和适应系统的研究人员。会议还旨在与那些遇到复杂现象的从业人员密切联系,因为他们正在寻找应对管理和战略决策方面的挑战的新方法。关于这个主题的第三次会议至今还没有召开,原因不详。),有力地推动了该问题的研究,本文试图从认知哲学视角探讨知识表征与推理在人工智能中的适应性问题。

一、表征抽象概念的本体论框架

我们知道,做任何复杂的事情,如网上购物,在拥堵的路上开车,都需要更普遍和灵活的表征。对于人来说,这并不是什么难事,但对于人工主体(相对于人类主体)这类智能体而言就不那么简单了。即使是人工主体,它对复杂活动的表征也会涉及一些普遍概念,如事件、时间、物理客体和信念等,这些概念会出现在许多不同的领域中。在人工智能中,对这些抽象概念的表征有时被称为本体论工程(ontological engineering),概念的通用框架被称为上层本体论(upper ontology),也就是一个概念关系的整体框架。例如,自然世界的上层本体论框架用树结构可表征为(图1):[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,清华大学出版社2011年版,p.438。

图1 自然世界的上层本体论框架

这种一般或通用本体论有什么作用呢?在笔者看来,它不仅提供了一个总概念框架,也提供了范畴、客体、事件、测量、时间等之间的内在关系。这种通用本体论一般有两个特征:其一,它或多或少可应用于任何专用域,这意味着,在这个通用本体论覆盖网下,没有什么表征问题不能够被巧妙地处理;其二,在任何完全充分的高要求域,知识的不同领域必须是统一的,因为推理和问题解决能够同时包括几个领域,例如,一个机器人的电路维修系统,不仅需要根据电路的连接和物理分布推出电路故障的原因,还要推出时间,包括电路定时分析和评估劳动成本。因此,描述时间的语句必须能够结合那些描述空间分布的语句,必须能够在纳秒和分、埃和米长度之间同样有效地运作。

当然,能够应用于所有领域的通用本体论是不存在的,也不存在一个所有人工主体都能够使用的共同本体论,因为社会、文化、政治等因素使得通用本体论变得异常困难,正如一个特定文化圈的人很难同时接纳不同异域文化传统和习俗一样(如儒家文化圈的人不易接受或适应其他文化传统和习俗)。人工智能一般使用专用或特定知识工程,它创造专用本体论通常有四个路径:(1)训练有素的本体论者或逻辑学家创造本体论并写出公理,如CYC系统;[注]CYC源于encyclopedia(百科全书)。Cycorp是由Douglas Lenat成立并领导的、致力于实现人工智能的公司。CycL是Cyc的基于一阶逻辑的专有知识表征语言。1986年Lenat就预测过,若想要完成CYC这样庞大的常识知识系统,至少会涉及25万条规则,并将要花费350个人1年才能完成。CYC知识库中一般采取三段论推理形式的知识,推出正确结论。该知识库中大约有320万条人类定义的语句,涉及30万个概念,15000个谓词。这些资源都采CycL语言和谓词代数描述,语法上与Lisp程序设计语言类似。(2)从一个或几个现存的数据库,输入范畴、属性和赋值,如从维基百科网络输入结构化事实建立的DBpedia系统;[注]DBpedia是一个特殊的语义网应用系统,能够从维基百科词条里提取结构化的资料,以强化维基百科的搜寻功能。它是世界上最大的多领域知识本体论之一,是Linked Data的一部分。(3)从数据库剖析文本文件,提取信息,如通过大量阅读网页建立的TEXTRUNNER系统;(4)鼓励无技能的业余爱好者进入常识知识领域,如用英语提出事实的志愿者建立的OPENMIND系统。

总之,在通用本体论结构中,范畴、客体(包括心理的)、事件(包括心理的)及其推理系统,在其中起到十分重要的适应性表征作用。

二、客体范畴化与事件运算的适应性表征与推理

范畴化是指将概念化的客体归入某个类,如将虎、狮、豹归入猫科。在人工智能中,将客体组合到范畴是知识表征的一个重要部分。一方面,尽管我们与世界的相互作用发生在个体客体的层次,但是大量推理发生在范畴层次,比如,我想买水果,但不是某类具体的苹果,苹果属于水果范畴。另一方面,一旦客体被分类的话,范畴也提供对客体做出的预测。你可以从可感知的输入推出某客体的在场,从所感知的客体的属性推出范畴身份,然后使用范畴信息做出关于客体的预测。例如,从一个客体有绿、黄色相间的皮,20厘米大小的直径,鸡蛋的形状,红瓤儿、黑子,摆放在水果摊上,你能够推知那个客体是一个西瓜,可食用,还能够推知它可用于做沙拉。

若用一阶逻辑来表征范畴,我们有两个选择:谓词和客体。具体说,我们可以使用谓词fruit(f),或者将这个范畴具体化为一个客体,fruit(水果)。于是,我们能够得出成员member(f, fruit),可缩写为f∈fruit,即,f是fruit范畴的一个成员;亚集subset(apple, fruit),可缩写为apple∈fruit,即,苹果是水果的一个亚范畴。范畴也可以通过为其成员提供充要条件来定义,比如“a bachelor is an unmarried adult male”(单身汉是没有结婚的成年男人),用一阶逻辑表达就是:

x∈bachelor≡unmarried(x)∧x∈adult∧x∈male

当然,一个范畴能够通过继承组织结构来简化知识库。例如,“食物”这个范畴的所有实例是可食用的。如果说“水果”是食物的一个亚类,“苹果”是水果的一个亚类,那么我们可以推出,每个苹果都是可食用的,个体苹果继承了可食用性的属性,因此“苹果”可归入“食物”的范畴。

概言之,一个客体,无论是自然类还是人造物,其有些属性是内在的,即属于那个客体本身的材料(质料),而不是那个客体作为整体的属性(事物)。这意味着一个客体有两个方面:事物“things”与质料(stuffs),如苹果和苹果的组成成分。如果将一个质料一分为二,两个部分仍然是同一种质料,即保持内在属性,如密度、沸点、色彩、味道等,而它们的外在属性,如重量、长度、形状等,已发生改变。诸客体的一个范畴,包括在其定义内的内在属性,是一个物质或质量名词;一个类,在其定义内包括任何外在属性,是一个可数名词。“质料”这个范畴是最普遍的物质范畴,具体说明不存在任何内在属性。“事物”这个范畴是最普遍的离散客体范畴,详细说明不存在任何外在属性。因此,在人工智能中,客体的范畴化是其内在属性与外在属性的统一,其表征是基于情境的形式主义描述。

对客体的范畴化过程实质上就是认知事件的过程,由于事件是行动过程,事件也可以通过运算来表征行动及其结果,这就是事件运算(event calculus)。事件运算是指一种基于一维动态性的时间而非情境的形式主义,其目标是具体化流动和事件。例如流动(张三,上海)是一个客体,它指张三在上海的事实,但它本身没有说明这件事是否是真实的。要断定一个流动在某时某地是否的确是真实的,我们可以使用谓词T,如T(at(张三,上海),t)。事件(系列行动)被描述为事件范畴的实例。张三从北京飞往上海这个事件E1,被描述为:

E1∈飞行∧飞行(E1,张三)∧起点(E1,北京)∧终点(E1,上海)

这个表征也可简化为:E1∈飞行(张三,北京,上海)

如果用发生Happens(E1,i)表示事件E1在时间间隔i发生,用函数形式表示就是程度Extent(E1)=i,用时间对(start, end)(开始,结束)表征时间间隔,即i=(t1,t2),其中t1是开始,t2是结束,那么事件E1的运算的完全谓词集的一个版本是:[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,p.446.

(真实)T(f,t) 流动f在时间t是真实的

(发生)Happens(e,i) 事件e发生在时间间隔i

(开始)Initiates(e,f,t) 事件e引起流动f在时间t开始

(结束)Terminates(e,f,t) 事件e引起流动f在时间t结束

(修整)Clipped(f,i) 流动f在时间间隔i在某点不是真实的

(恢复)Restored(f,i) 流动f在时间间隔i有时成为真实的

需要注意的是,这里假定了一个重要事件Start,它描述了初始状态通过说明哪个流动在开始时间被启动或者停止。如果一个流动在过去某时刻由一个事件启动,并由一个介入事件使其不为假,则可以通过说明该流动及时在一个点的持续来定义T。如果一个流动由一个事件终止且由另一个事件使其为假,则它不再持续下去。在一个物理客体是一个时空块的意义上,物理客体可以被看作普遍的事件。比如“美国总统”这个术语,若指代一个实际客体,它在不同时段指代一个不同的客体(人物),也即,它是一个流动的客体。美国第一任总统华盛顿任期是1789—1797年,说他1790年任总统可以写为:T(Equals(President(USA),George Washington), AD1790)

之所以使用函数符号Equals(等价)而不是标准逻辑谓词=,是因为我们不能有一个谓词作为T的一个论证,也因为这个诠释不是GeorgeWashington和President(USA)逻辑地同一于1790,逻辑同一不是一直变化的某种东西。同一性是由1790时间定义的每个客体之间的亚事件的关系。

三、命题态度与范畴推理的适应性表征与推理

尽管人工智能目前建构的人工主体(智能体)拥有信念并能够推出新信念,但还没有人工主体拥有任何关于信念的知识,或关于演绎的知识,以及关于其他主体的知识。这意味着关于主体自己知识的知识及推理过程,以及关于其他主体知识的知识,对于控制推理是非常有用的。因此,我们需要一个居于人心中的心理客体的模型,需要一个操作那些心理客体的心理过程的模型。这种心理模型不必是详细的,因为我们不必有能力预测一个具体主体做演绎所需的精确时间。这关涉命题态度问题,命题态度能够表征关于心理事件与心理客体的知识。

所谓命题态度就是对一个陈述的立场,通常由知道、相信、想要、意图等表达,比如“我们知道那是一朵花”。命题态度表明,一个主体能够指向一个心理客体,如心中的一朵花。命题态度表征的困难在于,它们不表现为“常态”谓词。例如,我们试图断言“张三知道超人会飞”,可表达为:知道(张三,会飞(超人))。问题是,我们一般将会飞(超人)看作一个语句(超人会飞),但在这里似乎是一个术语。这个问题能够通过具体化会飞(超人)而得到修正,让它变得流畅。然而,一个更重要的问题是,若“超人是孙悟空”这个陈述是真的(事实上为假),那么张三知道孙悟空会飞,这个表达可表述为:

(超人=孙悟空)∧知道(张三,会飞(超人))

╞知道(张三,会飞(孙悟空))

这是等价推理介入逻辑这个事实的一个推论。如果人工主体知道2+2=4,和4﹤5,那么我们自然要求人工主体知道2+2﹤5。这种属性被称为指示透明性(referential transparency)。这种属性表明,一种逻辑使用什么术语指示一个客体并不重要,重要的是这个术语所命名的客体本身。然而,对于像“相信”和“知道”这些命题态度来说,我们愿意拥有指示不透明性,这些术语的确重要,因为不是所有的主体都知道哪种术语是联合指示的(合取的或析取的)。

这个问题可以使用模态逻辑来阐明。我们知道,普通逻辑关注单一形式,即真理的形式,允许我们表达“P是真的”。模态逻辑包括特殊的模态算子,它们将语句而不是术语作为论据。例如,“A知道P”被表征为KAP,其中K是表示知识的模态算子,A表示主体,P表示命题。这个原子表达式有两个论据,一个主体和一个语句。除语句也能够用模态算子形成外,模态逻辑的句法与一阶逻辑完全相同。在一阶逻辑中,一个模型包含一组客体和一个解释项,这个解释项将每个名称与适当的客体、关系或函数相匹配。在模态逻辑中,我们要能够考虑各种可能性,这就需要一个更复杂的模型——它是由可能世界的组合构成的,而不是仅仅由真实世界构成的。可能世界之间可通过可达性关系连接起来,这种可达关系是每个模态算子所必须的,它们联合构成一幅曲线图。比如,通过模态算子KA我们可以从世界w0通达w1,如果w1中的每个事物与A在世界w0中所知道的相一致的话,可以写为:Acc(KA,w0,w1),其中Acc表示可以通达。也就是说,一个知识原子KAP在世界w中是真实的,当且仅当P在每个世界中可以通达w。更复杂语句的真,都源于这个规则和一阶逻辑规则的递归应用。这意味着,模态逻辑能够被用来推理网状知识的语句,即一个主体能够知道关于另一个主体的知识。

范畴的推理系统就是通过语义网和描述逻辑来表征的。根据前述的本体论框架,范畴是大规模知识表征计划的基本建筑模块。运用范畴进行组织和推理涉及两个相关的系统,一个是语义网,另一个是描述逻辑。前者为形成可见知识库提供图形支持,为指明一个客体的属性在其范畴基础上提供有效算法;后者为建构和结合范畴定义提供形式语言,为决定范畴之间的子集和父集关系提供有效算法。

语义网有许多形式,它们都能够表征个体客体、客体的范畴以及客体之间的关系。人工智能中一种典型的图标记法是在椭圆形或方框中显示客体或范畴的名称,然后用箭头线连接起来形成语义网,例如哺乳动物与人类之间的语义网(图2)。

图2 哺乳动物与人类之间的语义网

这个语义网有四个客体(约翰,玛丽,1,2),四个范畴(哺乳动物,人类,男人,女人)。它们之间的关系由箭头线连接:玛丽和女人、约翰与男人之间是一种Memberof(隶属)关系,相应的逻辑表述是:玛丽∈女人;同样,玛丽和约翰之间的兄妹关系相应的逻辑表述是:Sisterof(玛丽,约翰)。四个范畴之间的关系可以使用Subsetof(亚集)连接,比如任何人都有母亲,可以使用HasMother(有母亲)连接人类与男人和女人。这样,我们可以使用这种标记的语义网表征推理系统。当然也可以用一阶逻辑与这种标记法的混合来表征,例如前述系统:

∀x x∈人类 →[∀yHasMother(x,y)→y∈女人]

这种标记法对于执行继承推理是非常方便的。例如玛丽和约翰是人类,所以有两条腿,即∀x x∈人类→腿(x,2)。与逻辑原理证明相比,这种推理机制的简单性和有效性一直是人工智能语义网的主要魅力之一。

如果说一阶逻辑语法使描述客体变得容易,那么描述逻辑使描述定义和范畴的属性更容易。描述逻辑的主要推理任务是包含(subsumption)和分类(classification)。包含就是通过比较它们的定义检验一个范畴是否是另一个范畴的子集;分类就是检验一个客体是否属于一个范畴。经典逻辑是一个典型的描述逻辑。比如“单身汉是没有结婚的成年男性”可以写作:单身汉=And(未婚,成年,男性),用一阶逻辑表示就是:单身汉(x)≡未婚(x)∧成年(x)∧男性(x)。原则上,任何经典逻辑的描述都可以转换成一个等价的一阶逻辑句,但有些描述使用经典逻辑描述更直截了当。需注意的是,描述逻辑有一个关于谓词的操作代数,这是用一阶逻辑不能够描述的。

描述逻辑的最重要特征或许是它强调推理的易处理性。如果一个问题能够通过描述而得到解决,那么就看它是否被归入几个可能的解决范畴之中。在标准一阶逻辑系统中,一方面,预测解决时间通常是不可能的事情,这个问题往往留给使用者设计表征来绕过一组语句,这组语句似乎引起这个系统花费几周时间来解决问题。另一方面,描述逻辑中的推力就是保证包含—检验(subsumption-testing)能够在描述的范围中以时间多项式形式得到解决。

四、缺省信息的适应性表征与推理

在语义网的继承推理系统中,存在缺省状态,比如人有两条腿,这个论断可以通过更具体的信息如某人有一条腿被推翻。这类似于波普的证伪主义,所有乌鸦都是黑的,但发现有一只非黑的乌鸦就证伪了这个命题。缺省信息推理可以充实完善语义网表征。这似乎表明,人往往会草率地得出结论。比如我们看到一辆小车停在路旁,往往就自然地相信它有四个轮子,即使我们只看到三个或者两个。尽管概率理论能够提供一个结论说,第四个轮子的存在有极高的概率,然而,对于大多数人而言,那辆小车有四个轮子的可能性并没有提高,除非有新的证据出现。

在科学中,这种情形较为普遍,比如人们往往认为重的物体比轻的物体下落速度快,因为人们实际看到的情形也是如此。这样一来,情形似乎是,在缺乏任何理由怀疑这个论断前,人们通过缺省断定小车有四个轮子。如果获得新的证据,比如看到司机搬一个轮子,注意到小车被千斤顶顶起,此时这个结论才能被取消。这种推理被认为是展示了非单调性,因为当新证据出现时信念集合没有随着时间单调地增长。为了捕获这种行为,非单调逻辑已经通过修正的真理和推演概念被发明出来,这就是约束(circumscription)与缺省逻辑(default logic),它们的表征是适应性的。

我们首先考察约束表征。约束可以被看作是封闭世界假设的一个更有力和更精确的版本。这种观点是详细说明被假设的客体是尽可能假的特殊谓词,即,对于每个客体,假(false)是除那些被知晓为真以外的东西。例如,假设我们要断言鸟会飞这个缺省规则,可以引入一个谓词(反常)Abnormal1(x),写作:鸟(x)∧Abnormal1(x)→飞(x)。如果Abnormal1(x)要被限制的话,一个约束推理者有条件假设Abnormal1(x),除非Abnormal1(x)被知道是真的,如鸵鸟不会飞。这意味着,结论飞(鸣叫)是从前提鸟(鸣叫)得出的,但是这个结论不再坚持Abnormal1(鸣叫)是否可以被断定。

约束也被看作是模型优先逻辑的一个例子。在这种逻辑中,一个语句,若在所有知识库的优先模型中是真的,就可以用缺省状态推演出来,这与经典逻辑中所有模型中的真的必要条件相反。对于约束来说,一个模型优先于另一个,如果它有更少的反常客体的话。而对一个封闭世界假设,一个模型优先于另一个,如果它有更少的真实原子,即,优先模型是最小的模型。在语义网的多继承语境中,模型优先逻辑是如何起作用的?这里用一个被称为“尼克松钻石”的标准例子来说明。[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,p.459.美国前总统尼克松,既是一个教友会信徒,也是一个共和党党员,因此,根据缺省概念,他既是一个和平主义者,也是一个非和平主义者,这似乎是矛盾的。我们可以将这种情形写作:

共和党党员(尼克松)∧教友会信徒(尼克松)

共和党党员(x)∧Abnormal2(x)→和平主义者(x)

教友会信徒(x)∧Abnormal3(x)→和平主义者(x)

假设约束Abnormal2(x)和Abnormal3(x),则有两个有效模型:一个坚持Abnormal2(尼克松)与和平主义者(尼克松)的模型,一个坚持Abnormal3(尼克松)与非和平主义者(尼克松)的模型。这样一来,对于尼克松是否是一个和平主义者,约束推理者仍然是绝对的不可知论者。若我们能断定宗教信仰优先于政治信仰,则我们能够使用一个被称为优先处理约束的形式主义使模型优先,在这种模型里,Abnormal3是最少化的。

接下来我们考察缺省逻辑表征。缺省逻辑是一种形式主义,其中的缺省规则能够被写出来产生依情况而定的、非单调的结论。根据“鸟飞”这个缺省例子,缺省规则可以写作:鸟(x):飞(x)/飞(x)。这个规则的意思是,如果鸟(x)是真的,并且飞(x)与知识库一致,那么飞(x)可能由缺省得出。一般来说,缺省规则的形式表达是:P:J1,…,Jn/C。其中P被称为先决条件,C是结论,Ji是确证的证据。如果任何一个证据被证明为假,那么结论就不能被得出。出现在Ji或C中的任何变量,也必须出现在P中。例如“尼克松钻石”的例子在缺省逻辑中用一个事实和两个缺省规则表征就是:

共和党党员(尼克松)∧教友会信徒(尼克松)

共和党党员(x):和平主义者(x)/和平主义者(x)

教友会信徒(x):和平主义者(x)/和平主义者(x)

要解释缺省规则意味着什么,我们需要一个概念——延展(extension)。一个延展S由最初知道的事实和源于缺省规则的一组结论构成,这样就没有任何附加结论能够从S得出,而且S中的每个缺省结论的确证与S一致。对于“尼克松钻石”的例子来说,它有两个可能的延展:一个延展是他是一个和平主义者;另一个延展是他是一个非和平主义者。这表明优先处理计划是存在的,其中某些缺省规则比其他规则优先,这使得某些模糊性得到解决。

需要注意的是,虽然非单调逻辑在理解其数学属性方面已经取得了极大进步,但是仍然有许多问题没有解决,比如,如果“小车有四个轮子”是假的,在其知识库中解决这个问题意味着什么?什么是一组好的缺省规则?对每个独立的规则,如果不能决定它是否属于我们的知识库,那么我们就会遇到一个严重的非模块性问题,有缺省状态的信念如何能够被用于做决定?这或许是缺省推理最棘手的问题。决定通常还包括权衡,人们因此需要在不同的行动结果中比较信念的力量,权衡做出错误决定的代价。这些问题导致人们探讨如何将缺省推理嵌入概率或效用理论。

五、真理保持系统的适应性表征与推理

在人工智能表征系统中,许多由知识表征系统得出的推论只有缺省状态,而不是绝对确定的。这不可避免地使某些推断的事实被证明是错误的,因而在面对新信息时会被撤销或证伪。这个过程就是信念修正(belief revision)。当知识库(knowledge base,KB)被修正以反映世界中的变化而不是关于一个固定世界的新信息时,信念修正就会发生了。假定一个知识库KB包含一个语句或命题P,而且我们要执行告知Tell(KB,P),为了避免产生矛盾,我们首先必须执行撤销RETRACT(KB,P)。然而,如果任何附加语句是从P推出的,且在这个KB中得到断定,那么问题就产生了。比如蕴含P→Q可能一直被用于增加Q。这个明显的答案(撤销所有由P推出的语句)是失败的,因为这个语句除了P可能还有其他正当理由(justification)。比如,如果R和R→Q也在KB之中,那么Q不必被撤销。因此,真理保持系统(Truth maintenance system, TMS)需要不断适应变化的世界来表征知识。

为了解决这个问题,真理保持系统被设计出来精确处理这些混乱。目前,人工智能处理TMS的方法主要有三种:

第一是记录通过从P1标记到Pn而将语句告知知识库的秩序方法。当发出RETRACT(KB,Pi)的指令时,系统就恢复到Pi刚刚被添加前的状态,因此撤销Pi和任何从Pi推出的推论,语句Pi+1通过Pn能够再次被添加。这在真理保持系统的操作中是很简单的方法。这种方法保证知识库是一致的,但是撤销Pi需要撤销和再断定n-i语句,以及撤销和改写从那些语句推出的所有推论。而对于不断被添加许多事实的系统,如大型商业数据库、人口普查数据库,这是不切实际的。

第二是基于正当理由的真理保持系统(JTMS)方法,它比第一种方法更有效。在这种系统中,知识库中的每个语句都由一个正当理由注释,而那个正当理由则推出它的语句组成。比如,如果知识库已经包含P→Q,那么Tell(P)会引起Q由正当理由{P,P→Q}所添加。一般来说,一个语句能够拥有任何数目的正当理由。正当理由使得撤销行动有效。给出指令RETRACT(P),JTMS会精确删除对于P是正当理由的一个成员的那些语句。因此,如果一个语句Q有单一的正当理由{P,P→Q},它就会被撤销。如果它有附加的正当理由{P,P∨R→Q},它仍然会被撤销。然而,如果它也有正当理由{R,P∨R→Q},那么它会被省掉。这样一来,自从P进入知识库后,撤销P所需要的时间仅仅依赖于从P推出的语句的数量,而不是依赖于被增加的其他语句的数量。JTMS方法假设,已考虑的语句可能被再次考虑,所以当一个语句失去所有正当理由时我们不是完全从知识库删除它,而只是将这个语句标记在知识库之外。如果一个后续的断言恢复了其中一个正当理由,我们将它标记为倒进入。这样的话,JTMS保留了它使用的所有推论链,而且当一个正当理由再次成为有效时,不需要再导入语句。这意味着JTMS是依赖已经设置的语境的(即语义库)。

第三是基于假设的真理保持系统(ATMS)方法。ATMS使得这类假设世界之间的语境转化特别地有效。在一个ATMS中,保持正当理由允许我们通过做出几个撤销和断言,迅速地从一个状态移动到另一个,但是在每个时刻只有一个状态被表征。一个ATMS能够表征所有同时已经被考虑的状态。当语句进入或被排出知识库时,一个JTMS简单地标记每个语句,而一个ATMS与每个语句保持联系,其中假设语句是真实的。换句话说,每个语句有一个标记,该标记由一组假设集合构成。不过,这个语句只有在假设集合之一中的所有假设都保持的情形下才能保持。

总之,真理保持系统方法提供了做出解释的一种机制。具体来说,一个命题P的一种解释是一组语句E,以至于E推演出P。如果E中的一个语句已知是真实的,那么E对于证明P也一定真实提供了充分的基础。但是,解释也包括假设,即未知的语句是真实的,这足以证明P,如果假设是真实的话。在大多数情形中,我们会喜欢那种最小的解释,意思是,不存在绝对的E的亚集,它也能够是一种解释。

六、基于知识的主体在环境中的适应性表征与推理

基于知识的主体(knowledge-based agent)是一种逻辑主体(即逻辑智能体),它能够形成一个复杂世界的表征,使用推理过程导出关于世界的新表征,并使用这些新表征推出要做什么。这种智能主体不是通过人的纯粹生物反射机制获得智能,而是通过在知识的内在表征上操作推理过程获得智能。因此,基于知识的主体与其环境的相互作用是产生智能的关键,与构成主体的质料(生物的还是物理的)没有关系。这也进一步说明,智能行为不仅仅是有意识的生物特有的,无生命、无意识、无心灵的机器也能够产生智能,或者说,有意识不是智能行为产生的必备前提。

基于知识的主体的核心成分是它的知识库。一个知识库是一组语句,[注]这里的语句是一个技术术语,类似于但不同于英语、汉语等自然语言,是自然语言与形式语言的混用形式。每个语句由一种被称为“知识表征语言”(knowledge representation language)来表达,表征这个世界的某些断言。当这种语句不是从其他语句给出时,有时也被称为公理。给知识库添加新语句的方法叫做TELL(告知),询问知道什么的方法叫做ASK(询问)。这两个操作程序包括推理,即从语句导出新语句。推理必须服从这样的规则:当问知识库一个问题时,答案应该从先前所告知的知识库的语句中推出。例如一个类基于知识的主体,给定一个感知对象,主体将这个感知对象添加到它的知识库,向知识库要求最佳行动,并告诉知识库它已经采取了哪个行动。

同我们的其他主体一样,这种基于知识的主体包括一个知识库作为背景知识,将感知作为输入,并返回一个行动。每当主体程序被唤起时,主体会做三件事:第一,告诉知识库它感知了什么;第二,问知识库它应该执行什么行动。在回答询问的过程中,关于世界的当下状态、可能行动序列的结果等,可能由外延推理执行;第三,主体程序告诉知识库选择了哪个行动,主体就执行哪个行动。表征语言的细节被隐藏在三个函数中,这些函数在界面是在一侧实现感知器与促动器之间的连接,在另一侧执行核心表征和推理系统。“产生感知语句”(MAKE-PERCEPT-SENTENCE)程序建构一个语句说明,人工主体在给定时间感知到给定的对象。“产生行动询问”(MAKE-ACTION-QUERY)程序建构一个语句,该语句询问在当下时间什么行动应该被执行。若“产生行动语句”(MAKE-ACTION-SENTENCE)程序建构一个语句断言,则选择的行动就被执行。推理机制的细节隐藏在TELL和ASK中。

因此,一个基于知识的主体能够通过告诉它需要知道什么来建构,从一个空知识库开始,主体的设计者能够告诉一个接一个的语句,直到主体知道如何在其环境中操作,这被称为系统建构的陈述性方法。与之相比,程序性方法直接将所期望的行为编码为程序代码。一个成功的主体通常将两种方法结合在它的设计中,陈述性知识能够被编制为更有效的程序性代码。

基于知识的主体在什么样的环境中才能发挥作用呢?这种环境就是所谓的游戏中的“魔兽世界”(the wumpus world),[注]一个典型的魔兽世界由16个方格构成,其标记方式与坐标系相同,即纵向是从下到上1—4,横向从左到右1—4,用数字标记分别是[1,1][1,2][1,3][1,4][2,1][2,2][2,3][2,4][3,1]3,2[3,3][3,4][4,1][4,2][4,3][4,4],主体位于[1,1]中,魔兽位于[1,3]中,金子在[2,3]中,有坑的房间分别是[3,1][3,3][4,4]。一种由通道连接起来的房间组成的洞穴。在洞穴的某个地方潜伏着可怕的魔兽,凡是进入它房间的人都会被吃掉。主体能够射杀魔兽,但是主体只有一支箭。有些房间有无底的坑,它会困住进入这些房间的任何人,但是魔兽例外,因为它太大不会掉进去。这个暗淡的环境的唯一特征是发现一堆金子的可能性。现代计算机游戏普遍采取“魔兽世界”作为标准,这种“魔兽世界”事实上阐明了智能的某些重要特点,用PEAS[注]由性能(Performance)、环境(Environment)、促动器(Actuator)和感知器(Sensor)组合成的方法,这四个指标是设置人工智能环境常用的标准。方法可描述如下:

(1)性能指标:+1000表示带着金子爬出了洞穴,-1000表示掉进洞穴或被魔兽吃掉,-1表示每个采取的行动,-10表示用光了箭。主体死亡或爬出洞穴,游戏结束。

(2)环境:一个4×4的16个格子房间。主体总是面向右从标记[1,1]的方格开始。金子和魔兽的位置是随机选择的,均匀分布,但不在开始的方格;除开始方格外其他方格可能有坑,概率是0.2。

(3)促动器:主体可以向前、左转90°或右转90°。如主体进入有坑或有活的魔兽的方格,就会悲惨地死掉;如魔兽是死的,则主体是安全的。如果主体试图向前撞到墙,它就停止移动;行动Grab(抢夺)在同一个方格中若作为主体可被用于拿到金子;行动Shoot(射击)可被用于在主体面对的方向直线射箭。箭要么击中魔兽,要么击中墙。主体只有一支箭,所以第一次射击格外重要。最后,行动Climb(爬)可被用于爬出洞穴,但只能从方格[1,1]爬出。

(4)感知器:主体有5个感知器,每个都有唯一的信息:(a)在有魔兽的方格和直接相邻(非对角线相邻)的方格,主体会嗅到臭气(stench);(b)在与坑直接相邻的方格,主体会感受到微风(breeze);(c)在有金子的方格,主体会感知到闪烁(glitter);(d)当主体撞到墙时,会感知到碰撞(bump);(e)当魔兽被杀死时,它发出尖叫(scream),主体在洞穴的任何地方都能感知到。

这些感知对象以5个符号形式写入主体程序,比如,在魔兽世界中有臭气、微风,但没有闪烁、碰撞或尖叫,主体程序就是[stench,breeze,none,none,none]。其他主体程序也能够以这种方式描述。

显然,这个“魔兽世界”是一个离散的、静态的、单一主体的世界。它是有序的,因为补偿是在许多行动被采取后才产生的。它也是一个部分可观察的环境,因为状态的某些方面不是直接可以感知的,如主体的位置、魔兽的健康状况,一支箭的可用性等。至于坑和魔兽的位置,可以看作状态的不可观察部分,在这种情形下,环境的转换模型完全是可知的。或者说,转换模型本身是不知道的,因为主体不知道哪个向前的行动是致命的,在这种情形下,发现坑和魔兽的位置能够完善主体的转换模型的知识。

对于一个环境中的主体来说,主要的挑战来自它对环境构架的忽视。克服这种缺陷似乎需要逻辑推理。基于知识的主体在“魔兽世界”这个环境中是通过一阶逻辑、命题逻辑、语义学和推理程序表征实际世界的。这是人工智能已经阐明的问题。

七、两个典型的适应性知识表征与推理:AlphaGo和Master

从适应性表征的观点看,智能机的发展表明它是不断适应人类智力而进步的。AlphaGo与韩国围棋高手李世石的对弈是一个典型的例子。2016年3月9—15日在韩国首尔四季酒店举行的AlphaGo与李世石的“人机大战”成为人工智能史上的一个里程碑,举世关注。据说AlphaGo能够像人类一样进行自主学习,它依赖的是所谓的“深度学习”(Deep Learning)和“增强学习”(Reinforcement Learning),统合起来就是深度增强学习(Deep Reinforcement Learning)。[注]https://zhuanlan.zhihu.com/intelligentunit这是目前人工智能最前沿的研究方向。作为智能机代表的AlphaGo是否战胜了人类智能?[注]关于这个问题,我的看法是,目前机器智能没有超过人类智能。这就看我们如何定义“智能”概念了。在我看来,智能应该包括计算力、感知力、预测力、直觉力、洞见力、情感力、意向力(自我意识)和自语境化力(能够自动融入语境),这些能力统称为人类的综合能力。智能机显然还没有达到这种综合能力,虽然它具有计算力和预测力,而且这两种能力可能还远远超过人类(计算机的计算能力远超过人)。目前的智能机显然没有情感和自我意识,更不能随着语境的变化而自动融入新的语境,因为智能机毕竟还是机器,它是不依赖语境的,尽管设计者可以在一个给定范围给它设置语境,如一个特定的语义网构成一个语义域。就人机对弈而言,虽然人输给了智能机,但这不意味着它超越了人类的智能,理由是:(1)智能机背后是设计它的一群人,这等于是一群人借助机器与一个人对弈,一个人当然敌不过一群人,“三个臭皮匠胜过一个诸葛亮”;(2)以单一能力超强评价是“以偏概全”,狗的嗅觉比人好,鹰的视力比人好,难道我们能够说狗和鹰超过了人的智能?同样,计算机无疑比人的计算力强,我们不能因此说计算机超过了人的智能;(3)一个人的智能(李世石)并不能代表整个人类的智能,集体意识或者智能不是一个人能够表现出来的;(4)机器可以连续工作,而人则不能,所以在“累”的意义上,人类就不如智能机,累会使人体力下降,专注力下降,因而会影响智力的发挥;(5)在灵活性、应变性、综合性方面,正如前述所说,智能机远不如人类,更不用说情感和自我意识了。它是如何模拟或适应性表征人类智能的?让我们来分析后面这个问题。

根据目前的人工智能研究,神经网络技术发展出一种称为“深度神经网络”组件,它构成AlphaGo的模拟程序(类似于人的大脑)。该程序由四部分组成:(1)快速扫描策略(Rollout Policy),用于快速扫描(相当于人的感知)棋盘,以获取较优的对弈步骤;(2)深度模仿策略网络(SL Policy Network),它能够通过模拟人类棋手来学习;(3)自我学习策略网络(RL Policy Network),它能够基于深度模仿网络来训练提高对弈水平;(4)全局评估网络(Value Network),它利用自学成长网络对全局形势进行判断。如果将“网络”比作人类的大脑(神经元网),那么AlphaGo的“大脑”实际上由四个脑区构成,每个脑区的功能都不同,每个的功能都不能与人类相比拟,但组合起来相当于人类大脑不同区域的整体功能。[注]据说,与人类棋手相比,快速扫描策略的正确判断率只有24.2%,深度模仿策略的正确判断率只有57.0%,网络自我学习策略的正确判断率则高达80%,全局评估网络的误差很低,均方差在0.22—0.23之间。这就是AlphaGo对人类大脑的实际模拟,通过模拟不断提升它适应新的学习环境的能力。这与人类学习对弈的过程是一样的。

当代脑科学研究揭示,人的大脑有1011个神经元,它们相互连接成功能强大的人脑。假如有一天智能机比如AlphaGo的深度学习网络的组元(类神经元)达到这个数量级,其智能水平会怎样呢?我们不得而知,也不敢去设想。假如它超过了人类智能,则会产生一系列的社会和伦理问题,比如高智能的机器人可以代替人做许多工作,甚至取代人类,这势必对社会结构、经济规模、人类隐私,甚至人类的存亡产生不可估量的影响。

由于AlphaGo也能够像人类那样拥有强大的神经网络(人工),能够自主学习,所以它对弈时采用蒙特卡洛树搜索方法(多次模拟未来的棋局,选择模拟中次数最多的走法)获取最佳的落子点。具体思路是:(1)基于深度模仿策略网络预测下一步走法,直到多步;(2)使用全局评估网络进行评估,判断棋势,再使用快速扫描策略做进一步的预测,直到获得模拟结果;(3)综合前述两者对预测未来L步走法进行评估,将评估结果作为棋局的下一步走法的估值;(4)结合下一步走法的估值和深度模仿策略网络进行再次模拟,若出现同样的走法,则对走法的估值取平均值,反复循环以上步骤直到n次,然后选择次数最多的走法作为下一步。这一过程体现了AlphaGo的自主学习过程。AlphaGo是通过处理神经网络中数量庞大的参数来学习的。

2017年1月4日结束的Master(AlphaGo的升级版)与人类60位围棋顶级高手的较量中,以全胜战绩赢得胜利,人类棋手似乎不堪一击。虽然Master在30秒快棋领域击败了人类智能,若是在慢棋领域,Master是否还有优势?不可否认,智能机的计算速度比人快得多,若给人类棋手足够的思考时间,结果可能不同或者相反。这还有待进一步的人机较量的验证。

总之,人机大战给我们提出的问题是:神经网络的参数为什么能够表现出智能?智能到底是什么?无人操控的智能机是否能自动产生智能行为?这些问题还有待人工智能专家、认知科学家、认知哲学家做进一步的探讨。给笔者个人的启示是:既然人类能够按照自己的形象创造自己并未见过的上帝,那么人类自己也能够按照自己大脑的运作方式创造出自己以外的智能(尽管大脑对我们自己仍然是个黑箱,尽管是不自觉的),甚至能够让智能机有意识,即实现人工意识的可能性。正如库兹韦尔所说,“人类和机器智能之间的界线越发显得模糊,因为机器智能越来越多地源于其人类设计者的智能,而人类智能也因为机器智能得到了更大提高”。[注]雷·库兹韦尔:《机器之心》,胡晓娇、张温卓玛、吴纯洁译,中信出版集团2016年版,第289页。一句话,人类的思维正融入自己创造的机器智能领域,人机合体的实现恐怕为期不会太远。

猜你喜欢

缺省知识库范畴
批评话语分析的论辩范畴研究
正合范畴中的复形、余挠对及粘合
基于“缺省模式”设计平台的控制系统研发模式重塑
Clean-正合和Clean-导出范畴
基于TRIZ与知识库的创新模型构建及在注塑机设计中的应用
高速公路信息系统维护知识库的建立和应用
基于条件随机场的评价对象缺省项识别
基于Drupal发布学者知识库关联数据的研究
观点句中评价对象/属性的缺省项识别方法研究
位置与方向测试题