APP下载

何去何从?通用人工智能视域下未来的教师与教师的未来

2018-10-08刘备备王伟军

关键词:奇点机器经验

刘 凯 隆 舟 刘备备 王伟军 王 培

(1.华中师范大学 心理学院,湖北 武汉 430079;2.渤海大学 教育与体育学院,辽宁 锦州 121000;3.天普大学 计算机与信息科学系,宾夕法尼亚州 费城 19122 美国)

与法律、金融、医疗、物流等行业一样,教育如今也处于人工智能的变革潮头。政府支持政策相继出台,技术圈厉兵秣马加大研发投入,企业也争相推出智能化产品。一时间,人工智能成为社会关注的焦点话题。教育界一方面对人工智能抱持极大期许,希望借助技术进一步突破教育改革的坚冰,在更大程度上促进教育公平、提高教育质量[1],同时找准人工智能教育的落脚点,满足未来社会对技术人才的需求[2];另一方面,也对人工智能教育应用的未来存在疑虑:一旦人工智能可以完成教师的工作,教师将何去何从[3]?

在已有讨论中,人工智能对教育的影响更多是围绕学习者展开,对教师的专论虽不多见,但从角色[4]、教学模型[5]、师生关系[6]等方面进行了有价值的初步探索。不过,教育界对人工智能影响下的教师未来预期可以区分出两种截然相反的观点:第一种是“悲观派”,认为人工智能的能力将全面超越人类,人类的大部分工作都将被人工智能所取代,教育领域不仅在所难免甚至可能首当其冲[7];第二种是“乐观派”,认为人工智能只是一种技术,并不具有真正意义上的智能,所以不会对人类教育工作者的职业产生实质影响[8]。

从字面意义来看,“悲观派”和“乐观派”貌似“水火不容”:“悲观派”本质上抵制人工智能的教育应用,“乐观派”则积极吸纳人工智能技术的应用。但实际上,二者皆以“奇点”论为话题预设,在推论时亦如此,因此二者本质上却是殊途同归。因此,人工智能对教师影响之讨论,看似是一个较为具体的小问题,实际却隐藏着一个以“奇点”为核心的较为复杂的背景。本文从问题的背景切入,采用一明一暗两条线索展开分析:其一,遵从“先破后立”的逻辑框架。首先,对相关概念进行界定和解释,然后指出“悲观派”和“乐观派”在“奇点”支持下的基本逻辑并分析其问题之所在,是为“破”;继而,对“奇点”引申出的四类重要的教育问题进行深层反思;最后,回归问题本身,基于通用人工智能理论,对教师及教师的未来予以回应,是为“立”。其二,以人工智能技术的教育渗透为契机,期望能够在教育的本质层面,对当前存在的主要问题进行深入的思索。

一、人工智能与“奇点”论

核心概念的清晰和明确是科学讨论的前提。在“悲观派”和“乐观派”的讨论中,人工智能和“奇点”两个概念处于中心地位。然而,人工智能包含三种不同所指且容易混淆的分类,“奇点”背后则蕴含了一系列前提。因此,澄清并正确理解概念,才能为后续深入分析提供坚实的支撑。

(一)人工智能

由于对人工智能(Artificial Intelligence,简称AI)讨论的前提不同,导致对人工智能的认识各异。近期,在教育类学术刊物中,关于人工智能存在以下三种理解:第一种,认为人工智能包括计算智能、感知智能和认知智能[9];第二种,认为人工智能分为弱人工智能和强人工智能[10],而强人工智能也正是通用人工智能;第三种,认为人工智能分为专用人工智能和通用人工智能[11]。

第一种分类常见于行业演讲和报告中,既缺乏理论依据,又具有误导性:逻辑上貌似完整无缺,又与“奇点”不谋而合。其中,计算智能(又称运算智能)指的是快速计算和记忆存储能力,感知智能指的是视觉、听觉、触觉等感知能力,认知智能则是指抽象理解能力。对于计算系统而言,计算智能对应于计算水平,感知智能对应于感知水平,认知智能则对应于认知水平,三者由低至高逐级更加“智能”。现在计算智能和感知智能业已成熟,那么随着技术的发展,在给定这一框架的前提下,认知智能也应该可以实现,毕竟前两者已经实现了。然而,无关乎最后的认知智能是否最终必然实现,关键在于框架的前提存在问题。事实上,计算能力和感知能力只是实现智能的必要条件,而不是智能本身,所以将计算智能和感知智能也划入智能的分解不过是一个玩弄逻辑概念的把戏,在不能真正解决任何实质性问题的同时却极大地提升了“认知智能必定能够实现”的信念和预期。因此,如果不能详实检视这个前提,那么由此得到的后续结论便经不起推敲。

第二种分类多见于哲学论述中,最早由约翰·赛尔(Searle J)提出[12]。他认为,弱人工智能的计算机其价值主要是为心智探索提供有效的工具,而强人工智能则意味着某种程序化系统的运行本身就处于心智状态中,能够真正理解事物并具有自己的认知状态[13]。对此,徐英瑾专门撰文写道:大众理解的“强—弱”之分在于智能的宽与窄之分,而约翰·赛尔心中“强—弱”之分却是真假之分。然而,这种区分并不是没有意义的,起码说明了“人工智能在各个领域内的量的积累,未必会导致真正意义上的智能的涌现”[14]。于是,在赛尔看来,即使一个计算机系统的外在表现完全像人,那也只是个“弱人工智能”,而“强人工智能”必须真正拥有自我意识。这是很多通用人工智能研究者不认可的,因为在此分类下人工智能系统的“强弱”之别就没有任何外部标准来衡量了[15]。可以看出,“强人工智能”并不是智力能够全面接近乃至超越人类智能的机器智能,而“弱人工智能”也不是指对人类智能的某些方面的模仿。所以,从原始学科向学科的概念“转移”中,其内涵和外延已经发生了变化,正如“奇点”一样。

第三种分类出自人工智能技术领域,即认为人工智能包括专用人工智能(Special-purpose Artificial Intelligence,简称SAI)和通用人工智能(Artificial General Intelligence,简称AGI)两个不同的子领域。对于“智能”理解的根本差异,使人工智能分化为专用和通用两个不同分支。专用人工智能采取先做后思的路径,即一开始并不深究智能也不对智能进行清晰的定义,而是通过技术迭代渐进式地提升智能化的程度。通用人工智能认为智能的存在代表着可以被认知的理性原则,采取的是先思后做的路径[16]。与人工智能早期工作时所使用“AI”非常相似,“AGI”的表述在2005年前后被核心研究群体认可和采用,希望将他们的目标与当前“AI”(即SAI)区分开来。随后,AGI学会的年会及其学报于2008年及2009年相继启动。由于AGI项目的做法往往与主流AI社区有重大差别,所以尽管近年来“AGI”一词大热,但相关研究成果却鲜为人知。

因此,上述三种分类既有关联又有不同:“计算智能+感知智能”既不能简单等同于“弱人工智能”,也不能简单等同于“专用人工智能”。同样地,“认知智能”既不能简单等同于“强人工智能”,也不能简单等同于“通用人工智能”。事实上,只有第三种分类适用于当前语境下的学术讨论,因此本文也将以第三种分类──“专用人工智能”和“通用人工智能”为讨论前提。

(二)“奇点”论

“奇点”(Singularity),也被称为“技术奇点”,是从数学和物理学科中泊来的一个概念。尽管常见于影视文学作品而为公众所熟知,但它却并不是一个真正意义上的计算机科学或技术术语。历史上,1982年美国人工智能协会年会上弗诺·文奇(Vernor Vinge)首次提出“技术奇点”,并于1993年再次论述了这个观点,并认为技术奇点有可能在未来50年左右就会出现[17]。2005年,在雷·库兹韦尔(Ray Kurzweil)《奇点临近》(TheSingularityisNear:WhenHumansTranscendBiology)一书的推动下,“奇点”的翻版——“库兹韦尔定理”(Kurzweil’s Law of Accelerated Return)被广泛宣传。该定理指出,人类出现以来所有技术发展之初都是缓步前行的,但随后以指数的形式快速增长,并最终以指数的指数形式增长。因此,“超级智能”(Super Intelligence)必将出现并威胁人类自身[18]。

针对人工智能,“奇点”论基于如下前提:

Ⅰ 系统的智能水平可以表征为一个数值;

Ⅱ 经由学习或迭代改进,人工智能主体能够不断提升自己的智能水平;

Ⅲ 当人工智能超越人类智能水平之时,它的整个未来将被视作一个单点,因为那以后的发展已经超出了人们的理解力。

第一句话看似有理,毕竟一个“智能”或“智慧”的系统应该可以解决许多问题,而人们也总是利用各种测验和检测来评估效果,比如人类自己便使用“智商”(IQ)来衡量智力水平。然而,智商的准确性和科学性一直存在相当大的争议[19]。即便存在,它也无法体现智能的变化因素。通常情况下,提及智能一般与“后天习得的解决问题能力”相关,而非“先天预置的问题解决能力”。于是,在某一给定时刻t,系统的智能应该用该时刻能力的增速来衡量,即可用S(t)表示“问题解决的能力”,而用其导数S′(t)表示“学习的能力”。

如图1所示,依据系统所能解决问题的数量S与时间t的关系大致可区分出四类不同系统[20]:①蓝线对应于一个完全没有学习能力的系统。系统技能全部由先天给定,即S′(t)=0。所有传统的计算系统都属于此类,其中一些被视为“AI”;②紫线对应于一个学习能力有限的系统,绝大多数的机器学习算法都属于该类。尽管S′(t)>0,但最终将收敛到0;③绿线对应于一个学习能力基本固定的系统,许多AGI项目都属于这种类型。此时,S′(t)是一个正常数;④红线对应于一个学习能力本身无限增长的系统,其S(t)和S′(t)均呈指数递增。虽然我们认为这样的系统并不可能真实存在,但为了讨论方便而将其作为一种可能概念列出。

图1 时间t与总分S的四种不同关系

取决于诸函数中所包含的常量和测量的时刻,在某时刻这四种类型中的任意一种都可能成为当时问题解决能力的最强者。但它们的学习能力却各不相同,由弱至强可排序为:蓝线族<紫线族<绿线族<红线族。所以,“能够解决多少问题”与“能够学到多少东西”其实并不一般相关。

尽管学习往往与问题解决被置于同一层面,但“学习是智能核心”的见解却早已有之。我们也认为,各类问题的具体解决能力处于对象层次,而学习能力则是处于元层次。对“绿线族”或“红线族”而言,S(t)虽能够提升至任意层次,甚至“比人类聪明”,但受传感器、动作器及经验所限,并不意味着每个问题都能比人解决得更好。在这一问题上,“绿线族”和“红线族”之间存在根本差别:由于“绿线族”内部的元层次知识由其设计者指定,所以即使S(t)值远高于人类水平,但人们仍然能够理解它的运行原理及基本工作过程。而相反,若真的存在某个“红线族”,它将在某个节点之后让人连它是如何工作都变得无法理解。

虽然“奇点”的支持者经常用“指数增长”现象进行佐证,但指数增长根本不会在某个自我改进的孤立系统中持续进行下去,而通常体现在种群之中。纵然“智能”只是一个程度的问题,但没有证据表明“智能水平”在“人类水平”之上依旧可以无限提升。对应于“低于人类水平的智能”,“超级智能”作为一种逻辑类推,却包含对象层次及元层次的双重提高之意。S(t)值显然可以通过知识、技能或计算资源任意一点或多点的增长而提高,但“超级智能”和S(t)值并不相同。在元层次上,“超过人类”的智能将是一种彻底不同的“上帝”思维机制,不论在何种情况下都能找到全局最优解。当然,尽管不否认这种可能性,但至今并没有其存在的任何确凿的支撑证据。

二、“悲观派”与“乐观派”的逻辑及错误

在理清人工智能“奇点”论的基础上,需要进一步剖析“悲观论”和“乐观论”产生的基本逻辑,并从前提、支撑理论和证据选择等方面说明该逻辑的纰谬及原因。

(一)基本逻辑

一般情况下,人工智能对人类职业影响的程度如图2所示,即“三线四层”框架:“四层”即Level-1~ Level-4,分别代表人工智能技术发展的不同程度,“三线”则是安全线、警戒线和危险线。具体而言,Level-1与Level-2之间为安全线,安全线是“无风险、无危机”的界限,安全线之上既无风险也无危机,安全线之下虽无危机但风险开始显现;Level-2与Level-3之间为警戒线,警戒线是“有风险、无危机”的界限,警戒线上下虽然都有风险,但风险程度不同;Level-3与Level-4之间为危险线,危险线是“有风险、有危机”的界限,危险线上下皆有风险和危机,但危机却由潜在上升为显在。

出于人类中心主义的考虑,人工智能不比人类聪明是最理想的状态(Level-1),此时人工智能根本不会对人类教师产生丝毫威胁,这也是被人们乐于接受而不言自明的内在期望。

图2 人工智能对人类职业影响的内在逻辑框架

然而,随着近年来Wason、AlpahGo、Boston Dynamics、Siri、高考机器人等人工智能产品被媒体广泛报道,人们意识到人工智能确实能够在某些方面做得比人类好(Level-2),特别是教育领域中远程教学、MOOC、电子白板、增强现实、AutoTutor等技术的应用,教师在享受技术便利的同时,其传统的工作内容(如准备教案、板书、点名、作业批改乃至教学过程等)部分地被技术替代。在这种情况下,虽然暂时不会出现机器教师(既可以是软件系统也可以是实体机器人)取代人类教师,但风险却已攀升。不过,技术发展的脚步不会停歇,即便人工智能并未全面超越人类,但其只要能够在主要教学方面超越人类,那么人类教师便会在通讯和计算能力更为强大的未来与不知疲倦、不发脾气、效率更高的机器教师进行肉搏式的惨烈竞争(Level-3),教师的职业面临前所未有的危机。不过,人类教师与机器教师如果可以相互理解和交流的话,那么二者还能取长补短。然而,按照“奇点”论所言,机器教师不仅终将全面优于人类教师,而且其为何教得好也已经超出人类理解范围了(Level-4),人类教师就算向其求教也无法学会。

至此,总结一下基本逻辑过程:如果机器教师永远不如人类教师,从人类自身来看这是最好的情况,人类掌握绝对话语权和导向力。但实际上,人们发现机器教师现在已经在某些方面做得比人类教师更好。那么随着技术的发展,机器教师将会与人类教师战成平手或相互帮助,此时人类还可以跟人工智能“商量着来”。然而,未来机器教师将人类教师远远甩在身后,人类已经与之“商量不通”,此时人工智能完全掌握话语权和导向力,人类只得跟从机器做教育,人类教师职业被推上绝迹之崖。最可怕的是,我们承认不如机器,但我们却连向其沟通和学习的机会都没有,因为根本无法理解!

说到底,人工智能对教师的影响本质上是一个以“奇点”为理论预设、以人类中心主义为立场的控制权持有问题。“悲观派”和“乐观派”并没有实质差异,二者都未能跳出“奇点”这一隐含的前提假设和基本逻辑框架,区别仅仅是具体层级信念的不同而已:“乐观派”对Level-2信念的信心较高而对Level-3、Level-4信念的信心较低,“悲观派”则对Level-2、Level-3以及Level-4信念的信心都较高。当然,该问题的本质特征也绝非教师职业独有,律师、医生、司机、公务员、技术工人等职业同样如此。

(二)错误解析

上文阐述了人工智能对人类职业影响的内在逻辑框架,Level-1到Level-4看上去既通顺又符合常理。然而,正是由于前提混淆、理论倒错和证据偏向等问题不易察觉,才使得“奇点”的逻辑错误被巧妙地遮掩起来。

1.前提混淆

我们认为,智能实际上是主体在知识和资源相对不足条件下的适应能力。在不同的开放环境中,智能主体能够逐渐通过学习获得在该领域解决问题的能力[16]。也就是说,智能不是“解决具体问题的能力”,而是“获得解决具体问题能力的能力”,是一种具有通用性的“元能力”(Meta-Ability)。

事实上,“能力”可以被分解成“技能”和“智能”两个方面。“技能”指的是解决某类问题的能力,“智能”则是获得和提高各种技能的能力。系统在某一时刻的技能等于其先天技能(“本能”)及习得技能(得自智能)之和。不过,人和计算机完全不同:人类个体之间本能差异微小,所以可以利用同龄人的技能差别近似反映智能差别,这也正是“智商”的依据。相反,计算机系统的技能既可以大部分来自本能,也可以来自智能。当一个计算机系统完全靠人编写的程序解决问题,而不根据自己的经验对其行为进行任何调整时,它仍可能拥有很高的技能,却完全没有智能,比如AlphaZero之类的棋类程序或领域性的专家系统;而另一方面,一个高智能系统如果不依赖于预先编好的应用程序,开始运行时并没有多高的技能,却可以在后天的教育过程中不断地“成长”,比如目前研发中的通用人工智能系统。

因此,一般意义下的智能水平与目前测量的智商并不等同,特别是在没有考虑人机差异的前提下,将机器全面“拟人化”的理解和决断必然不科学。Level-1到Level-4逻辑的前提出现了重大偏差,错用人类的智商对应于机器的智能,从而产生“因为机器智商更高,所以机器教师必将超越人类教师”的悲观倾向,或者“因为机器根本不可能具有智能,所以机器教师永远无法替代人类教师”的乐观倾向。说到底,二者都是极端和片面的。

2.理论倒错

如前所述,“悲观派”和“乐观派”表面看上去观点相反,但实际上二者背后存在共有的逻辑,即“奇点”论。上文已经对“奇点”论进行了批驳,但仍需指出:尽管“奇点”在人工智能领域中并不正确,但产生如此之大的影响却在情理之中。一方面,公众和学界视野内缺少更合适的理论支持,亦没有适当的优质竞争理论;另一方面,其所接触到的人工智能证据来源更多是影视或文学作品[6],而它们的前提也正是“奇点”。于是,从证据到理论、从理论再到证据选择,两者相互支撑形成了正向闭环。请注意,“奇点”影响下的影视文学作品的共同特点,都是以Level-3和Level-4的人工智能技术“能够”实现作为前提条件,却对“如何”从Level-2到Level-3取得实质突破避而不谈,或是用超级网络或计算能力一笔略过。所以,人们当前的感受都来自Level-1和Level-2的专用人工智能,而其担忧却来自Level-3和Level-4的通用人工智能,但二者理论基础完全不一样,甚至可以说是泾渭分明。于是,在人工智能对教师潜在影响的问题上,在概念混淆(专用人工智能与通用人工智能)、内容框架混乱(智能与智商)之外,还存在理论倒错的情况。

本文的部分理论依据来自通用人工智能理论中基于经验的语义学(Experience-Grounded Semantics)[21],并得到认知哲学[22]和认知计算研究的关注[23]以及认知语言学研究的支持[24]。最简意义上,对一个语词或符号而言,传统而常用的方法是用指称和定义来刻画意义。前者将其视为语言之外事物的名称,后者将其作为语言之内的结构的名称,二者常被组合使用而构成复杂语词和语句。尽管这种确定意义的办法直观和自然,但它仍不能完全满足人工智能和认知科学的要求。

基于通用人工智能的非公理化推演系统(Non-AxiomaticReasoningSystem,简称NARS)智能框架及其系统实现,其概念的意义或理解产生并形成于经验中形成的概括关系[21]。其中,某一概念与概念的关系体现在外延(它所概括的那些项)和内涵(那些概括它的项)之上,而其总和就构成概念在此刻对主体的意义和理解。尽管不排除系统可具有“先天”植入的概念或信念,但概念的实质性意义仍主要来源于经验。举例而言,如果一个系统对“坏人”毫无经验,这个孤立概念就完全没有意义。在得知“坏人会伤害自己”这类与已有概念建立联结或得到“某些人总是抢夺自己东西”的经验后,“坏人”这一概念才获得真实的意义,因此,语义是通过直接经验和间接经验而内生性建构的。由于通用人工智能系统中智能本质的适应性限制,真正的智能系统总是工作在知识和资源相对不足的情况下,因此NARS运用一个概念去解决当前问题时,受时间和资源约束,通常不会使用概念的全部意义(除非概念本身极其简单),而只能选择小部分参与加工,这也正是某概念“当前意义”和“一般意义”不同的原因(人脑可能也是如此进行意义加工)。前者通常仅是后者的很小部分,而其内容选择受很多因素影响,包括有关信念确定程度、简单程度、有用程度、与情景相关度,等等。这些因素一直在不断变化,不同时刻下同一个概念在系统中便有不同的即时意义。经验丰富后,有些概念中会形成相对稳定的“基本意义”或“本质”,而在其他一些概念中可能就找不到这种“内核”,以至于不能为系统提供太大效用。由此可见,不同的概念对系统的价值是不一样的。

目前,许多学者依然将计算机视为一个“物理符号系统”,以为其中的符号只能通过指称外部世界事物来获得意义。NARS中的经验也可以被叫作 “符号”,但它对系统的意义不依赖于某个外在的指称或解释,而是体现于它和其他符号在系统内部的联系,这种联系是对系统经验(包括但不限于感知运动经验)的选择性总结。系统对这种符号的处理不仅是基于其形式的,同时也是基于其意义的。这样的系统不仅可以理解符号的意义,而且可以改变和创造符号的意义。因此,通用人工智能系统也能够具有创造性。

3.证据偏向

1)技术的“指数发展”与局限

人们自觉正处于一个快速发展的时代,并感受到“技术似乎呈现指数发展”,一个重要原因在于我们一般更加关注现实体验。特别是在中国,改革开放后的高速发展让国人的生活和工作环境在极短的时间内实现了从机械化到电气化再到网络化的大变革。尽管综合科技水平还未超越先进的发达国家,但技术的“指数发展”却更符合个人体验,“奇点”论在中国更有市场。

“奇点”的指数发展基于代际之间的迭代进化而实现,在物种进化的尺度上,人类智能的确由低智能动物发展而来,但这不意味着智能可以无限制发展下去。实际上,在任何领域中,按某个量已有增长趋势而推之未来的预测都不可靠。具体到人工智能领域,在硬件方面,“奇点”论认为智能机器通过制造出比自身智能水平更高的机器而实现“奇点”,然而至今也没有任何一台机器可以独立创造出另一台机器,更别说具备一定智能水平;在软件方面,人们期待人工智能通过“给自己编制程序”来进化,此乃缺乏计算机知识所导致的误解。不仅允许自我修改的程序设计语言早已存在多年(如Lisp和Prolog),而且至今也未曾在计算机病毒程序中发现智能的产生迹象,尽管它们已经自我复制并繁衍了多年。对计算机系统而言,“程序”和“数据”的区分具有相对性,只要这种修改是基于系统过去经验的,那么这种“自我编程”和通过修改知识来改变系统行为并无本质区别,而且未必是个更好的设计。

2)人类中心主义的种群偏见

智能是生物界普遍存在的现象,并非人类独有。不仅高等动物拥有较强的个体智能,个体智能较低的动物也可以具有较高的群体智能。例如,黑猩猩、乌鸦等许多动物都具有较高的个体智能,黑猩猩除了具有使用工具的能力外,也具有理解目标及意图的能力。它们不仅能够对人正在做的事有所反应,还能参与其中,甚至知道人的感受与知识[25]。又如蚂蚁一类的群体动物,虽然个体智能根本无法与人类等高等动物相提并论,但却拥有非常卓越的群体智能,切叶蚁可以用树叶作为肥料培育自己喜欢吃的真菌,有些蚂蚁会把同伴的尸体集中埋葬以避免疾病传播,还有其觅食时的高效分工协作以及建造精致巢穴,等等[26],都印证了即使是低等动物,也同样具有令人惊叹的群体智能。与此形成鲜明对比的是,个体智能极强的人类所组成群体却时常表现出更低的整体智能及问题解决能力,所谓“乌合之众”或“一盘散沙”便是如此。因此,并不是人类由于拥有智能而成为人类,智能是人类、动物乃至通用人工智能系统等具有对开放环境适应能力的主体皆具有的能力。人类本位主义的思考模式时常令我们的思考囿于“人”的范畴,而忽视更广泛和更普遍的情况。

3)“明星”事件的选择性报道

1997年,IBM超级计算机“深蓝”击败了国际象棋冠军卡斯帕罗夫,成为人工智能领域中机器战胜人类的里程碑式事件而被广为报道,这为人工智能“入侵”人类职业埋下了伏笔。然而,更多的细节却很少被提及:“深蓝”1996年就已经与卡斯帕罗夫进行了6局比赛并以2∶4告负[27]。之后工程师将“深蓝”的运算速度提高一倍,次年深蓝再次挑战卡斯帕罗夫。在前五局2.5∶2.5打平的情况下,卡斯帕罗夫决胜局败给了深蓝,最终“深蓝”以3.5∶2.5获胜。事实上,赛前“深蓝”已备好针对卡斯帕罗夫行棋的大量信息,比赛过程中IBM工程师又不断利用卡斯帕罗夫的下棋特点对“深蓝”作启发式调整。特别是复赛中,IBM程序员被组委会明令禁止在双方比赛过程中人工修改机器参数。后来,“深蓝”的更强版本Deep Frintz既没能在2002年击败新晋冠军克拉姆尼克,也未能在来年击败卡斯帕罗夫本人[28]。然而,其后却没有人对“机器已经战胜世界冠军”产生一丝质疑。当然,这并不意味着AlphaGo和AlphaZero以及“绝艺”之类的人机对战也都存在水分,只是借以说明受媒体偏向性报道影响,大众对人工智能技术对人类影响的预期判断总是大幅提前。因此,在掌握易得证据的基础上,更要尽力了解事件背后那些鲜为人知的“真相”,避免以偏概全。

三、“奇点”论对教育的潜在影响

说明“悲观论”和“乐观论”的谬误反映的仅是“奇点”论普遍性的负面影响。然而,教育领域有其特殊性,只有继续顺着“奇点”这条关键藤蔓,才能更为具体地发现并检视“奇点”论对教育带来的特殊影响。

(一)微观层面:教育的经验问题

在物理还原论倾向的支撑下,“奇点”论背后潜藏着一个对教育的破坏力极大的推论──数字永生,即:科技进步使得有朝一日能够将人脑内的神经结构及神经活动复刻到计算机系统中,或从计算机系统中将“资料”下载到人脑里。在这种情况下,人机的界限变得模糊,而知识和技能习得将变得极为容易,人们无需通过教师指导也可以脱离系统性学习,只需购买特定的功能软件包就能立刻学会并掌握相应知识和技能。于是,人们不仅会变得更加聪明,也可以得到永恒的生命。

实际上,数字永生是“复制人”问题的一个新的变体:生理结构完全一致的被复制的“我”是否也与原生的“我”具有相同的思维活动?在通用人工智能理论视角下,数字永生就是一个被技术包装的骗局。事实上,对经验的解释是一个人围绕其人格长期形成的,两个完全相同的脑结构并不能拥有相同的意识。即使这些经验的神经存储进行了复刻,在另一个复刻脑中依旧面临两个无法解决的根本性问题:① 意识启动。复刻技术只能保证备份大脑的生理一致,却无法保证另一个大脑不会变成植物人的大脑。如何唤醒复制脑并令其在自我意识指导下进行工作是第一个难题,而实际上这是无法实现的,因为意识活动本身的主体性正是个体经验积累的动态体现,而不是某种抽离于经验的静止存在。如果缺失动态的建构过程,便无法直接点燃“意识”之火,只剩一具“标本”躯壳。② 经验解释。退一万步讲,即使成功实现意识启动,复制脑也未必能将当前存储的经验依照本源的方式进行解读。智能主体(包括人脑和通用人工智能系统)的特定经验片段,既可以解读成不同的字符,也可以是一幅图片,或是一段音符等。于是,即使复制脑也有意识,复制的身体也一如本人,复制人对经验的解读也不会完全相同。主观精神世界的本质特征使得智能主体对自我经验的解读具有唯一性和排他性,因此经验的解读是私有和封闭的。不论复刻到另一个大脑,还是复刻到计算机系统中,另一个“我”也不再是我。人的死亡实际上并不意味着经验存储的必然丧失,而是对经验的解读方式不再延续。

于是,不论是人类还是智能机器,所有开放适应性系统的成长过程都是经验的习得和塑造过程,绝不存在一劳永逸的可能,不学习、不接受教育就可以迅速成长的所有念想都是不切实际的空想。

(二)中观层面:教育的常识问题

2013年,斯坦福大学研究人员训练机器人乘坐电梯来完成到楼上买咖啡的任务。但奇怪的是,装备了各种先进传感器的机器人每次打开电梯门后便停了下来,随后反复打开电梯门却就是不肯进入,研究人员对此大惑不解。后来终于发现并非软件漏洞,而是由于机器人把电梯墙面反射的“自己”当成了“别人”,看到自己前行时对方也在前行,避障控制系统随即启动,机器人在电梯门口停下来,然后又发现对方也停了下来,于是陷入行动僵局的循环[28]。

当人们惊叹于人工智能技术取得的进步之时,人工智能系统却在“羡慕”人类所掌握的常识。经过长期的研究和讨论,学界已达成共识:“人类之难恰是机器之易,人类之易却是机器之难”[29]。与直觉相反,智能主体(人类或通用人工智能系统)的高级推理并不需要多大的计算量,反倒是低级的感觉运动技能却消耗着庞大的计算资源。不过,与常识问题比较,计算问题就是小巫见大巫了,因为常识问题至今依然无解。

目前,人类已经建立了成熟的学科和知识体系,其规模之巨令人惊叹。然而,由于没有常识,尽管可以轻松地存储和检索从而“知道”这些内容,计算机的理解能力却与三岁儿童都相距甚远。“奇点”论的支持者天真地认为,让机器学习人类的婴幼儿教材就可以得到常识。然而,在专用人工智能和通用人工智能系统中的相关尝试皆表明,输入婴幼儿教材与输入学科知识的效果并无二致。本团队也在NARS系统上用简单且极易理解的儿童寓言故事进行了实证研究(具体内容将在后续发表),尽管在机器教育问题上取得了可喜进展,却依旧未能解决常识问题。基于当前线索和已有证据,我们倾向于认为世界上并不存在作为“常识”的最小公约知识子集,亦即常识在深度和广度、数量和质量上都不存在绝对性。因此,从某种程度上说,“常识”是个伪命题。当然,也要看到借助某种途径和手段,人类婴儿或NARS系统确实可以获得某些必要知识从而与环境双向交互成长。因此,有效的“常识”也许和具体经验内容无关,而与经验动态建构的方式有关。在未来,动态建构学习者经验的能力将成为教师的核心竞争力之一。

(三)宏观层面

1. 外向范畴:教育研究的导向问题

当问及第二次世界大战爆发的原因时,以下四个选项该如何选择?

B. 瞬间形成高温高压气体以极高功率对外界作功,使周围介质受到强烈的冲击、压缩而变形或碎裂;

C. 1939年9月1日德国对波兰的“白色计划”行动;

D. 经济危机激化两大政治军事集团的矛盾。

上述四个选项中,A是火药燃烧的化学反应方程式,B为子弹射击的物理原理,C是真实发生的入侵行为,D是形而上的战争背景分析。事实上,对于二战的起因上述四者皆在一定程度上有所贡献。然而,人们并不会将A和B考虑在内,只是在C和D中寻找答案,并最终倾向于D,因为似乎只有D才能“真正说明问题”。

教师既是教育活动的引导者,也是教育研究的参与者。因此,教育研究的导向对教师具有重要影响。与上述例子一样,对教育和学习而言,神经科学从基因、分子和激素水平出发寻求解释,脑科学从大脑功能原理上进行解析,心理学和专用人工智能从行为层面予以分析,而只有通用人工智能是在思维层面的经验探索。正如不能认为二战爆发是因为火药发生爆炸推动子弹运动一样,同样不能认为学生做对题目便是其神经活动符合了某种要求和标准,或“胸怀理想、报效祖国”就是某个特定规模的神经联结。人类行为向下还原的代价便是意义的丧失,教育行为的神经和脑机制还原亦是如此。不同的学习者,相同的学习活动可能对应于不同的神经活动,而相同的神经活动,也可能对应于不同的学习活动;同一个学习者,前后两次相同的学习活动,可能对应于不同的神经活动,而相同的神经活动,也可能对应于不同的学习行为。正所谓,“人不能两次踏进同一条河流”。当然,也不能走向另一个极端,认为神经科学、脑科学的研究成果对教育领域毫无借鉴。因此,教育界同仁们应从学科崇拜中警醒过来,树立属于自身的学科自信,将教育研究的导向重新回到“经验”这一传统优势上来。

2. 内向范畴:教育政策的取向问题

媒体鼓噪下的人工智能对当前诸多行业的“侵蚀”而令人类劳力面临失业潮,“奇点”论的支持者们深以为然,但事实并非如此。电气化和自动化对智能化的最大挑战,不是技术而是环境。开发一个在发达国家驾驶公交车的机器人绝非难事,而开发一个在不发达国家乘坐公交车的机器人则难上加难。具体对于我国而言,高速铁路的无人驾驶很容易实现,但普通公路的无人驾驶却难以实现。环境的结构化程度越高,制造在其中运行的机器就越容易。因此,如今成功的专用人工智能案例背后的重要隐含条件不是技术水平,而是规则明晰的结构化应用环境。锻造一辆在封闭道路上单向行驶到终点的“智能座驾”技术早已成熟,前提是路边围好了拦网,铺装路面都做好了标记,既不会遇到穿越的行人和动物,也不会碰见对向行驶而来的新手司机,更不会因为误认了跌落的树枝或树叶被风吹就的造型而冲出道路。但是,人们所处的真实环境都是开放的,我们永远无法穷尽路面的所有可能而研发出全时全路况毫无瑕疵的自动驾驶车辆。

所以,在专用人工智能发展道路上,被“规则化”的不是技术而是我们自己。对专用人工智能系统而言,机器学习或大数据分析过程中,样本的噪声、干扰和异常对结果具有不良甚至致命的影响。而通用人工智能恰恰相反,认为开放环境中的扰动对于智能主体的适应性成长至关重要。在合适的条件下,噪声、干扰乃至异常反而有助于系统更高层次能力的提升。于是,从某种意义上说,“无序意味着发展,秩序代表着停滞”。

人类正努力开发像人类一样思考的机器,这并不可怕,真正让人担心的是,人类已经被机器同化得像机器一样思考。自从大工业时代之后,各国教育系统的培育体系正在变得越来越规范,评价标准变得越来越精确。在“标准”的教育政策引导下,所有教育活动都在预先计划好的时间和地点按照预先计划好的方式按部就班地进行,学生们接触到的都是基本相同的经验,从而同时使得教师之间、学习者之间的差异性越来越弱,育化和受育的多样性变得越来越低。

四、未来的教师与教师的未来

教育的核心问题是经验,经验如同常识一样,不在于特异性的知识,而在于如何被有意义及多样化地塑造。在前述讨论的基础上,本节回归到“未来的教师”和“教师的未来”的问题上来。实际上,前者本质上是一个教育的职业问题,而后者则是教育的职业内涵和价值取向问题。不同于专用人工智能对数据搜集和分析,通用人工智能强调对个体经验的建构。教师的职业内容及其职业发展不仅离不开经验,而且是紧紧围绕着经验而开展的。在这样的背景下,“悲观论”和“乐观论”都是片面和偏激的,智能的发展离不开后天经验的塑造,因此,教师将在未来社会中扮演举足轻重的角色。

(一)未来的教师

在不同的理论视角下,未来教师将具有不同的主体形式。依据专用人工智能的相关理论,未来教师的主体由人类构成,因为机器将永远无法产生真正的智能,既无情感也无价值观。故而,尽管许多操作性和重复性的教学事务可由机器完成,但人工智能终究无法替代人类而只能扮演各种辅助性的教学助手的角色。或者更进一步说,即便教学过程全面实现自动化和网络化,优秀课程的开发与设计仍然依赖于人类教师的实践经验,人类教学经验的传承中有更多无法言之的内隐知识属于感受性的具身知识,而这些知识永远无法被机器理解。因此,该视角反映的是“乐观派”对未来教师的预期。“悲观派”则以“奇点”为依据,认为未来的教师必定以机器为主体,因为人类智能是相当有限的,具有理性和逻辑思维的同时也表现出非理性和非逻辑的特点。但是,超级智能却没有这样的忧虑,它能以人类所不能理解的方式深刻洞察自然界和人类社会,更别说人类的情感和意识了。拥有超级智能的机器教师具有极强的教学能力,直接向学生提供毫无冗余的个性化教育方案,使学生在学习道路上走最短的“捷径”从而成效斐然。然而,不论教师、学生还是家长,亦或是教育研究者或人工智能专家,却没有人知道超级智能为何能够得到如此高效的教学效果,人们只是知道“相信并听从,照做就是”。于是,在超级智能的机器教师碾压下,人类教师毫无优势可言,教师这一职业也将不复存在——超级智能终将发现教授人类的必要性越来越小,与其让经常犯错的人类做事不如教授给超级智能体来做更有意义——人类最终沦落为机器的宠物,这也是2017年10月23日《纽约客》杂志封面的寓意。

实际上,以上两种对未来教师主体的分析都是错误的,不是囿于技术局限,就是脱离科学理论的遐想。在通用人工智能视角下,人类智能的背后存在着一般意义下的智能理论,而该理论也可以在诸如NARS这样的计算机系统中实现。此类系统具有与人类智能相仿的认知特征,却没有生物学特性。因此,这样的智能系统(或智能机器人)既不是一个完美的复制品,也不是人类智能的廉价替代品,而是与人“平行的”另一种智能形态。另一方面,由于智能主体中经验感受性的建构特性,智能系统(或智能机器人)即便装备了与人类功能相同的传感器,也无法真正拥有与人类完全一致的感觉。反之,人类也无法体验到智能系统(或智能机器人)的所有感受细节。因此,即使面对相同的客观物理环境,二者的经验也不会相同,而且人类群体与人工智能群体的社会性经验差异就更大了。然而,在差异背后也要注意到二者经验的共同点:人与智能机器具有相同的智能原理和相似的认知过程,决定了二者具有大致相同的经验加工机制。与此同时,共同的物理世界和相近的社群内生规约又构成人类与智能机器经验内容中一致性的部分,故而,人与机器之间并非不能沟通,在绝大多数情况下,二者是可以相互交流和理解的。所以,未来教师的主体由人类教师和机器教师共同构成,由于二者之间在功能上具有交集,因此存在一定程度上的竞争关系。未来,人类教师可以教授人类学生,机器教师可以教授机器学生,人类学生也可以向机器教师求教(如围棋界研究AlphaGo的新棋路),机器学生也可以向人类教师求教。人类教师将与机器教师共同承担教学任务,教师这个职业非但不会消亡还将变得“炙手可热”。也就是说,优秀的人才和“好用的”机器都是教出来的。

(二)教师的未来

除了技术手段日新月异以外,教师未来的工作内容与当前并无本质差别。教师在未来所面临的最大挑战,不是经验的传授,而是经验的建构。

首先,经验内容的审视。人类的经验世界不等同于生理组织,大脑内部经验活动的内容无法使用设备直接探测。因此,人类的行为数据在分析和洞察学习者方面依旧具有无可撼动的地位。作为学习者经验的重要载体,“大”数据仍旧备受欢迎,但是其重心却与当前“大数据”恰好相反。实际上,大数据之“大”有横向和纵向两个不同的维度。在学校教育范畴内,横向的大数据为接近全体学生样本的数据集合,其覆盖性突出地表现为对不同个体的涵盖;纵向的大数据为特定学生样本的数据集,其覆盖性突出地表现为对该学生历时性、情境性数据的涵盖。也就是说,在实践层面上,技术对教育的影响有且只有通过个体水平的改变才能表现为群体水平的提升,而不是相反。所以,“广积粮”是当前大数据的特点,不仅数据价值密度低,还面临隐私侵犯的风险;“深挖洞”则是未来大数据的特点,表现为数据来源的选择性和典型性以及数据维度的丰富性和追踪的长期性。由于学习者的经验内容彼此均不完全相同甚至差异极大,对未来的教师而言,对学习者的真正理解和有效教导将在个体层次上深入开展,朝向真正的“个性化”教育,也就是说,对个体学习者A经验的考察,重点并非A与他人分数、能力的比较,而是从A的经验建构过程进行分析和解读。换一个角度讲,教师在未来比拼的不是学生的分数,而是发现和了解学生的能力。与此同时,机器教师尽管可以完成某些常规教学活动,但对人类学生的体察永远不能做到“感同身受”,所以对人类学生的关键指导只能由人类教师完成。然而,类似的是,人类教师对机器学生也存在同样的局限性,所以机器教师与人类教师今后将相互配合但各有侧重,尽管在某些例行性教学事务上人类教师面临来自机器教师的竞争和替代,但在各自擅长的特定教学情境中却能够发挥自身优势而形成互补。

其次,经验建构的原理。在通用人工智能理论视角下,可以从微观层面、中观层面和宏观层面来阐述。①在微观层面,不论是人脑还是通用人工智能系统的记忆中,既不存在绝对保真的知识,也没有一成不变的真理,有的只是在开放环境下随时接受挑战的经验。事实上,智能主体经验空间的可塑性,决定了主体接受教育的必然性和必要性。在细节上,经验具有陈述和主观判断两个维度。其中,知识描述可以成为经验的陈述,主观判断(又称真值)由证据累积的“正确率”和“可信度”共同表征。尽管可信度通常随支撑该信念的正面证据的增加而提升(如对于某知识点,学生做过的题目越多,正确率越高其信心也越高),但是也有对少数证据进行泛化强化导致正确率不高但可信度极高的“似懂非懂”的情况(如学生声称“知识点已经掌握”但“仍旧做不对题目”)。在微观层面上,教师未来需要借助知识空间、内隐测量、无意识测验等技术探查学生经验背后的真实主观判断。②在中观层面,主体经验通过意义的相互联结形成网状结构(即经验空间),不是一盘散沙而是有机交融。经验空间并非分布均匀,而是密度各异。如果按照密度由紧密到稀疏的分布排序,可以将经验空间由图结构转化为树结构,成为经验树。越靠近叶节点,经验的陈述越具体,陈述的证据总量越小,可信度越低。反之,越靠近根节点,经验的陈述越抽象,陈述的证据总量越大,可信度越高。经验系统具有层级结构,树根正是抽象自我,抽象自我的高可信度对应于“自我存在的合理性和必要性”这种天然心理倾向的表达。树根向枝叶延伸对应于从人格、社会角色等高度抽象的心理概念到认知风格、语言、学科知识、生活经验等更为具体的陈述。经验系统层级结构的重要特征是上层信念(元认知)对下层信念具有更大的影响力:信念越抽象,正确率和可信度越高,对下层信念的影响力就越大。然而,叶节点并不必然与合适的上层信念相连接,也未必一定能够形成更为适合或合理的新的抽象信念。所以,在中观层面,教师未来工作的重点不是给学生布置海量的习题,而是通过精讲精练有目的、有针对性地引入新经验,同时注重上层经验的生成与巩固,让学生掌握学会学习和正确对待自己及他人的能力。③宏观层面,教育不只是经验树叶节点知识的生长,而是对经验树整体的捏合、塑造甚至再生,是面向人性的有趣的教育、幸福的教育和生态的教育。然而,不论是高层的“社会主义核心价值观”或“爱国主义”,还是中层的“核心素养”,社会抽象经验(德行知识)既非某种具体知识,也非诸如身体自我之类的内在指向。社会抽象经验不会简单地由于知道而被直接接受,而是在与所有相关经验的互动中被强化、被抽象和被建构。因此,作为教育价值的根本性体现,对观念的树立不只是知识讲解、课程设计、考核评价,而是依赖于学校内外、家庭内外、线上线下的全方位引导。在宏观层面,教师未来工作的重大转向正是把对学习者的关注从成绩转移到个性塑造上来,鼓励学生获得更多的生活体验、激励学生探寻更多的发展潜能、启发学生对高层经验更多的深层加工。一言以蔽之,便是培养人格完善的“观察员和思考者”,而非装载知识的“移动硬盘”,亦不是熟练操作的“技能机器”。

五、总结

人工智能技术必将对人类社会产生意义深远的影响。现如今,计算机的存储量越来越大,但稳定性却越来越差,其计算能力越来越强,但价格越来越低廉。在这样的背景下,专用人工智能依附“奇点”论,产生了“悲观派”和“乐观派”两种极端思潮。通用人工智能为问题的探究开启了另一扇窗:人类教师是否会被机器教师替代,并不存在简单的回答;人类教师如何与机器教师协同工作,也不存在简单的回答。认为机器教师无法拥有情感所以不能取代人类教师的想法是错误的,实际上,机器教师是可以替代人类教师的,特别是那些遵循固有模式“讲教材”的人类教师会遭到机器教师的挑战,使得会“教”而不会“育”的人类教师将被无情淘汰,毕竟机器教师在了解学生知识结构方面具有更大的优势。实际上,警钟已鸣响:未来对人类教师的要求非但不会降低,反而变得更高。

与其他职业不同,教育作为一种“元职业”,未来非但不会萎缩和消亡,反而会更加兴盛和蓬勃。同时,教师也并不会由于人工智能技术的存在和渗透而数量锐减。恰恰相反,未来教师岗位需求增多的同时也对教师综合能力的要求大幅提高。专用人工智能将教师从繁冗的事务性教学工作中抽离出来,通用人工智能则不仅要求教师回归教育本源而专注于学生个体化的经验建构,还要掌握机器教育的基本理论和技能,学校教育的主要目标必将从知识传承转向经验生长。因此,不论人类还是智能机器,教师作为灵魂的塑造者,永远不会缺席或“被”缺席。

猜你喜欢

奇点机器经验
机器狗
机器狗
2021年第20期“最值得推广的经验”评选
校中有笑
校中有笑
校中有笑
奇点迷光(上)
经验
2018年第20期“最值得推广的经验”评选
未来机器城