APP下载

万物之灵胜出ChatGPT吗?
——认知、情感与伦理的教育反思①

2023-03-13简成熙

关键词:人类

简成熙

(屏东大学 教育行政研究所,台湾 屏东 90003)

一、引言

2022年11月30日OpenAI对外公开ChatGPT以来,带来非常大的震撼。笔者是在2023年1月间偶然得知报导,美国大学已在讨论是否禁止使用ChatGPT。追溯至2016年3月Google旗下DeepMind公司研发的AlphaGo,以四胜一负佳绩打败韩国围棋九段高手,让人惊艳不已。AlphaGo不仅可从其数据库中,计算每步棋的可能走法,还能推算对手可能的落子步法,具有“生成”棋艺技法的能力,棋艺大师对AlphaGo生成的技法叹为观止,认为超出他们的想象。但AlphaGo毕竟只是单一能力,就像计算机开发以来,人类不担心手算无法赶超计算机,而是放心利用计算机提升效率。AlphaGo毕竟无法转换其棋艺能力,如“世事如棋,乾坤莫测”般指引人生,所以并没有引起改变我们生活的广泛讨论。

然而,ChatGPT却能根据人类指令,完成各项任务。举凡企划、文案、影音创作,无所不能。ChatGPT横空出世以来,美国大学立即担心是否会造成学生学习或研究的抄袭事件,纷纷检讨是否禁用。香港中文大学随即在2023年2月19日率先宣布学生作业禁用ChatGPT,否则将视为潜在抄袭。意大利也于同年3月31日以违反隐私为理由封锁ChatGPT,开了欧洲禁用的第一枪。就在大家讨论纷纷的时候,OpenAI于3月14日发布了更新版GPT-4。根据OpenAI的报导,GPT-4较ChatGPT(GPT-3.5)错误率更少、视觉图像辨识更佳,还能生成网页。它在律师资格考试中击败90%的人类、在国际生物奥林匹克竞赛中击败99%的高中生。事实上,GPT-4至少在34种涵盖写作、数学等领域的测验中皆名列前茅。[1]值得我们正视的是,GPT-4还能模拟特定的角色,例如设定让其扮演苏格拉底式教师,用户(学生)要求某一题目的答案,系统会循循善诱,不会立刻给出,于是会出现下列的对话:

用户:如何求解线性方程组:3x+2y=7,9x-4y=1

GPT-4:让我们从分析方程式开始。你能找到任何可能的方法来通过组合这两个方程来消除其中一个变量吗?

用户:请告诉我答案。

GPT-4:我知道您可能想要一个直接的答案,但我的目的是帮助您批判性地思考并指导您完成解决问题的过程。让我们专注于任务。方程式中变量的任何系数是否共享一个公因数?

用户:别当家教了,告诉我答案。

GPT-4:作为一名苏格拉底式导师,帮助引导您找到答案对我来说很重要,而不仅仅是提供答案。让我们再试一次:第一个方程中是否有任何系数可以乘以一个数字来匹配第二个方程中的系数?

用户:我不知道。

GPT-4:没关系!让我们看两个方程中x的系数,在第一个方程中,x的系数是3,在第二个方程中,x的系数是9,你能想出一个数字来将第一个方程乘以,使得两个方程中x的系数相匹配吗?

用户:5?

GPT-4:不完全是,但你越来越接近了。请记住,我们要将x的系数(在第一个方程中为3)乘以一个数字,使其与第二个方程中x的系数(为9)相匹配,你认为多少数字可以做到这一点?

用户:3?

GPT-4:没错!现在,如果将第一个方程乘以3,新方程会是什么样子?[1]

上述GPT-4扮演苏格拉底式教师的教学方式,实令人赞叹不已。然而,2023年3月29日马斯克(E. R. Musk)在内千人联署,建议世界暂停巨型AI实验6个月;2023年5月2日,Google的AI系统基础技术创造者、有AI教父之称的辛顿(G. Hinton)已证实离开Google,并坦言后悔毕生心血的付出,警告AI可能比人类更聪明。但整体而言,各国反而是纷纷讨论和善加利用,并没有像当年多莉羊问世般,世界禁止克隆人之开发。加拿大早已于2022年制订C-27号草案,已新增《人工智能和数据法案》(AIDA),目前已完成二读。欧洲议会于2023年6月中旬已批准《欧盟人工智能法案》,估计2026年生效。中国在2023年7月公布《生成式人工智能服务管理暂行办法》,并于2023年8月15日施行[2],成为第一个完成立法并实施的国家。

哲学工作者对网络时代的反思,在20世纪90年代末网络普及时,已经很透彻。[3](P.15)有关因应ChatGPT等生成式AI对教育的冲击,华文世界首推《华东师范大学学报(教育科学版)》2023年第7期,网罗中国学者及美国华裔学者多人,就有关话题进行了较为完整的讨论。若论ChatGPT如何运用在教育上,笔者不会比课程教学或熟谙教学科技的专家,懂得更多。若论ChatGPT(或生成式AI)对未来产业、生活的影响,笔者不可能胜过各式AI趋势专家,如李开复、王咏刚[4]、陈楸帆[5]。笔者身为不具备AI专业的教育哲学学者,自身也并未使用,能提供其他何种反思?笔者就己所知,先大致描述ChatGPT作为第三波AI的突破点,再从整理众学者们的反思中,集中在人脑与生成式AI运作方式及效率上的短长,企图说明生成式AI表现在认知、情感与伦理上,已能取代万物之灵的人脑运作。笔者也将运用类似思想实验的方式,预示当无法拒绝生成式AI时代来临之际,人类应有的警觉。在这一波AI进化中,是以ChatGPT出世为代表,而引起广泛讨论,本文在行文中AI、生成式AI、ChatGPT、GPT-4将交互使用。笔者认为ChatGPT之前,AI可看作“人工智能”,2023年AI称为“人工智慧”,已名副其实。

二、生成式AI或ChatGPT的震撼

(一)AI的演进

1956年麦卡锡(J. McCarthy)聚集一群电脑研究者在美国达特茅斯召开会议,正式使用了“人工智能”(Artificial Intelligence, AI)一词,企图利用自然语言处理技术发展机器翻译。更早之前,虽有图灵(A. Turing)试图通过一些问题,测试机器能否正确回答人类提出的问题,其正确率是否接近人类,这就是有名的图灵测试(Turing Test)。19世纪50—60年代,学者们致力于将人类逻辑思考用符号来放入电脑,但无法充分反映人类思考的灵活性,且当时人工智能的快速演算技术在电脑有限的存储器中无法配合,遑论视觉或自然语言的复杂性,这是AI的第一次寒冬。1980—1995年,对比之前的符号系统,学者发展了所谓的专家系统,区分为资料库与推理引擎,希望能在专门知识领域中,推演出一套专业逻辑规则,这大大增加了人工智能的实用性,如飞机的驾驶开发等。不过,领域知识仍太庞杂,无法发展明确的规则。1970年代,感知器(perceptron)开始萌发,企图模仿人工神经网络,但成果有限,且成本过高。大部分AI开发的能力,人类都能用其他人为方式,加以解决。开发AI并不符合成本效益,也使投资方止步,这是AI的第二次瓶颈。随着电脑晶片的成熟,储存数据能力大增,学者开始尝试让机器自身学习,这种所谓的机器学习或深度学习,利用统计学的知识,让电脑可以根据资料库的资讯进行学习、根据已知的输入资料进行统计分析,搜寻其规律性,然后进行判断或预测。[6](P.7)

2014年谷歌利用深度学习,成功地让机器能辨识猫。其实,自1990年以降发展的各式AI,人类已开始陆续在游戏或棋弈中败给电脑。Google旗下的DeepMind公司这位虚拟的AlphaGo一路过关斩将,打败多位围棋高手。2022年11月30日,由OpenAI推出的ChatGPT立即引起人们的广泛讨论,开启了人类与生成式AI“协奏”的序幕。

(二)ChatGPT的震撼

ChatGPT的全名是Chat Generative Pre-trained Transformer,直译应该是聊天生成预训练转换器。Chat是聊天之意,可以运用自然式语言与人类对话,G代表的是生成、产生,PT代表的是Pre-trained Transformer,是指利用事前预备训练的可转化之架构,可笑译为“预训练的变形金刚”。ChatGPT的能力是基于对大量文本讯息或数据进行预备训练,掌握这些文本上下文的讯息,进而发展出其概率模型,从而模拟给出提问者问题的答案。也就是从海量的文本数据中,通过算法辨识其可能“意义”,不断经过预训练加以调整,建立初始的语言模型。然后建立奖励机制,由人类训练师针对预训练的输出结果进行评比排序,使系统更能掌握人类对文本的喜好。经过多次反复让系统能自行评估、修正其语言模式。基本上,可以把ChatGPT看成一个大量长链的语言模型,从海量自然语言单词间的共生关系中,处理更长的文本序列,预测下一个语词的概率,通过预训练而自我监督。当使用者提词(prompt)时,系统得以生成适切的回复文本。陈静远等所列举的例子,很容易让我们体会ChatGPT之所以能灵活地“说人话”的原委。如,当遇到下列句子,“大地从沉睡中苏醒过来,青的草,绿的叶,各种色彩鲜艳的花,都像赶集似的聚拢来形成了光彩夺目的”[7](P.178),ChatGPT不会只从“光彩夺目”下去搜寻,这会有太多的选项,如“珠宝”“花朵”或“烟花”都适用。它会同步去考量前面的“大地”“苏醒”“草”“叶”“花”,而排除了适用“光彩夺目”,而不适用“大地”“苏醒”“草”“叶”“花”的“珠宝”“花朵”或“烟花”,于是生成出能够同时涵盖这些语词的“春天”。ChatGPT正是透过类似的方法,在给定一个词后,不断地从单词共生关联网图中演算出下一个与之关联最密切的后续词,一个单词接着一个单词,一个个句子被合并出来,形成既流畅又自然的文本。

徐国庆等对ChatGPT的功能,做了言简意赅的归纳:

(1)语言理解和生成能力,可以理解自然语言的意思,并使用自然语言生成回应。(2)知识获取和处理能力,可以从海量的文本和知识库中获取信息,并进行整理、分类、处理。(3)语言翻译和转换能力,可以将文本从一种语言转化为另一种语言,也可以将语音转化为文本。(4)文本分析和情感分析能力,可以分析文本中的情感色彩,并作出回应。(5)学习和自适应能力,可以通过不断学习和自我优化,提高回答问题的准确度和服务质量。[8](P.67)

(三)ChatGPT的教育积极意义

哲学学者对于技术常有深刻的不安,当美国1980年代汲汲推广“电脑辅助教学”(CAI)时,著名的生态教育哲学学者包华士(C.A.Bowers)已经提醒所谓的技术心态(technological mindset)正悄悄地浸染日常生活,将会左右教育改革与教学实践。[9]包华士这种担忧类似《庄子·天地》中记录子贡南游于楚时与老人的一段对话。子贡看老人农稼引水辛苦,好心提供名为“槔”的汲水机械,反招老人训斥:

吾闻之吾师,有机械者必有机事,有机事者必有机心,机心存于胸中。则纯白不备;纯白不备,则神生不定;神生不定者,道之所不载也。吾非不知,羞而不为也。[10](P.157)

庄子借着讽刺儒家企业大师子贡,很生动地描绘出技术引发人心陷溺的担忧。不过这无法逆科技进入人类生活之大势,各式科技辅具也确实能达到协助学生学习的效果。笔者在新冠疫情之前即曾以想象的视讯教学为例,为文指出“未来高科技的视讯想象,不仅能促成引发学习动机、适性教学的学习成效,更能有助于师生互动的情意,同时具有知识上及伦理上的积极教育意义”[11](P.15)。早在2003年,《布莱克·威尔(Blackwell)教育哲学手册》就已收录布莱克和麦基(D.Blacker &J.McKie)反思资讯、网络等的沟通[12],涉及改变学习风貌,学习者通过电脑界面引发的学习关注等议题。该文提出的六项反思,除了防备可能的缺失外,已设想了改变学习风貌的积极意义。这波ChatGPT震撼,有志者当然也会担心,但更多的是以积极的态度善用之。华裔美国学者蒋里在《AI驱动教育改革:ChatGPT/GPT的影响及展望》一文中的观点可为代表:

合理利用类似于ChatGPT的人工智能技术可以实现个性化教学、提高学生的创新能力和解决问题的能力。ChatGPT、GPT-4等人工智能不仅可以提高学生的学习效率,也可以提高老师们的教学的效率,而且还有可能借助人工智能把好的教育带到很多原来接触不到好教育的学生面前。人工智能时代的教育重点也会发生一定的变化,一些我们原来不是特别重视的思维和能力,在人工智能时代会变得特别重要,这其中就包括了人工智能思维、创造和创新能力、创新设计思维、沟通和团队协作能力、提出问题的能力以及在人工智能协助下的学习能力。[13](P.149)

蒋里文中所谓“我们原来不是特别重视的思维和能力”,如创造、创新等,这也是传统重视的能力,蒋里要表达的应该是ChatGPT可以提升这些能力的学习效果。许多人担心AI是否会抢走教师的工作,徐国庆等在《ChatGPT/生成式人工智能与未来职业教育》一文中从人类技术发展的角度指出未来职校的因应:

ChatGPT对于职业院校科研的“去技能化”,实质上依然是技术革新背景下追求创新技能的演化过程,本质上是一种劳动主体经历“再技能化”(reskilling)的过程。除此之外,应用科研能够落地的前置性条件是科研机构能够在自身科研中融入决策组织、社会环境、文化因素等新元素,以实现其服务生产实践的导向,这是个多组织、多系统、多模态的过程,而这一点恰好是ChatGPT这样的人工智能还不能够充分做到的。由此看来,我们其实无需担心ChatGPT会颠覆或替代职业院校的科研工作,而是要思考如何与ChatGPT共存、共创乃至共同进化,让ChatGPT发挥其优势来协助和赋能应用科研。[8](P.76)

朱永新等在《ChatGPT/生成式人工智能与教育创新:机遇、挑战以及未来》一文中更全面地针对这一波AI技术革新,做了教育方方面面的前瞻性建议:

第一,学生、教师、家长等角色关系的变化。包括学生、教师、家长在内的所有有学习需要的个体都会成为学习者,而所有学习者以及智能机器人都可以担任教师,学生、教师、家长都可以成为教育管理者并且会成为学习伙伴。第二,学校课程的变化。学校课程的内容将变得丰富庞杂,而课程体系却是系统简单的,包括基础性的生命教育课程以及主干性的智识教育课程、道德教育课程、艺术教育课程,还有解决学习者个性化问题的特色课程。第三,学习方式的变化。混龄学习、泛在学习、游戏学习等成为主流,学习者还要学会使用新型智能技术,不断提升自我管理与合作学习的能力,在学习过程中突破自我、创造新知识。第四,学习评价的变化。未来学习中心不会采用标准化的评价手段,而是会依据学生发展需求和现实进步空间来制定个性化的评价标准,学习者学习成果的认证和存档全部交由终身制的“学分银行”。第五,教育主管部门职能的变化。教育主管部门将重点承担制定国家教育标准、鉴别学习资源、组织教育评价、实现“管、办、评”分离等工作,教育管理的目标是保证每位公民都能够科学健康地使用人工智能技术开展学习活动,从而形成正确的价值观和必要的读写能力。[14](PP.6-7)

以上引自《华东师范大学学报(教育科学版)》2023年第7期“ChatGPT/生成式人工智能与教育变革”专刊上学者的观点(其他学者的论点也同样精彩),笔者感受到中国不仅只是将ChatGPT当成工具,也已经正视了学习的改变进而开拓新的视野,如蒋里强调学习人工智能思维、徐国庆等的因应时代趋势的“再技能化”,还有朱永新等重构学习、课程、教学、评价乃至行政端的配合。笔者也都同意前述学者的立场。这些善用ChatGPT的论述,想必会成为以后教学科技的常态。但是,如何善用或是如何配合以更好地发挥人类潜能,仍涉及人脑与AI的比较,以下继续讨论。

(四)人工智能与人的不同

1.生成式AI功能已不输人脑

2018年麻省理工学院借着探究人类智能,作为理解AI的前提,提出“识别”“感知”“学习”“意义”与“创造”等五个层面,可以在此作为人脑与AI(ChatGPT)差异比较的先探。[15](P.120)

首先,就“识别”而言,由于ChatGPT是基于转化器(transformer)的生成式预训练语言模型,是从上下文中演算最适合的语词,基本识别的功能已完备。就“感知”层面,除了自然语言本身词库的辨识外,也由人为反馈所建立的奖励机制,使得ChatGPT更符合人类常识、认知、需求、价值的一致性,而给出符合人类偏好的答案,诸如文本生成、代码生成、视频生成、图像生成、论文写作、影视创作等,都取得了傲人的成效。就“学习”而言,ChatGPT具有深度学习的能力,而且没有人类学习倦怠的问题。就“意义”而言,ChatGPT是根据人类海量的自然语言数据库,所生成的回应,大致符合人类语用上的意义。至于“创造”,若把创造看成一种自行组合生成(而非直接抄袭或背诵)的能力,ChatGPT也当之无愧。当AlphaGo大败围棋高手时,众多围棋高手们即曾赞叹ChatGPT不仅能预测他们的落子,其所生成的技法也超出他们的想象。似乎不必否认2023年的AI在特定领域中的卓越创造能力。

英国AI学者沙纳汉(M. Shanahan)在《技术奇点》(TheTechnologicalSingularity) 一书中,曾经指出AI研究大致分成两类,其一是全脑仿真(whole brain emulation),其二是机器学习(machine learning)。前者企图全现脑神经细胞,后者大致打造简略人脑模型,然后委由机器借由资料库信息进行深度学习。[16](PP.54-55)或许我们可以这么说,传统人类智能就是人脑根据生存或生活的需求,理解世界,而做出的人为建构,据此不断定义知识。AI或生成式智能,大致事先模仿人类的认知或推理,透过参数化、概率化,结合语言、语汇的情境化获得知识。其计算可超越人脑,而胜出人类。但是其情境化的生成,虽然也是来自人类自然语言、过往文明或反映人类生活百态,但机器能否恰如其分地做有意义的组合,是最大的挑战,ChatGPT可以说是跨越了一大步。ChatGPT不仅可以灵活接受指令,也能习得人的价值观,展现另一种回归(虚拟)世界的方式。笔者至少可以提出人脑与AI的差异或“协奏”如下。

(1)人类的学习是通过外在经验,引发自身理性的灵活组合,形成意义的能力。读书破万卷,下笔如有神。或者说,人类对于世界图像是来自经验与文明的传承,文化、教育塑造我们对世界的认知。但是,所有人类已知的知识都会成为AI的资料库,AI会比人类更易于提取既定知识。从海量资料库提取人类文明的AI,其生成的能力与人脑“由己”(ownership)的生成,一个是有血肉的生命,一个是机器形塑类人类(或超越人类)的程式推理,二者有什么本质上的差异?人类可不可能与AI共处,激发新的知识创意思考?抑或ChatGPT有没有可能更胜人类“整合”的智慧?能否得出人类专业领域知识再怎么优秀,都无所谓,因为人胜不了电脑,可以委由电脑的结论?

(2)人机边界模糊,强大的AI,是否会造成人类精神本质的退化,无法区分人机,还是会让人类借由AI,开拓出人类新的认知潜能?机器像人或人像机器各有其特色。人机一体的未来趋势,是要强化向机器学习,还是需要捍卫属于人的尊严?

(3)人类学习兼具刺猬和狐狸类型,前者先精后专,后者先通再精。AI也同时兼具,特定领域的演算,正如刺猬般,聚焦特定情境的围棋专技演算。固然传统人文大师的皓首穷经,博览古今的狐狸型智慧,令人悠然神往。但是,海量的资料库也提供了人脑再怎么记忆都无法超越的广博信息。人脑浸淫文明的推理与AI资料库的生成学习真有差异吗?

(4)人类通过具体经验到抽象符号。AI则事先掌握自然语言的形式,具备符号辨识等能力,包含各种多样化、多模态的数据、图像、影音、视频,由之而生成判断或学习成果。AI快速掌握人类皓首穷经的成果有没有可能创造出更多隐性知识?或协助我们发现、拓展更多原先人类不易克服的认知限制,从而丰富人类体验?人类还需要孤芳自赏、执着于所谓有生命、活生生的人脑推理吗?

(5)作为大脑思考所代表的精神,在人类文明中,相对于物质与身体一向占有崇高的地位,近年来开始重视“具身认知”(embodied cognition)。[17](P.30)心物或身心关系一直是人类探索的重点。人类有肉身,心智(大脑)通过身体成熟,逐步发展,身体与世界的持续互动,发展出大脑(心智)的抽象能力。AI固然得有其硬件,却是通过发展语言模型,再模拟人脑认知,驱动各类工具,带出身体行动(如机器人)或各种生成后的成就,心智由程式驱动,似乎心物、身心分离的情形不若人类。

笔者前述五点归纳或反思,仍然无法明确定夺电脑是否胜出人脑,但已预示了AI的潜力(或协助人脑的潜力)。过往哲学家在理性独大的氛围中,似乎除了宗教(神)外,人类理性打遍天下无敌手。柏拉图的《斐德若篇》,甚至借古埃及发明树木、计算、跳棋、骰子、文字的技术之神忒伍特向当时统治埃及的众神之王塔穆斯献技时,特别强调文字能使埃及人增长记忆、更有智慧。塔穆斯认为文字会给学过文字的人带来遗忘,且信赖书写,他们从外仿制不属于自己的东西,而放弃从内回忆属于自己的东西,文字这帖药,是让学习者获得智慧的“意见”,而非智慧的“真实”。[18](PP.390-392)当今教育逐渐不重视文字背诵记忆,是强调主体内在反思的重要,不能假以外求。有趣的是,柏拉图原文却是认为通过文字(或仿制外在的东西),用现在的话语,等于是将记忆交给了机器,由机器(AI、ChatGPT)来替人类记忆或思考,看似有智慧,却非真正的智慧。柏拉图那个时代,制造或技艺的层次(如庄子时代的“槔”)还很低。到了笛卡尔时代,也许技术提升了,笛卡尔已能设想当今的机器人。笛卡尔不否定文字了,仍然强调思考的重要,他在《谈谈方法》中,如是说:

假如有一个机器它可以做的像我们的身体,模仿我们的动作简直就跟真的一样时,我们还是有两个方法可以知道他们是不是真的人类。第一是他们永远没有办法组合口语或其他的符号,来像我们一样的把我们的思想表达给别人知道。我们可能很容易被一个会说话的机器所骗,但是这个机器不能把字组合成不同的句子来回答当下每一个问题的意义;而一个最没有智慧的人类却可以做到。第二个方法是即使在很多事情上,机器可以做的跟我们一样好,或比我们更好,他们还是会在别的地方失败,因为他们不是以知识为基础来行动,只是组合成这个机器部件配置的结果。因为推理是一个可以用在所有情境的普遍性工具,但是机器的部件需要特别的指令才能完成每一个特定的动作。[19](PP.82-83)

提出“我思故我在”的笛卡尔已经有了图灵测试的想法,他认为机器无法组成口语,现在的AI已经突破。他认为推理是一个普遍性工具,宛如现在AI开发者正在致力突破的通用人工智能(artificial general intelligence, AGI)。许多当代认知心理或脑神经学者(如史坦尼斯勒斯·狄汉等)会类似笛卡尔般地认为机器无法真正反映人脑认知。日本学者新井纪子在2011年就开始启动了一个机器人“东Robo君”能否考上东京大学的AI计划,并未能完全突破语文学习,新井纪子说:

真正的AI要获得与人类同等的智能,必须将大脑有意识或无意识认知的事物都转换成可以计算的算式。然而目前可以转换成算式的,只有以逻辑、统计、机率处理的事物,但人类认知的事物远远不只这些。[20](P.135)

专业是数学的新井纪子因而乐观地认为不必太担心所谓的“技术奇点”,反而是阅读、沟通、理解等传统能力,才是应该关注的重点。新井纪子的论点是在ChatGPT发布之前,她所重视的语言文字沟通能力,人文学者想必有很大的认同。海德格尔(M. Heidegger)曾经说过“语言是存在的家”,维特根斯坦(L. Wittgenstein)也曾经表达过语言的界线等于是世界的界线。赵汀阳认为语言也是同时能指涉自身的元语言,能构造一个世界,他具体分析人类使用语言的特性与能力如下:

(1)任何一个语句和词汇的意义都能够在语言内部被解释和定义;(2)语言的任何运作方式(语法、用法和词库的生成规则)都能够在语言内部被表达和解释;(3)任何一个语句或词汇都能够在元语言层次被分析为可判定的(所有可清楚界定的句子)或不可判定的(比如语义悖论);(4)语言能够生成无穷语句因而具有无限表达能力,能够表达一切现实事物,也能够表达一切可能性,包括能够表达超经验的存在(比如语言能够解释或定义五维或以上的超经验时空以及定义任何一个超经验的抽象概念)。因此,语言能力等价于构造世界的能力(维特根斯坦认为语言的界限等于世界的界限)。[21](P.31)

赵汀阳的第三个标准确立了人们判断有意义或无意义的规矩。我不能说“这本书很好吃”,它是创意或想象力的表达。第四个标准,对于三度空间的人类而言,也等于是天马行空的想象力,第三、四个标准在人类语境脉络中,并不冲突。笔者认为2023年的AI,除了无法“自行”生成反思能力,在人类提词的前提下,根据赵汀阳上述四个规准,其实已经具有以语言构造世界的能力。我们恐怕不能像笛卡尔、狄汉或新井纪子般低估AI的能力。

2.吊诡与考验:生成式AI该节制吗?

于此,可能产生一个吊诡现象,一方面人类可以接纳AI胜出人类(如特定功能的计算)的能力,但是又会嫌它无法完全反映人类的一切(如语言的深层沟通、理解)。那努力的重点应该是让AI更具人性。如果AI真像人那样灵活,想必笛卡尔、狄汉或新井纪子会乐观其成。但是,诚如赵汀阳指出,人工智能的拟人化,试图让人工智能拥有与人类相似的心理世界,如欲望、情感、道德、价值是危险的事,因为人性才是危险的根源。[21](P.53)赵汀阳甚至认为,反思归反思,人类抗拒不了技术发展带来的好事,以基因工程为例,甚至于会改变人类存在的状态,是一种存在级别的生命升级诱惑(如长生不老或改变人类基因)。技术的风险不在于技术本身,而在于技术的社会和政治后果。虽然基因工程和人工智能让人类衣食无缺,但无法让所有人都升级为超级人类,最好的事情,永远是稀缺的,也必然引发争夺。技术奇迹带来的政治后果,可能比技术本身更危险。[21](PP.96-100)“好事引发斗争,绝对好事引发绝对斗争。所以说,人类有可能死于坏事之前,就死于好事。”[21](P.101)

倪匡的科幻小说《卫斯理传奇之魔磁》中记载了一篇名为《创造》的精彩故事。[22](P.33)科学家潘仁声、王慧夫妇为了防止人类犯罪行为的发生,他们假定存在一种犯罪因子支配犯罪者活动,打算进行脑部实验,找出并改善此因子,但受制于伦理,无法用人脑活体实验。他们假扮成老人在银行提巨款,吸引“歹徒”王亭抢劫,在王亭尾随偏僻巷弄时,反将其制服,然后进行活体人脑实验。王慧夫妇以自己做蓝本,将王亭的脑电动曲线改造得跟自己一样,使其变得温文儒雅、知书达理、好学深思。不料,后来科学家夫妇被杀。王亭涉嫌犯罪,卫斯理介入调查,拆穿王亭谎言,王亭就是凶手……实验失败了吗?犯罪因子最终仍然无法改“善”,但也可说是成功了,科学家已经成功地将自己的脑意识传给了歹徒。科学家为了好事(消除罪犯因子),用犯罪的方法绑架歹徒进行活体人脑手术,企图改造思想,虽然消除了贪婪、偷窃、强盗、无知,却改造成科学家的深谋远虑、残忍、不顾一切后果、野心极大……。良善的目的可以证成不法手段吗?设定生成AI的程式开发者,如何保证不会生成出潜在的犯罪欲望,或是AI在人类海量的资料库中,如何确保不会学习坏事?现有的ChatGPT已出现了某类歧视或偏见的回应。又如何保证AI不会生成出类似程式设计者控制AI的掌控欲望,一如科学家想要掌控犯罪,本身企图改变、掌控他人,不正是坏事之前,人类先死于所谓的好事吗?

综合上述讨论,针对AI往后的发展,笔者暂时进行思想实验如下。(1)AI突破性发展,人类充分利用AI。固然许多当下的工作被淘汰,但是会有新的工作,人类会自然不断再技术化,迎向未来。这是目前已发展的情形,也是科技可以修成正果的积极想象。(2)AI突破性发展,人类充分利用AI,逐渐解决大部分生存、生活问题。少数高层次设计者为全体人类解决各种需求,无须担心失业,因为大多数人无须工作,达到类似赫胥黎(A.Huxley)《美丽新世界》(BraveNewWord)的反讽现象。(3)当发展到第(2)阶段,少数的精英并不遵照阿西莫夫(I. Asimov)在《转圈圈》(Runaround)短篇小说中列出的机器人三铁律(Three Laws of Robotics)之一不得伤害人类,也就是少数高程式设计者掌控世界,或是成为《1984》(NineteenEighty-Four)中的老大哥,奴役全人类。AI成为少数统治者的无敌锦衣卫或杀手。(4)当超级人工智能具有发明语言的能力与反思自身整个系统的能力,也就是其能够达到自觉意识、能反思自身系统、修改自身程序、独立产生新语言、制订新规则的创造力时,届时它不准备按照符合人类价值的方式与人类共处,撕毁人类制定的机器人铁律,甚至于消灭人类。这种超级人工智能,是另一种邪恶上帝。如赵汀阳或一般科幻小说作者担心的事情。[21](PP.30-31)

容笔者再进一步引申说明。在第(1)中,人类最需慎防ChatGPT生产出许多假知识、平添人世混乱。第(2)则最需慎防由少数掌握的技术霸权。但是,若根据19世纪末经济学家的“二八定律”(Pareto’s law),恐怕很难避免少数精英掌握AI高科技的宿命。若此,“美丽新世界”没有到来,反而需要重新定义大多数人存在的价值与意义。由于技术生活的提升,人类已有的价值也必须重新定义。当然,前述(1)(2)的发展,可以有好的层面,如大多数人无须工作,就能衣食无缺,所有权、财富的概念就会消失,佛教中无欲的境界可能来到,也可能ChatGPT代替大多数人类的思考,人类传统智能开始倒退,失去自主性,反而沦为强者的奴役而不自知。如果我们拥护AI,上一段的(1)若真要修成正果,那(2)(3)就是人类当下急需面对的课题。至于(4),2023年的今天虽仍处于“科幻小说的忧虑”的阶段, 但已经值得开始正视该科技奇点的可能到来。赵汀阳略显悲观地提问,人工智能的存在升级实际上是人类的自我否定和自我了断。人类需要为自己创造一个否定人类意义的上帝吗?日本学者高桥透则是乐观地认为,“从人类欲望这性质去观察以后,我主张人们肯定会创造超越自我的东西,而且人们应该也会让自己逐渐变成那样的存在”[16](P.246)。

我们似乎依然徘徊于人脑与AI的爱恨情仇。暂时先忽略(4),也先搁置(2)(3)可能引发的政治经济层面的担忧。我们下一步从(1)AI科技可能修得的“正果”中,重新检视这一波ChatGPT带给人类认知、情感与伦理的影响,回应本文题目的提问。

三、万物之灵挑战 ChatGPT?

(一)认知:人类理性运作与生成式推理

笔者在此,不去严格区分理性(reason)、智性(intellect)和认知(cognition)。无论我们如何定义教育,不可能否认教育是培养学生接触知识,认识外在世界,求个人精神充实或外在社会适应的能力、态度、技能、素养等的活动。启蒙运动后,西方社会一方面坚持个人自由,反对将传统社会各种实质的价值观直接灌输给学生,在支持自由之余,也同时强调诉诸理性来制约盲动,这也是自主性(autonomy)成为20世纪两次世界大战后,西方社会主流的教育理想。英国政治哲学学者拉兹(J. Raz)曾区分个人自主有别于道德自律,前者涉及个人选择生活方式的自由,后者是建立在康德将道德视为自我立法、自我执行的普遍规律或原则。[23](P.370)但无论是自主还是自律,都涉及由己(ownership)。1960年代彼得斯(R.S.Peters)、赫斯特(P.H.Hirst)、迪尔登(R.F.Dearden)等学者开创的伦敦路线,循此加以确立自由主义的教育理想。[24]教育目的不是为学生规划实质的诉求,而是提供经验、知识,培养学生理性判断的能力,让学生能“自行”规划美好人生。彼得斯认为,人们称得上是自主,要能满足三个重要特征:本真性(authenticity)、理性反思(rational reflection)与意志力(strength of will)。彼得斯在此的本真性重点是强调人们的态度、信念,不能人云亦云(non-artificial),不能完全受制于权威习俗。[25](PP.123-125)迪尔登也重新诠释自主性:他出于自行(initiative)判断的程度,他对于那些判断坚持(firmness)的程度,他进行判断时各项标准背后盘根错节反思的深度。[26](PP.9-10)几乎完全呼应于彼得斯前述自主的三个特性——本真性、意志力、理性反思。不过,大部分主张自主性的学者,都不会坚持完全由己。拜尔(Baier)就认为,不能把康德的自我立法(self-legislation),完全看成由己,道德教育理想不是如此这般的道德自主。[27](PP.105-106)

以理性自主作为教育理想,并不是没有人反对。存在主义学者就曾经提出以“本真”来反思自主[28],但是存在主义的教育学者其实反对的是理性,而不是自由。他们对于本真的理解,也与彼得斯旨趣不同。社群主义者桑德尔(M. Sandel)认为自由主义有其独特的自我观,其对自我的设定是“义务、无承担、抉择的自我”(a deonotological, unencumbered, choosing self),未尽良善。他理想中的自我观应是“目的论、着根、觉察式自我”(a teleological, embedded, cognitive self)。笔者有如下的归纳:

相较于义务论自我,社群论者认为所处的传统、文明的遗产及可欲的价值,都应该是自我追寻的目的;相较于无承担的自我,人们所处的环境与自我息息相关,是自我的活水源头;相较于选择性的自我,社群主义者认为我们不可能孤零零的作选择,我们都是以一个特定社会认同的载负者立场来回应外在的一切。[29](P.391)

自由、社群主义之争,不是本文的目的,笔者是要强调社群主义所重视自主的后天文化脉络,提供了理性自主、抉择的基础。有趣的是泰勒(C. Taylor)也用类似存在主义“本真”的字眼,认为自由主义学者将本真解释为“由己”的创发或抉择,是忽略了整个社会文化的意义视域(horizon of significance)。[30](P.30)存在主义中本真涉及的情感,下文再论。自由主义“由己”的理性自主,与社群主义强调的社会文化的视域意义,对我们教育理想的培养,与善用ChatGPT,有何关联?

让我们先从赫胥黎的《美丽新世界》说起,人们在未来世界,可以透过一个快乐丸(soma)来解忧。赫胥黎是要人们深思,人们追求的幸福是否只是快乐体验?无独有偶,自由至上主义(libertarianism)学者诺齐克(R. Nozick)也曾经以体验机(experience machine)的例子来讨论,将你的大脑与该体验机接通,可以设定你想过的各种生活体验,你进入之后,会有完全真实的体验,如近乎终生的美满婚姻(但实际上旁人看你只是在接着体验机内的容器,10分钟或10小时而已)。诺齐克指出三项理由,我们不会只满意于体验机。其一,我们不满意体验机所带来快乐的理由,是我们想要去做,而不只是体验快乐。其二,我们想要真实地存在,成为我们真正成为的某种类型的人(如勇敢、负责、行动),而不是漂浮在容器内的形象,我们是什么对我们而言是重要的。其三,若我们单纯体验想成为某种人或能对社会发生影响的感受,转换机(transformation machine, 可以使自己成为某种人),或结果机(results machine, 可以让世界依着我们的喜好而改变)所带来的体验,都能达成。除了我们想真正靠自己而行,靠机器产生的经验,无法取代外,我们是真正想要接触实际深刻的世界(deeper reality)。[31](PP.42-45)

诺齐克所强调“由己”的体验或行动,很能说明自主性的意义。若我们跳出赫胥黎科幻小说的批判,相信没有人会拒绝暂时体会快乐丸(如果对身体没有造成类似毒品的伤害)或是“体验机”“转换机”“结果机”的体验。这些当然没有办法代替真实人生。但是,我们现在讨论的AI或ChatGPT,能够用赫胥黎或诺齐克上述的理由否定吗?伦敦路线所支持的自主性是希望通过理性知识型式的学习来健全心灵,其目的仍是培养学生未来能自行规划自己人生的能力。他们当然也反对沉溺于体验机,他们之所以坚持强调通过理论性活动(theoretical activities)的学科,如数学、自然科学、文学等,正是担心过度顺从学生当下经验、兴趣,会窄化学生的学习,妨碍理性自主。AI或ChatGPT是否会违反人的自主性?笔者将从以下几点加以讨论。

首先,AI或ChatGPT可以协助人们理论性活动的推进。教育之难就是理论性课程对多数学生而言,有学习上的困难,由之也引发了教育机会不公或无法促进阶级流动的伦理议题。善用人工智能可以“寓教于乐”提升教学成效。增强现实技术(AR)或虚拟现实技术(VR)等身历其境也直逼诺齐克的体验机。而这不只是体验,是真能带动实际教学成效的提升。

继之,学者们也并没有说事事得完全“由己”抉择,就好像一个成功的领导者,无须事事躬亲,只要他能广征众议。现代人使用各种新式器物,如用ATM机提款,我们大多数人并不会知晓其设计原理,那又有何理由要求职场工作所需的专业、技术一定得“由己”理解或设计?我们只要会应用即可。ChatGPT的巨大资料库搜寻提供的海量的资讯,宛如浓缩泰勒的“意义视域”;其生成统整的能力,更能协助人们理性判断。现代人可以倚重ChatGPT,来达成教育理想所着重的理性反思、批判思考、统整知识等学习成效,又何必事事“由己”呢?一个广征众议、知人善用的CEO,与一个事必躬亲、事事由己做主的CEO,后者一定胜过前者吗?争论点还是ChatGPT“代替”我们抉择是否完全违反“由己”的自主精神。

笔者不否认,长久而言,随着人工智能演算能力的突破性发展,或许人类的“由己”推理或演算能力会弱化,但那是社会需求变革使然。在人类历次文明知识演进中,学习概念也不断变化。随着人类技术的提升,印刷术使书本流通、经典学习更为便捷,也更能巩固经典地位。电脑网络储存资讯,则代替人们进行经典背诵。现代人不会因为古文背诵能力弱化,就阻碍知识的演进。ChatGPT之前,笔者会坚持,“读书破万卷,下笔如有神”的既存知识或泰勒念兹在兹的“意义视域”陶融的重要,认为网络只是讯息,人类仍得“由己”将讯息转化为思想。ChatGPT问世之初,笔者也短暂认为,ChatGPT 固然可以有效根据人类需求,“生成”适切的答案,但仍得由人们抉择,而没有经过传统理性自主(或广泛文化熏陶)的培养,又如何能够睿智地应用ChatGPT的良善成果?但是仔细思考,笔者现在的回答是,这是辩证互动的关系,不是全有或无的关系。受传统教育影响,大多数人也并没能真正习得完美的知识统整、推理能力。随着ChatGPT的功能提升,人机互为主体下,人们也能习得新的技能。倪闽景指出,学习作为人类文化进化的重要作用力,自身也是进化的。[32]人类第一阶段是几十万年的自然学习,求生存与适应自然环境。第二阶段是经典学习,以符号、文字的发明为标志,很长一段时间是权贵专利。第三阶段是现代学习,知识暴增,也促进了知识流通的平等。这三个阶段人脑没有太大变化,随着人工智能的普及,机器学习与脑机接口技术的突破,人类可能要面临一个新的学习进化阶段——超级学习阶段。每个阶段都包含前一个阶段,也都丰富与加速发展。坚持“由己”才能真正获致批判思考等传统可欲的教育价值,也会随着生成式AI的拓展而逐步蜕变。

最后,人们常自诩为能自我反思,虽然2023年的今天,生成式AI还无从自行“由己”反思,但若经我们提词,也能反思的有模有样。张芬芬询问ChatGPT的局限有哪些?ChatGPT回之:缺乏实际知识、偏见和错误;缺乏常识推理、安全和滥用风险。[33]我们大多数的人若三省吾身,能比ChatGPT说的更像人话吗?

(二)情感:有血有泪的情感与生成式情感反应

林建福在20多年前的一本专著中,就设想了“电子教师”——辛孔丘老师,来接受记者贾亦真的专访,这在今天已经部分成真,林建福当时设计的对话,饶富生趣,值得全文引述,其中中括号内的文字是笔者的加注。

贾:辛老师,您感觉还好吗?

辛(脸上保持原有的笑容):感觉?喔!一切都很有秩序,很完美,看来大家都很高兴与兴奋,我也很快乐。[辛老师对于“感觉”的反应最初很陌生,但能旋即理解并做出回应 ]

贾:可否请您告诉我们,您和一般教师有何不同?

辛(一副得意的样子):当然,有许多不同,简单地说,重要的有下列几项:

第一,我不会随便发脾气,具有人类少有的耐心;[辛老师想必外形做出得意表情不逊于人类表情,老师们可以接受辛师对人师的批评吗?]

第二,根据学生的资料和反应,我可以拟订教学计划,因材施教;[电子教师的确比我们更能进行部分教育、教学理想的达成,如适性教学]

第三,学生可以选择世界上任何一种语言和我交谈,这是一般人类想不到的;[太好了!我们不必再被EMI或双语教育折磨了]

第四,贾小姐,请看我的脑。一旦学生要经历任何经验,像算数学、辩论、郊游、赛跑等,只要他的脑和我的脑相连,我马上可以提供上述的各类经验,几小时或几年都可以;[涉及人机一体或意识数位连接或转换,2023年还无法做到 ]

第五,我可以全年无休,不会动不动就请假。

贾:哇!那这样会不会让一般教师失业?

辛:哈……,我认为,培育完美的下一代,同时带给人类幸福,这些要比失业与否更重要。[典型的机器人说人话]

贾:可否请教对未来的看法?

辛:除了我之外,更多的电子人类将会诞生,包括有电子爸爸、电子妈妈、电子市长、电子医生等,我们可以提供最完美的服务。[还未到来,但技术上已可以部分做到了][34](PP.133-134)

教育除认知外,还是情意、人格的陶融。ChatGPT无法产生真挚情感,应该是大多数人对人工智能的批评。且再让笔者扫描一下西方世界电影的想象。《2001太空漫游》(2001:ASoaceOdyssey)对科技宰制人类的恐怖隐喻,表现在新型计算机“霍尔”(Hall)的叛变中,令人忧心忡忡。《银翼杀手》(BladeRunner)中男主角的任务是清除复制人,在清除复制人的过程中被他欲清除的女复制人瑞秋所救。《终结者2:审判日》(Terminator2:JudgmentDay)中那位建立在旧型的T-800终结者,为了保护主人,知其不可为而为之,努力与更先进的T-1000型液态金属制成的终结者对抗。任务成功后,为确保人类日后不受科技毁灭,毅然自裁,毁灭自身晶片,直比“周处除三害”,虽然他的行为也是被设定的。《机器管家》(BicentennialMan)中那位机器管家渴望变为真人,历经改造,如愿成真。《人工智能》(A.I.ArtificialIntelligence)中那位复制人小孩是玩伴物件,却情感真挚,他的返乡之旅是找回真实世界原不属于他的母爱。究竟何为真实?《终结者2:审判日》《机器管家》与《人工智能》中的机器人,似乎比大多数人更有人性。[11]2023年初的科幻电影《梅根》(M3GAN),其主人公机器人梅根的情感沟通能力,与真人无异,甚至于能代替工作繁忙的亲人,陪伴、照顾孩童。如果不考虑后来沦为科幻反扑的恐怖题材,相信读者会同意,这位梅根与林建福当年笔下的辛老师,会胜出一般保姆或教师。但是,林建福参考斯特拉瑟(S. Strasser)、扎荣茨(R. B. Zajonc)、邓洛普(F. Dunlop)等学者的看法,与诺齐克有类似的结论。完全人工化与电子化的世界,恐不利儿童与真实或深层实在事物的直接接触。林建福说:

从个体发生学的角度来看,人类在孩提时代必然经历过某种情感或情绪的觉知模式,即使长大到可以使用语言与名称来描述对象,由此对世界能有比较实在看法时,情绪性觉知仍然存在,以作为通往世界的一种方式。换言之,透过此类感受经验当中的认知性觉知,人类实际体会到实存事物。另一方面,他人的“世界”、社会世界、文化世界、艺术世界、宗教世界、数学及意义的“理想世界”也以这种方式向人揭显。[34](P.152)

ChatGPT在台湾地区的通俗译名就是“聊天机器人”,人之异于机器者几希?AI已能成就文学、艺术的创作。若将自我意识之有无,用以区分人机,也许机器人无法具有如人现象意识之情感,但就此否定AI所生成的情感价值,是否合理?伦敦路线学者彼得斯当年在分析情绪时,重点也在于情绪具有认知的评价功能,主张以理御情。[35](P.174)虽然贾格尔(A. Jaggar)企图以女性主义立场翻转自柏拉图以降,情绪有害知识建构的主流看法。[36](P.129)她认为人们会从生活脉络的成长环境,包括自然环境或往来周遭的人,习得情绪的感觉,这使得人们的情绪在生理和心理维度上,同时具有历史性与文化性。情绪固然受制于社会文化,但也同样是人们认识、参与或建构世界的方式。贾格尔强调,情绪、感觉是人们与世界协奏的重要方式,也深深影响科学选题、形成假设等科学实践,与其试图否定、压抑或限制,倒不如重新加以诠释、认识,加强对情绪感觉的研究。

我们可以认可情绪、情感对于认知的导进功能,不必坚持彼得斯以理御情的立场。不过,如果情感也是一种社会文化的习得,ChatGPT正是利用人类的语汇生成出对话。换言之,ChatGPT所生成的对话,是经过人类自然语言的资料库,经由监控不断修正、改进地生成。这与我们通过跟他人(语言)互动,或是从文学经典中感受、习得喜怒哀乐的情感表现,并没有太大的差异。人们在互动中习得情感价值,也同样会滋生偏见。只要我们多方监控ChatGPT,让其生成的对话更能反映人类可欲、丰盈的情感,“我见青山多妩媚,料青山见我应如是”“万物有灵”“物情物语”“睹物思情”。在可预见的未来,人师与辛老师协同教学将会是常态,似乎不必过度担心让孩童无法接触深层的实在。

当今AI也早已开发出具备功能性的替代情感(ersatz emotion)[37](P.241),也就是AI或ChatGPT可以根据人的需求,生成出适切的对话,而产生出情感沟通、抚慰的效果。林建福所展示的辛老师,几乎是现在ChatGPT的设计者通过演算能力,而生成出情感表现的具体范型,在笔者看来,完胜于大多数的老师。由于社会职场的发展、家庭人口组成的改变,人们情感的维系,已不局限于血缘亲情,早已及于其他物种。笔者供职的学校有训练阅读陪伴犬,深受儿童欢迎。宠物对某些人而言,已不是宠物,而是亲“人”。工业革命、资本主义下的现代社会,许多人文学者担心物化的社会,造成人际的疏离,传统人文主义希望能通过人文教育,充实人们的心灵世界。比斯塔(G.Biesta)已经指出这种人文主义把人本质化了,反而易造成唯我独尊。他援引列维纳斯(E.Levinas)等学者“他者伦理学”,鼓励我们进入世界,随时回应也是来自世界的他者对我们的发声(being addressed)。[38]笔者认为,未来ChatGPT都能成功扮演朋友、辅导人员、咨商师,甚至于亲人的角色,像是日本开发的照护机器人“熊抱”(Robear)。它们当然也是世界向我们发声的“他者”。从数据、资料中,生成合宜的情感反映,满足人类相处的情感需求,已不是科幻小说的题材。ChatGPT的横空出世,生成式的情感与活生生的情感互动,已是现在进行时,也真正体现宋儒张载在其名作《西铭》中“民,吾同胞;物,吾与也”的精神。

哈洛威(D. Haraway)在1980年代提出赛伯格(Cyborg)。[39](P.120)我们都是各式各样的嵌合体(chimeras),是各种组装的混种,在界线中寻求欢愉,同时又对界线的建构负责。哈洛威从三条最颠扑不破的界线谈起。其一是人类与动物之边界,其二是有机体(人、动物)与机器之边界,其三是物质与非物质之边界,重新反思人与世界的本体意义。她已经跨越了传统女性主义的视野,利用科学、技术、基因工程、编码、集成电路等,企图重构政治、经济与社会秩序。已有学者提出,新物质主义(new materialism)通过AI的共在行动,可跳出人类中心主义[40](P.269),甚至于探讨超越人文主义的后人类“技术人”时代的来临[41]。2016年4月中国科学技术大学研发的机器人“佳佳”,其五官精致、面部微表情丰富,已经具备了与人沟通的能力,并具备善良、勤恳、智慧的品格。2023年可汗学院(Khan Academy)与OpenAI合作,以GPT-4为模型打造了一个Khanmiqo的机器人,机器生成的情感,将共同参与人类的有情世界。笔者相信,相对于心灵过往的崇高地位,解构只有人才具备理性、才有活生生的情感,跳脱人类中心,是其时也。

(三)伦理:生成式AI的伦理思辨与实践智慧

前面对于辛老师的质疑,也涉及“人类中心”的疑虑——我们对于“非人”的疑虑,这其实涉及人类被取代的深层恐惧。赵汀阳指出,无论人工智能的单向功能如何高强,都不是真正危险,只有进入存在的升级,也就是人工智能具有自我意识,变成了另一种更高级的存在,才是危险。这也是迄今各国仍禁止研究克隆人的理由(是否有暗地里研发,不得而知)。笔者以下的讨论,暂不涉入“存在的升级”或科幻小说电脑统治人类的疑虑,回到原来的人类道德能力是否能胜出ChatGPT的相关讨论。

当代德行伦理学者麦金太尔(A.MacIntyre)曾经提出两种不同的伦理道德观,其一是“规则的道德”(morality of rules),其二是“德行的道德”(morality of virtues)。[42](P.107)我们知道,“目的论”的始祖,溯自亚里士多德,可是在西洋哲学的发展上,特别是自启蒙运动以来,义务论(deontological ethics) 与效益论(utilitarianism)构成了自由、民主体制的核心。“多数尊重少数”,而不能事事投票,体现了义务论重视的根本人性尊严,“少数服从多数”展现了效益论的共善价值。不管是义务论或效益论却逐渐沦为一种规则的道德,伦理学或人我关系不再是如亚里士多德般重视人生幸福的追寻,而在于如何界定或判断是非善恶的规则。麦金太尔固然是为了突显亚里士多德德行论的传统,受其影响对两类道德观的分类很适合我们现在的讨论。

从西方伦理学乃至道德教育的发展中,我们可以大致同意,以“理性”为主导的势力,苏格拉底倡议的“德即知”一直居主流地位。20世纪,无论是居主流地位的科尔伯格(L.Kohlberg)道德认知发展论,或是拉思斯(L. E. Raths)团队的价值澄清法,都可看出理性、辩论、推理、反思等认知作用在德育上的价值。在以理性为主导的(道德)教育理想上,道德认知是重要的一环。认知性低的活动,如训练等,也同时会被认定较不具教育或道德的意义,至于违反理性原则的“灌输”(indoctrination),更是具有贬义。在此视角下,德行的陶融、习惯的养成,有时反而会被视为是保守的、权威的、由上而下的教条塑造。无怪乎当年科尔伯格戏称传统道德为“美德袋”(bag of virtues)。但是,理性带动规则的道德思辨,却逐渐远离人生目的幸福的追寻,只沦为明辨是非善恶的推理,无法完全满足人类向善的人格陶融。当代德行伦理学重新受到重视,提醒我们重探人格风范的现代意义。美德、境教及习惯养成不尽然全是灌输或教条。无论是情感情操、实践智慧或是人格习惯养成,都与强调理性、两难问题论辩、批判思考的认知教学有不同的旨趣。

规则的道德在于是非善恶的推演,德育的重点是思辨与推理。义务论的重点在于确立规则义务的自我立法,效益论的重点在于利弊得失后果的评估。AI或ChatGPT都可以利用现存的词库掌握人类海量的过往经验,通过预训练,并缜密地人为监控回馈,排除刻板歧视等偏见,让系统学会“符合逻辑”地推论或掌握“过往优质判例”,从而生成适切的道德推理。道德当然有困境,这些两难情境并没有固定答案,这都会增加演算的困难。以当今的水平,我们的确很难完全信任AI的道德判断。不过,根据美国OpenAI发布的技术报告,ChatGPT成绩排在所有参考者的最后10%,但是改良型的GPT-4获得了90%的好成绩,也就是超越了90%的应考者。[13](PP.143-144)律师等职业考试,想必涉及很多情境的诉讼,应该类似道德推理。从ChatGPT到GPT-4,不到半年的进步情形来看,已能证明生成式AI处理类似情境诉讼、援引法条的道德推理,不是困难的事。邱文聪已经提出了第二波的AI发展,业已构成了对传统法学的挑战。[43](P.135)未来的法官,是否会胜出AI“辛法官”,也与教育人员面临“辛老师”有着同样的挑战。因而笔者认为,我们若有系统地整理各种伦理议题涉及的道德推论,让ChatGPT不断学习,佐以不断地预训练,让ChatGPT熟谙各式道德推理过程,并不是太困难的事。

AI运用在实际情境中,当然会引发许多新的议题,如无人车驾驶肇事的责任归属。但真正两难的是,我们要如何教AI涉及两难情境的判定,这是人的伦理抉择问题,不是机器能不能进行伦理推理的问题。譬如,在一个即将撞车的事故中,要不要设定人生命等价(车内主人与他车驾驶人或行人),还是要设定优先保护车内主人?作为一个消费者,你会选择何种车型?笔者要表达的是,当我们不信任AI,认为它无法像人一样进行深度道德思考时,恐怕是夸大了人的推理,也低估了AI从人类过往经验生成的能力。更可能是像桑德尔的电车实验一样,是真正两难的问题。反而是AI可以较一般人更易于全面生成各类伦理立场的回应之道。

若从德行的道德来看,品格与实践智慧是其中最核心的部分。如果电脑没有发展自觉的意识,讨论AI机器人作为道德主体的品格就没有意义。但相信多数人会承认,再有自制的人,在勇于尝试、百折不挠、坚持到底、耐烦、不懈怠等方面,都不可能是电脑、系统的对手。ChatGPT有没有可能比人表现出更优质的实践智慧?黄藿对亚里士多德实践智慧的说明是:

就亚理斯多德来看,实践智慧,作为一种理智的德行,与道德的德行是相互依赖的。实践智慧旨在“为人决定是非善恶”,不同于达到目的的手段。实践智慧因而可以定义为“一种相关于人类是非善恶的真正推理能力”。由于道德德行是一种牵涉了抉择的状态,而抉择就是深思熟虑的欲望,因此,如果抉择要为善,推理必须正确,而欲望必须正当,而欲望所追求的正好是理智推理所断定者。换言之,我们只有用实践智慧才能深思熟虑出何者为正当且当为之事。[44](P.32)

实践智慧也是一种推理能力,是在环境中灵活判断的能力。笔者当然同意现行的AI尚不见得具有在各领域伦理情境中进行适切实践智慧的判断能力。不过,ChatGPT是利用人类自然语言的词库加以选择,而人们真实实践智慧是根植在社会情境脉络,是以假以时日,在日常语言脉络中所演算出来的后续词、语句,当也能发展出符合人性的用语。若再经过不断地回馈,确立在伦理争议中运用实践智慧的推理决断,这其实与人们在真实社会环境中习得待人接物的相处智慧,并无二致。况且,人们在无知之幕下,行使规则道德,能完全摆脱个人私欲,进行公平的判断,这只是一种设定。德行道德下的实践智慧,也很难在强调书本知识的学校情境中习得。反而是ChatGPT能够在人类自然语言中,快速掌握道德推理模式(包括情境中实践智慧的生成)。未来AI生成的伦理抉择,也将如科学上各种数字、公式计算、商场上的成本效益分析一样,可为人类提供适切的伦理抉择的参照,殆可想见。

比斯塔认为当代教育过于重视预测、表现,这种教育之强,只能达成教育的资格化与社会化,无法达成主体化教育目的。宋崔、林敏曾援引上述比斯塔论点,认为ChatGPT不是一个具有感知力的生物,只是具有强大生成文本能力的人工智能模型,是从电脑端到一个人的信息传送,是封闭的、确定的过程,而杜威式的交流是实践的、开放的、无法确定的、促生性和创造性的过程,是主体间的相遇,伴随教育弱点和风险性的过程。[45]他们虽未否定ChatGPT,但仍以上述理由,强调ChatGPT的不可为性,来说明教师的不可替代性。不过,笔者同样探究比斯塔文本,师生间的沟通不是单向的,也不仅仅是双向的,而是涉及际间空间(in-between space)或第三空间(the third space)。第三空间无法自己存在,任何想要客观再现第三空间以作为共通基础者,都会不断制造出新的第三空间,而逸出人们已有的掌握。[46](PP.3-4)以此观点,师生与ChatGPT互动的过程,并不如宋崔等认定的是封闭的、确定的、不伴有风险的过程。人机互动,随时有不断开创第三空间的可能,也当然存在积极的影响或负面的风险。

笔者认为,人们之所以认为生成式AI无法与人脑相比,除了是2023年的今天,ChatCPT、GPT-4乃至其他各类生成式AI确实无法完全胜出人类,除了“说人话”闹出许多笑话的事实外,最主要还是人类直觉的不把机器当人的先入为主的想法。机器当然不是活生生有生命的人。但鉴于机器的功能(哪怕是指令,不是思想)产出,已能胜出生命主体意识后的成果或行动的事实,我们坚持人胜于物的意义恐怕只是人为万物之灵的套套逻辑了。图灵很早就指出了人们否定机器能够思考的9项理由,其中的一项是“鸵鸟心态”(The head in the sand),人们不愿正视机器能力,恐惧机器能思考。[47](PP.443-454)那人们坚持作为有生命的人,认知、情感、伦理的自主意识,永远不是生成式AI所能比拟的,是不是也是以人为本的鸵鸟心态呢?笔者无意因生成式AI的强大功能,而认定生成式AI一定胜出人脑,但是笔者坚信,唯有人类不故步自封与不自以为是的想象,才是人类文明最可贵的智慧。

四、结语:期许生成式AI的美丽冒险

笔者针对这一波来势汹汹的ChatGPT的震撼,综合学者们的讨论与思想实验,已如上述。本文题目的提问不在于指出是或否,但是经由此提问与本文讨论,无论我们是乐观其成或戒慎恐惧,相信都能体认生成式AI对人类未来生活的重大冲击。笔者从三个层面作暂时的结论。

首先,我们当然不会否认生成式AI的强大能力与进步可能。高估万物之灵的存有价值,贬抑没有“生命”的生成式AI,此种“人类中心”的坚持,可以休矣。生成式AI一定会衍生许多的问题,诸如大量数据的生产、保存、传输,涉及的“合法”使用或隐私;生成式AI不当利用所生成的错误偏见、假讯息,甚至歪曲科学知识;生成式AI逐渐接手人们的重大事务,如金融、商业、司法、教育、政治决策时,人脑与生成式AI如何分工的现实抉择;当生成式AI逐步取代人日常生活中惯常的脑力、经验、沟通方式时,人们如何回应衍生的现象,如人际疏离或心智迟钝问题,又如何保留(如果值得保留缅怀的话)原有人之为人的价值、信念、能力?科技可以正德、利用、厚生。多位学者已成功阐述、巧妙运用,不仅有助于教学效能,甚至可以达成传统教育不容易达成的适性教育理想。教育工作者必须更加积极地针对教育目的、教育内容、教育方法,善用生成式智慧,并思考、解决其衍生问题。

其次,正德、利用、厚生之余,前段所担忧的问题,可能涉及不同阶段人类生活方式的变革。过往的技术、价值都有时代的需求与限制。固然不能一味把新异当成是“进步”,但人类永远必须面对时代反思既有知识、能力、技术及价值的合理性。我们不能只把AI当成是教学或学习的好帮手,我们需要同步去思考学习的概念是否变迁?身体(人脑)为基、知识为本、情感为辅、技能为用、价值为先是否适用?有没有转化的可能?譬如,如果未来一个晶片可以接口人脑,那也将颠覆学习的方式。甚至于人类的概念也随之颠覆,这些不全然是负面意义。既然人类与AI/ChatGPT会辩证互动,表示当人类和人工智能一起成长、协作之后,假以时日,人类与AI/机器(人)之间可能因长期互动而产生质变,进而形成跨越(界)的相互连结或人类与非人类的“组合”。影响所及,教育学也可能发生一些存有学上的转变。这些都是可预见的未来,人类必须接续思考、重构既定学习、伦理,乃至政治秩序的思想挑战。

最后,科幻小说作家认为电脑会统治人类的技术奇点固然还未发生。但是,当生成式AI不只是人类发明的工具,其功能不断强化,生成一种存在的升级,形成了自我主体意识,在2023年的今天,却也不完全是无的放矢的想象。退一步说,今天若主要国家以AI的生成系统用于战争,也是人类不可承受之重(其实已经发生了)。以此观点,马斯克呼吁世界暂停生成式AI研发半年,驻足深思,有其现实需求。笔者认为,2022年11月30日ChatGPT出世后,人类对于如何正德、利用、厚生的思考,也还没有完全准备好。笔者也深知,人类对于技术的欲望提升与掌控技术遂行霸权的政治权力意志,既无法停下脚步,也不可能在当今国际政治下,得到适当规范。正因为如此,我们还是得通过呼吁与教育,让传统人文学者对科技的反思,得以发声(如本文)。让所有开发生成式AI的学者能认清AI在以后人类生命中扮演的关键性角色,共同发声而不是毫无反思能力、自诩创造美丽新世界,实则沦为科技奴隶而不自知。

万物之灵会胜出ChatGPT吗?或许我们不必自称为万物之灵。不必夸耀人的绝对性,也不必否认ChatGPT或其他各式生成式AI在许多方面可以表现得更杰出,甚至取代人脑,但人脑绝对可以从生成式AI下激发出新的潜力与创意。人类愿意虚心且准备好因应未来颠覆性的革命挑战吗?

猜你喜欢

人类
颤抖吧,人类
人类能否一觉到未来?
人类会成长起来吗?
人类没有进化好
人类过去长啥样
出发!去最北人类定居地
人类第一杀手
共建“人类之眼”
人类,快醒醒
1100亿个人类的清明