APP下载

人文法则:预防人工智能无限度研发的屏障

2024-04-12唐代兴

党政研究 2024年1期
关键词:人文精神人工智能

〔作者简介〕唐代兴,四川师范大学伦理研究所二级教授,四川  成都  610066。

〔摘要〕传统技术以自然物为研发对象,生产出来的技术物既无生成功能又无自主性诉求。相反,人工智能是以生物人脑为对象,旨在“模仿和超越人类智能”。人工智能从模拟学习到自具极强自主性诉求的深度学习,迅速发展出“超越人类智能”的潜能。ChatGPT-4和AlphaFold的问世,或将人类推向“技术奴役人类”与“人类主导技术”的岔路口。如果不受阻碍地继续向前,具有深度学习和迭代升级能力的智能机器必然会突破人类可以控制的界限。保护人类免受技术和机器奴役的最后屏障是人文科学。建立阻止人工智能无限制发展的人文屏障,需要重建人文法则。首先要恢复自然科学和社会科学的人文信仰、情感和精神,使之具有人文性;其次是重建人文信仰、情感、精神和知识体系,使之社会化;其三是创立当代哲学,为人文重建提供思想基石。在此基础上应着手两个方面的实践努力,一是重建人文教育,以引导和规范科学教育;二是以有限生存和共生限制为准则,重建人文主义价值体系和人文主义政治-经济实践体系。

〔关键词〕人工智能;技术主义;人文法则;ChatGPT;人文精神

〔中图分类号〕D63-31  〔文献标识码〕A  〔文章编号〕2095-8048-(2024)01-0054-12

人工智能研发史不过短短70来年,但它创造出来的显赫成就和呈现出来的危机,却超越了人类技术史上任何一次变革。仅就技术层面而言,需要人去做的任何事情,人工智能都可以生产出机器来为之代劳。但造物主创化宇宙自然和万物生命时,却没有为任何物种设计“免费的午餐”,获得总是以付出为代价,人工智能也是如此,它给予“我们现在所享有的一切,都是以人的自由和尊严为代价得来的。科学和技术的进步也许会进一步奴役人类,让人失去自由和尊严。”〔1〕人工智能与人类存在之间充满可使之崩解的张力,它的无限度研发已呈现出能颠覆人类生物性存在的可能,生物人类未来是存在还是不存在?是主体地存在还是受役地存在?ChatGPT-4和AlphaFold等最新成果问世,将如上根本问题突显成为最紧要和最紧迫的人类存在问题。人类要选择主体地存在,既有时间的限定,更有主体性要求。这个被限定的最佳时间,应该是当下,并且也只有当下:人类选择主体地存在,只能且必须从当下开始。这个在当下有能力改变的主体,当然是人工智能的创造者,它在最广泛的意义上就是人类自己;具体而言,就是人工智能科学家和技术专家、人工智能企业和研发者,还有最根本的主体就是世界各国政府。只有当上述主体能够成为认知共同体,开启对人工智能的重新认知,才可正视并汇聚共生存在的力量以解决人工智能无限度研发及其带动的无序竞争,避免人工智能突破人和人类文明的边界。这需要重振人文科学并建构人文科学屏障,积累力量解构技术主义,以恢复和保障人类在技术面前的主体存在,包括人的尊严和自由。

一、人工智能不可逆进程敞开的人类危机

人工智能的观念,诞生于20世纪50年代初。艾伦·图灵(Alan Mathison Turing)在1950年发表的《计算机和智力》中提出“机器能够思维”的命题,设想“如果一台机器能够与人类展开对话(通过电传设备)而不会被辨别出其机器身份,那么可以称这台机器具有智能”,并预言计算机可以“具备人的大脑能力”〔2〕。图灵关于“机器能够思维”和计算机可以“具备人的大脑能力”这一愿景得到美国科技界的响应,并引来广泛的理论探讨和实践探索。1954年,发明家乔治·德沃尔(George Devol)成功研制出世界上第一台可编程的机器人,这是使“机器能够思维”和计算机向“具备人的大脑能力”方向迈出的第一步。1956年召开的达特茅斯专题研讨会(Dartmouth Conference)上,来自数学、神经学、心理学、计算机科学等领域数十名科学家集中讨论怎样运用计算机模拟人脑智能。其间,麦卡锡正式提出“人工智能”概念,并在《提供人工智能的问题》一文中定义“人工智能是关于使计算机能够完成人类通常认为需要人类智能才能完成的任务的研究领域”〔3〕。纽厄尔和西蒙在《信息处理机制》一文中给出如何探求解决“机器能够思维”和“机器高效思想”的宏观思路:机器之所以能够思维,是因为它们可以通过程序模拟人类的思维过程;要使机器实现高效思维,需要通过设计合理的算法和数据结构,使机器能够快速地处理信息和执行任务。〔4〕麻省理工学院帕特里克·H·温斯顿(Patrick H. Winston)教授提出了人工智能研究的目标任务,指出“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作”〔5〕。斯坦福大学尼尔斯·J·尼尔森(Nils J.Nilsson)对人工智能予以科学的定性和功能的定位,明确“人工智能是关于知识的科学,是知识的表示、知识的获取以及知识的运用”〔6〕。科学家们从不同角度審视拟想中的人工智能,并形成基本共识:第一,要使机器具备能够思维的功能和高效思维的能力,就是使机器获得生物人的智能;第二,要使机器获得生物人的智能,必须以计算机为运演工具、以会聚技术为认知方法、以大数据为分析方法。

赋予机器以生物人的智能,就是人工智能。人工智能科学家们对“人工智能”的“智能”概念有两个基本面向的语义定位:一是将“智能”定义为一种机器能力〔7〕〔8〕〔9〕;二是将“智能”定义为生物人的能力〔10〕〔11〕〔12〕。综合此二者,其概念理解呈现三个方面的基本认知:第一,智能是生物人的一种根本“精神能力”,但作为“精神能力”的人类智能,不是天赋,而是后天性习得文化、教育和自主学习所形成的一种不断适应“新的环境”并“处理不确定性和复杂性”的存在问题的能力。第二,人工智能是一种“模仿人类智能的能力”来“解决那些人类在思考方面能够解决的问题”的技术能力,包括感知、理解、推理、决策、学习、设计、构建、行动等方面的能力。并且,人类能解决的全部问题,人工智能都能模仿地解决;人类能力所不能解决的问题,人工智能也能创造地解决,这就是约翰·霍普金斯所说的人工智能具有“模仿和超越人类智力的特点和能力”。第三,由于人类智能是后天教育和自主学习所成,它为人工智能机器通过自主学习而具备并超越人类智能提供了可能性。

综上,计算机和机器模仿人类智能,就是使计算机和机器获得“能够思维”的能力;计算机和机器超越人类能力,就是计算机和机器具备“高效思维”的能力。使计算机和机器获得“能够思维”和“高效思维”能力的秘密,就是将生物人类接受“文化、教育和自主学习”的能力迁移到计算机和机器身上。基于此一基本认知,计算机和人工智能科学家们探索算法、设计数据模型和优化参数,建构起可以持续革新升级的学习平台,生成训练机器学习的三种基本学习方式:一是监督学习和无监督学习方式,二是自主性的强化学习方式,三是强自主性诉求的深度学习方式。监督学习和无监督学习是人工智能的起步方式,其主要功能是训练机器“能够思维”,基本方法是模拟生物人脑的意识、思维、认知、逻辑展开的工作原理和运行机制,使之按人脑的意识、思维、认知、逻辑的方式来学习,并朝强化学习的方向展开,形成迁移性生成的能力。强化学习及由此形成的迁移性生成能力,构成机器从具备“能够思维”向“高效思维”方向前进的更新阶梯,强化学习将催生出强自主性的深度学习,这是训练机器“高效思维”品质和能力的根本方式,体现机器学习主体意志和能力;其次具备在学习中以几何方式迁移性生成和创造性建构的能力。所以,具有极强自主性诉求的深度学习推进机器进入“高效思维”的进程,就是超越生物人类智力的进程。这一进程早在十几年前就从拟想的设计状态进入了实际能力呈现的状态,并不断向前开进。机器获得“高效思维”的最初标志,是1952年开始研发的国际跳棋程序,从监督学习起步而进入强化学习的训练,经历43年的努力,其升级版Chinook于1994年与世界国际跳棋冠军Marion Tinsley的再度竞赛中完胜。这是人工智能在博弈领域对生物人的挑战和取胜,不仅是技术上的,更是文化、哲学和心灵上的,它宣告了生物人类智力独霸世界的历史的结束。接下来在比跳棋复杂得多的国际象棋面前,机器战胜人类冠军的时间用了38年。从1958年开发象棋程序,第一台象棋计算机系统ChipTest每秒只能走200步,到1997年,Deep Blue II的峰值性能达到了每秒200亿次浮点运算,并于同年5月以3.5比2.5的成绩战胜了世界国际象棋冠军卡斯帕罗夫。而比象棋更为复杂的围棋,AlphaGo自2015年研发到以60比0全胜世界围棋冠军,只用了3年时间。

机器不断进化的深度学习训练形成“高效思维”的能力,以如此速度超过人类智力,引发人类为之兴奋和欢呼。而以神经网络作为基础并以生成预训练Transformer为基本架构的GPT程序,开发自然语言理解及语境化生成,从2018年OpenAI发布第一版本GPT-1到2023年3月14日GPT-4问世,业界才突然为之忧惧。这种忧惧来源于机器已经呈现出对生物人智力的整体性超越态势,这种态势敞开了生物人类的存在危机。基于对生物人类未来存在的责任,在OpenAI发布GPT-4数日后,人工智能领域1127名科技领袖和研究成员联名发出《暂停巨型AI实验室:一封公开信》,指出,“现在,人工智能在一般任务上变得与人类有竞争力,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。”〔13〕由此,人工智能带动的人类危机整体地突显了出来,其不断生成扩张的危机正在唤醒盲目乐观的社会大众。

二、人工智能的技术主义框架

在技术性失业、全球无序竞争、世界性争霸、人类价值分裂、战争此起彼伏以及贫穷、饥饿、疫灾世界化流行等背后,人工智能一直如影随形,且肆无忌惮地发展着自己。无论未来还是现在,理性审视人工智能,会发现它确实是一个潘多拉盒子,一旦被打開,将给人类带来无可预估的存在威胁。这种威胁其实已蕴含在人工智能技术观念萌发过程中。早期人工智能研究的重要人物萨缪尔(Samuel.A.L)在《利用跳棋游戏进行的部分机器学习研究》中提出“机器学习”这个概念,指出“这里使用‘机器学习一词来描述构建一种机器的问题,当观察其操作一段时间后,该机器在某种意义上表现出提高其性能的能力。”〔14〕萨缪尔在这篇论文中充分探讨了计算机通过学习来提高其表现能力的潜力,也潜伏着后来引发人们对人工智能机器学习的担忧。控制论与通信理论的创始人维纳(Nobert Wiener)认为机器的有效性包含了巨大的危险性,他在《控制论与通信论在动物和机器中》中指出“我们是技术进步的奴隶,我们不能让新罕布什尔的农场恢复到1800年的自给自足状态,正如我们不能通过思考来增加我们的身高一肘。我们必须在当今世界中寻找解决方案(如果有的话),这意味着我们必须坦诚面对自动机的问题,以及我们从瓶子里释放出来的新精灵。”〔15〕对于这个“新精灵”,造物主原本是将它装进潘多拉盒子里的,当它被放出来后,给人类带来的存在危机和生存威胁既是立体的,也是开放性生成的。但人类只看到人工智能带来的好处和便利,却忽视人工智能的自生成性。皮埃罗·斯加鲁菲(Piero Scaruffi)以“我并不害怕机器智能,我害怕的是人类轻信机器”〔16〕的方式表达了这一点。人们自恃人造的机器完全可以被人控制的这种盲目信念和无知的乐观,恰恰构成打开人造学习机器这一潘多拉盒子的强劲的生物学冲动。半个多世纪后的今天,当以理性的态度来重新审视将生物人类推向自毁的悬崖之上的人工智能,当然可以说打开这一潘多拉盒子的是计算机和人工智能科学家、技术专家及研究者们,但最终是由工业文明锻造生成的技术主义(technocracy)。

技术主义作为工业社会的精神产物,是一种社会认知论。它主张社会中产生的一切问题,尤其是经济问题、政治问题、存在安全和生活保障等问题,都可以通过并且只有通过技术才可解决。技术主义更是一种关于存在的思想观念。它强调技术不只是人类社会存在发展的工具,而是塑造人类文明并推进社会进步的真正动力,认为在人类社会和文明发展史进程中,技术是决定性的存在力量,是解决个人和社会存在安全与生活保障的根本方式。所以,技术不仅决定社会及其政治和经济,也塑造着人类存在和文明走向。〔17〕

技术主义的思想基础,是唯主体论和唯物质论。其中,唯主体论主张人是万物之灵,拥有主导世界和主宰万物的权力,突出人定胜天,认为人的力量是一切力量的核心,技术是人的力量的释放方式,但首先是人的意志、智慧、情感、理想的释放方式。因而,人创造技术,技术绝对地服从它的创造者,人完全地拥有制造技术的权力和绝对地支配技术的方法、智慧和力量。唯主体论还强调,人既然是世界的主人和万物的主宰,人就天然地拥有使自己存在自由和生活幸福的权利。人存在自由和生活幸福的决定性条件,是物质财富的丰足。人类坚信,世界是为人类而产生,万物是为人类自由和幸福而提供的条件。因而,自然界为人类自由和幸福提供了取之不尽、用之不竭的资源和条件,技术就是人类将自然界为之提供的取之不尽、用之不竭的资源和条件变成无可穷尽的物质财富的基本方式。由此,唯主体论必然诉求唯物质论,形成唯物质主义认知和价值体系。在技术主义的主导和塑造下,“社会应当从属于经济”〔18〕,而经济必须从属于技术。

法国哲学家雅克·埃卢尔(Jacques Ellul)指出,技术主义是指一种崇尚技术、追求技术发展的思想体系,它的兴起和社会化泛滥,极端地抑制了人文科学的发展,盲目地抬高了技术和科学的权威地位,使得技术和科学成为现代社会的主导力量。并且,技术主义的发展既导致了社会的失衡和不稳定,也成为人类自由和尊严的最大威胁。〔19〕美国经济学家和社会学家托尔斯坦·维布伦(Thorstein Veblen)认为技术主义是一种以技术和技术专家为中心的理念,这种理念将技术看作是解决社会问题的唯一途径,其基本倾向是忽视社会、政治和经济等其他因素。维布伦因此警告说:技术主义可能导致技术专家和技术自身成为权力的源泉。〔20〕罗伯特·海尔布龙纳(Robert L. Heilbroner)在《机器制造历史吗?》中指出,技术主义的盲目性将导致技术对社会的破坏性影响,更有可能从根本上威胁到人类的存在。〔21〕卡尔·本杰明(Carl Benedikt Frey)和麦克·奥斯本(Michael A. Osborne)在《就业的未来:职位对计算机化的敏感程度如何?》中利用机器学习算法对702个职业进行了分析,发现47%的工作岗位存在被机器取代的风险,指出人工智能和机器学习技术的发展将导致大规模的就业岗位流失,尤其是那些主要是重复性工作内容的职业。〔22〕

技术主义推动下的人工智能走得更远,它从根本上改变了社会政治和权力的性质及其张力空间。帕特里克·德鲁克曼(Patrick Dunleavy)在《智能政府:数字技术和公共治理》中指出:“数字技术的快速发展提高了政府的效率和服务质量,改善了公共治理的质量和效果,但也带来了更多的问题和挑战,尤其是关于权利侵犯、数据隐私和网络安全等问题。”〔23〕马特·贝尔(Matt Bell)和贝汉·福克斯(Behnam Fakhimi)亦认为“数字技术的出现既带来了社会挑战,也带来了社会危害,例如,数据隐私的侵犯、个人自由的剥夺、人类劳动力的替代、虚假信息的传播以及网络暴力的滋生等等”〔24〕。他们认为“数字技术带来的社会问题和根本风险与危机,不仅包括个人隐私受到侵犯、虚假信息的传播、网络暴力,更重要的是数字技术的无限度研发与运用,必将导致威权主义和独裁主义的抬头,进而导致对人权和民主价值的削弱”〔25〕。

产生于工业社会并在后工业进程得到极端发展的技术主义,培育出以计算机为运演工具、以会聚技术为认识方法、以大数据为分析、以人工智能为主导形态的生物工艺学技术体系。其中,人工智能给人类带来的福利以及各种可能性危机、灾难甚至对人类存在的颠覆,源于技术主义为它打造出了技术至上的社会框架。埃卢尔(Jacques Ellul)在《技术社会》中明确指出“技术主义是以科技为基础,信仰科技的力量,是一种技术至上的理念”〔26〕,并强调“技术主义思想的出现,往往会导致技术成为社会发展的主宰”〔27〕。布赖恩·温特(Brian Winston)指出“技术主义者通常认为技术是中立的、价值自由的,而事实上,技术的设计、使用和应用都受到社会、政治和文化因素的制约”〔28〕。技术主义的“技术中立”论喧哗是有意识地忽视甚至抹去这一基本事实,其根本意图是宣扬技术拜物教——“技术决定论是一个涵盖广泛思想的短语,但其核心是机器制造历史的观念。当然,这里所说的机器并不是指各种单独的设备,而是这些设备被整合到的‘技术结构中。正是这些技术结构被认为是决定人类事务形态和命运的关键因素”〔29〕。人类存在及其生存发展就这样被悄无声息地装进了“技术结构”这一社会框架之中,迅速地培育出技术对权力的渴望和权力对技术的垄断。从根本讲,技术拜物教的本质是权力拜物教。埃卢尔认为技术主义的权力拜物教即是“技术的威权化”,技术的威权化不仅带动技术和社会的分裂,最终是权力通过技术对人的全面奴役。正如海德格尔所指出的那样,技术之于人的本质是解放与奴役并存:“技术是一种解放人类的力量,同时更是一种奴役人类的力量。技术的进步可能会进一步剥夺人类的自由和尊严。”〔30〕

技术之所以解放与奴役并存,并且最终实现奴役对解放的彻底胜利,是因为技术具有反客为主的潜在性,这种潜在性由创造和使用它的人类来激活。传统的手工技术和机械技术蕴含的这种潜在性被人类激活的可能性只限于使用领域,并且这种激活只能靠人使用它时赋予它的力量:当我们凡事依赖某种技术时,该技术反客为主的潜在性就被激发出来,比如,当一个人完全依赖于人造的交通工具时,他将变得越来越不想行走,并越来越不会行走,而交通工具就在他面前反客为主地存在着。但对于人工智能这种新型的生物工艺学技术来讲,其潜在性不仅仅限于人对它的作用和使用的依赖性,而首先体现在人工智能本身具备极强的自主性诉求和主体能力,以及在运用中它能自主地选择和主体地行动,GPT-4具有的强大的自然语言应用能力就全方位地体现了它反客为主的潜在性的现实释放,及其反客为主的潜在性变成现实的无限可能性。这是因为人工智能以极端的方式放大了技术主义的“技术至上”,但“技术至上”的本质却是权力至上。所以,以“技术至上”为根本信念、以“技术拜物教”为根本诉求的技术主义发展成为至为完備的状态,就为人工智能无限度的竞争性研发提供了整体的和坚实的社会“认知、思想、精神”的基本框架。

三、构筑引导和规训人工智能的人文法则

尼采在《查拉图斯特拉如是说》中谈到科学技术发展可能对人的意义和尊严带来根本影响时指出:“人类的价值和意义不应该被技术所代替,我们应该保护人类的尊严和自由,避免被技术所奴役。”〔31〕尤其是当今已具极强自主性诉求和主体能力的人工智能,已呈现出对人的自由、尊严的威胁,人类社会正被引向是技术奴役人还是人引导技术的临界点上。因此,需要重新审视智者们关于人工智能研发将引发颠覆性危机的忧思与远虑:物理学家霍金(Stephen William Hawking)曾警告说,无所顾忌地研发人工智能意味着人类末日,因为“人工智能可以在自身基础上进化,可以一直保持加速度趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。”〔32〕未来学家库雷·兹韦尔(Ray Kurzweil)更是忧心忡忡地指出,21世纪科技步伐将是20世纪的1000倍,人类与智能机器之存在关系翻转的“奇点”将在2045年左右发生,这是极具分裂性的时间之点,人工智能将会以10亿倍人类的智慧站立在人类面前。〔33〕 计算机科学家摩西·瓦迪(Moses Wadi)亦指出:“人工智能革命不同于工业革命。19世纪,机器战胜了人类的肌肉;现在,机器正在与人类的大脑角力。机器人兼具大脑和肌肉,我们都正在面对‘被我们的造物完全取代的未来。”〔34〕上海交通大学江晓原教授认为:“人类正在玩的最危险的火有两把,即基因工程和人工智能,其中最危险的就是人工智能。”〔35〕伊隆·马斯克更明确地表示:“我们需要十分小心人工智能,它可能比核武器更危险。”〔36〕

站在人工智能可能奴役人类的临界点上,人类有两种选择,一是继续沉浸在人工智能带来的各种好处和便利之中,继续盲目地轻信智能机器并盲目地自信人类自己“可以驾驭机器”的能力;二是放缓研发步伐,重新审视经济增长、生活便利、科技争霸等与人类存在有关的“天平”应倾向何方,抑制人类的狂妄自大、贪婪、欲望和野心,以为自救。选择前者,属于生物人类的时间可能比库兹韦尔预言的更短,GPT-4的问世似乎验证此一判断;选择后者,其首要任务是构筑阻止人工智能野性开发的人文屏障。

人工智能与人类有史以来所有技术的根本区别是:以往技术的功能只是延长人的手臂,增强人的身体的力量;人工智能却是开发人的身体和生命,扩张人的大脑,并赋予机器以人脑工作原理和运行机制,尤其还赋予机器以极强自主性深度学习方式和情感能力,由此使人工智能研发本身成为突破人与机器之边界的方式。要阻止人工智能突破人与机器之间的边界,使机器始终处于为人类所用的工具状态,其根本前提是应该在全社会重建人文法则,用人文法则指导技术法则,用人文法则规范人工智能研发和应用。

能够指导技术法则理性展开的人文法则,是一个体系。构成这个体系的第一个人文法则,是合自然法则。所谓“合自然法则”,是指人的所有行为不能逾越自然的律法。以地球为载体的自然世界,是一个生物化的生命世界,其根本律法是生物的律法,这是以生物为自身规定的生命的律法。人类存在必须接受以生物为自身规定的生命的律法,人类为更好生存而谋求发展、谋求创造、谋求延长手臂和身体力量的全部努力,都必须服从以生物为自身规定的生命律法:“人类所创造的和未来要创造的一切技术都必然是与自然法则相一致的。”〔37〕这应成为人工智能研发应用的准则:人工智能产品不能违背以生物为自身规定的生命律法,一旦逾越这一生命律法,人工智能就会赋予其产品以人的智能、情感、意志以及能动学习和迭代升级智能、情感、意志的能力,如此发展下去,人将由技术和机器的主人沦为技术和机器的奴役对象。

规训和指导人工智能理性研发应用的第二个人文法则,是共生节制法则,这是对共生法则和节制法则的简称。共生节制法则是对以生物为自身规定的生命律法的具体展开。自然世界是一个生命的世界,生命存在构成自然的基本状貌,生命生长成为自然的自身规定。在自然世界里,生物与生物之间,生命与生命之间必须遵循的基本法则是同在共生。遵循这一共生节制法则,生物与生物之间、生命与生命之间必须相互限度,也必须互为节制。

自然世界的共生节制法则,决定了人与人、人与群、人与物、人与地球生命、人与环境、甚至人与自己的创造物技术、机器等等之间必须保持一种共生关系,这是人类得以生和更好地生的前提条件。今天人类身处的环境危机,是人类违背与环境共生的法则的最好说明;而人工智能研发应用呈现出来的各种风险和危机,也显示出共生节制法则不能违背。无论从环境教训还是从智能技术带动的危机与风险看,人类违背共生节制法则本质上是被利欲绑架,在行为上表现为无节制;反之,遵守共生节制法则,人类必然节制利欲,节制行为,凡事有边界。在技术开发方面同样如此。技术是人的产物,技术在被运用时才获得价值,技术的有界或无界,同样是研发应用者对它的确定。所以,技术表现出来的一切,以及技术产品具有的全部功能,都是人类的赋予,技术及其产品有界或无界,均体现人类理性的边界或非理性的无边界性。正是因为如此,“有益的做法是将技术定义为一般意义上的工具,不但包括机器,还包括语言工具和智力工具以及现代分析方法和数学方法”〔38〕。梅赛恩(Emmanuel Mesrthene)告诉我们一个道理:阻止人工智能颠覆人类主体性存在的根本方法,是将所研发的智能产品限定为“一般意义的工具”,这需要人类节制无限度的财富占有、经济高增长、技术霸权竞争等利欲,遵循共生节制法则,有限度地开发智能技术,有节制地生产智能产品,唯有如此,才可保障人类存在安全和人类主导技术与机器的地位。

阻止人工智能颠覆人类存在安全应遵循的第三个人文法则,就是身心边界法则。人与物、人与机器的根本区别有三:第一,人是生物学性质的肉身,作为人造的技术和由技术制造出来的机器及其他人造物,只是物或物件;第二,人是身心一体的生命,物可能有身体、有生命,却没有心,缺乏身心一体的构成;第三,人从自然人类向文化人类方向进化使动物存在上升为人文存在而区别于动物的根本标志,是意识思维。动物有意识,却没有意识思维,其他的物、技术、机器,既无意识,也无意识思维。人工智能研发使机器模拟人脑工作原理和运行机制的成功,既使机器获得了意识思维、个性要求和自主学习的方式,更可能生成出意志和情感。这样一来, 作为生物人的“我们越来越多地将自己的记忆、决定、日常安排和其他活动,以一种与我们不断融合的方式,委派或外包给这些数字信息智能体去打理。……这一切都会变得司空见惯,人类独一无二的地位将被取代也是如此。”〔39〕并且,因为生活的便利或经济增长或因为技术争霸的需要,更加盲目地轻信智能机器,为了给智能机器设定行动便利的代价却是给世界和人的存在及行动设定了边界〔40〕,或可说为了方便智能机器,我们总是在不断地改变自己,限制自己,并在这种自为限制和改变中模糊了人与技术、人与机器的边界,“对于人来说,身体行动在信息化时代变得缺乏,我们依赖与身体连接的处理信息的设备,例如手机和电脑等。基于这种混合身体,甚至是被机器所主导的身体,我们的意识必然受到影响。而反过来,成为智力代替者的机器,因为其意识功能的需要,也在规划着超出预先设定的意识内容范围的身体。智能机器不再会因为人所幻想出来的统治欲或者自惭形秽而寻找符合自我的实体身体。可以想象,人也终将会抛弃这些。智能机器的类人能动性将在技术物的逻辑下继续发展自身,而能动性的载体也不会按照人的身体构建 ”〔41〕。人工智能研发一路向前至于今天,已经将人面对的危险完全暴露了出来,这就是每一款人工智能机的诞生,都在给人设定新的规则,新的限制,新的行为边界,而人的自由、人的权利、人的情感及其抒发或表达的方式,都在一点一点受到限制,承受剥夺。人工智能自动打卡、人脸识别、天网、摄像头等等所呈现出来的基本倾向是,不是人在为人工智能设定规则,而是人工智能在为人设定规则。在这诸多的甚至层出不穷的技术设定人、技术设计人的存在和人的生活与行动的规则中,人开始消失了,剩下的只是肉身化的物或者劳动工具,甚至沦为可以被技术化的权力和权力化的技术任性处置的耗材。尤其是具备自如的自然语言创设及应用能力的ChatGPT和预测并改革蛋白质结构进而改变生物工程的AlphaFold2,从两个不同维度展示人工智能研发已经全面拉开了人类被技术化存在的大幕,将人类存在推向了被后技术化存在的战场。如果再向前迈一步,智能机器不可能只停留于按照人的意志和思维来构建自己的身体,而是以自己的意志和思维来构建人的世界结构、格局和方式。化解这种危險的紧急刹车方式,就是严格遵循人的身心边界法则,终止智能机器研发对人的身心边界的窥视,将智能机器的研发严格限制在“一般意义的工具”范围内。

要言之,遏止人工智能无限度研发,必须遵循的合自然法则,是保障人类安全的存在论法则;必须遵循的共生节制法则,是保障人类安全的生存论法则;必须遵循的身心边界法则,是保障人类安全的物种法则。如上三大人文法则的整合实施,构成阻止人工智能颠覆人类的第四个人文法则,即限度开发法则,这是遏止人工智能无限度研发、保障人类安全的实践论法则。遵循该法则,就是在人与智能技术、人与智能机器之间划定明确的、在任何情况下都绝对不能突破的“红线”。这就是人类在人工智能和智能机器面前的“绝对安全线”。基于如此定义,人工智能的限度开发法则具体落实为三个方面:

第一,人工智能研发必须将所有智能产品的自主性能力降低到最低限度。这个“最低限度”的明确指标,就是人工智能研发出来的产品只能成为“一般意义的工具”,它可具有严格的程序设计的逻辑思维能力,而不应该具有抽象思维的能力和任何形式的自主性调节能力,即人工智能研发不能赋予智能机器以“自制能力”,即不能拥有“一旦机器的一部分启动,那么该机器就根据外部环境进行自我反馈运行,而具备在一定时间内不受外部控制的能力”〔42〕。

第二,人工智能研发绝对不能勘探人类存在的边界,即绝不能赋予智能机器勘探人类存在的身体边界、精神边界和心灵边界的能力。如果人工智能研发无视这一人的身心边界法则,那么,所研发出来的智能产品“将相当迅速地取代我们的存在”〔43〕。

第三,人工智能研发绝不能赋予智能产品制定规则的潜能和使其潜能转换成规定的能力。因为天赋人类对人工智能的屏障有二:一是制定规则;二是探索边界。人工智能目前不能制定规则,是在按照人制定出来的规则行事,但并不意味着它始终会按照人的规则行事,跳棋、象棋、围棋冠军被人工智能机战败的真正秘密,是这些人工智能机具有极强自主性的深度学习的能力,这种自主性的深度学习的能力生成出可能内在地组织规则进而可以进化到创造规则的境界。人工智能机的这种可能性,将被另一种冲动推动而会逐渐变成现实,那就是我们还在继续研发甚至不遗余力地加大研发人工智能的力度,所以我们根本不能保证人工智能没有制定规则的能力。反之,我们能够保证人工智能不具备制定规则的能力的根本前提,也是唯一的和绝对的前提,是人类现在停止对人工智能的无限度研发,其基本方法是严格地限制智能产品的自主学习能力和自组合规则能力的提升。

四、重构人文科学的精神共识

人工智能的诞生和发展,当然有其因为解决环境、资源、经济问题以及争夺世界主导权等的强劲动机和推动力量,但更根本的原因却是人文科学的衰落而使整个世界丧失制衡技术主义的真正知识力量和精神力量。

客观地讲,技术主义的具体形式是技术至上,以技术至上为实质诉求的技术主义产生于近代科学革命的胜利,机械论世界观是它的哲学基础,去本体论的认知论哲学和工具理性方式,是其精神支撑,工业文明及支撑它的机械技术体系,是其生长的土壤。人工智能,还有基因工程,以及统摄人工智能和基因工程的会聚技术,是技术主义自由泛滥的最新成就,也是其扭曲和异化人类精神地存在的最高形式。技术主义从近代萌生一直发展到今天,实质地展开为会聚实利主义、物质主义和霸权主义于一体的历史过程。正是这一历史过程,解构了宗教和信仰,一步步缩小了哲学的范围并压缩了哲学的精神和张力,然后实现了对人文科学的弱化。比如,在亚里士多德那里,哲学的主体内容是物理学,这个传统一直保持在笛卡儿的“大树哲学”体系中:在笛卡儿那里,物理学是哲学这棵大树的树干,形而上学是其树篼,伦理学、政治学、力学、医学则是这棵哲学大树的主要树枝。从古希腊到近代,科学也是人文的,并且内在地生成和拥有人文精神。不仅如此,今天被我们划归为社会科学的许多学科,比如经济学、政治学,也属于人文科学,而且还是最核心的应用取向的人文科学内容。比如经济学之父亚当·斯密(Adam Smith)在格拉斯哥大学讲授的“道德哲学”课程,就包括了神学、伦理学、法学和政治学,并且其政治学还包括了当时的政治经济学。在这样的学科设置中,“神学是道德哲学的依据,它为其提供存在的信仰基础;伦理学为道德哲学构建价值体系与实践原则;法学、政治学以及经济学是道德哲学的实践方式与途径”〔44〕。为什么会这样呢?因为人类所有的精神探索都是动因于人并服务于人的。比如现在的“三分”科学结构中,自然科学以自然为对象,侧重探索自然世界的存在律法和运行规律,不过是为人如何更好地与自然打交道提供真知和方法;社会科学以社会为对象,侧重探讨制度社会的存在律法和运作规律,不过是为人如何更好地与群、社会相处提供真知和方法;人文学术和艺术以人自身为对象,侧重探讨人的存在律法和生存规律,以为更好地与自己、他人相处提供真知和方法。所以,自然科学、社会科学、人文学术和艺术三者,表面看完全相异,但在人的存在本体和生存本质层面,其真知和方法是相通的,其本质诉求均是人文的。美国科学史家乔治·萨顿(George Sutton)讲得非常清楚:“科学不过是自然界以人为镜的反映。在某种意义上我们始终是在研究人,因为我们只有通过人的大脑才理解自然;然而,我们同样可以说我们一直是在研究自然,因为没有自然我们无法理解人。无论我們是研究人的历史还是研究自然的历史,我们研究的主要目的都是为了人。我们无法摆脱人,即使我们想这样的话。科学的和谐是由于自然的和谐,特殊地说是由于人类思想的和谐。要得到真实的图像,不仅自然必须是真实的,而且作为镜子的人也必须是真实的。”〔45〕人文贯穿于所有的学科之中,是所有科学的灵魂。主导人类科学的技术主义之所以能极大地压缩、弱化人文科学,其根本前提是它首先对科学予以(自然、社会、人文)分类的形态学隔离,然后消解自然科学和社会科学的人文内涵,将人文学术定义在文史哲这样狭小的范围,由此使人文丧失接地气的条件和落地的土壤。这种状况就是人文科学的衰落。

清晰地认识人文科学的现状,要在将技术主义推向极端的人工智能时代构筑人文屏障,就必须要重建人文科学。重建人文科学,前提是重新端正认知人文科学的前提。孙周兴指出:“我认为人文科学需要确认两个前提:其一是技术统治的确立,其二是全球一体的现实。只有确认了这两点,人文科学才可能重新审视自己的处境,并且积极界定自己的未来使命。”〔46〕在反思性拷问人文科学处境的认知基础上,重建人文科学,应该从五个方面努力。

首先,应该重新恢复自然科学、社会科学的人文信仰、人文情感、人文品质、人文精神,使其人文化。自然科学和社会科学重新人文化的基本准则,可用刘易斯·芒福德(Lewis Mangford)的话来表述:“要想真正得救,则人类需要一种类似宗教的自动皈依:必须以有机世界观代替机械世界观,必须重视人格和生命远过于机器和计算机。”〔47〕

其次,应该重建社会化的人文信仰、人文情感、人文精神和人文知识体系。一是要重新拷问人能否独特地存在和生存的问题。客观地看,人的存在和生存的独特性问题,虽然客观地呈现历史的连续性取向,但最终张扬时代性诉求。比如,在遥远的古代,是相对广袤的自然世界而叩问人何以可能独特地存在和生存。在逝去不远的近代,是相对宗教而拷问人何以可能独特地存在和生存。当进入人工智能时代,却必然相对人工智能、基因工程这样的技术而追问人何以可能独特地存在和生存。二是应该拷问人的情感能否被替代,包括人的情感能否被物质、技术、机器所取代,物质、技术、机器能否拥有人的情感。這一问题的实质是人在人工智能时代应不应有生物人的情感防线。三是应拷问信仰能否被替代。这个问题的实质是人工智能是否有权破译人的心灵世界,将人的生命的神圣和人的存在的神性拱手交给智能机器。四是应该拷问生物人的伦理属性和政治属性能否被智能技术、智能机器的伦理所替代。只有对如上四个基本问题予以重新审查,人文信仰、人文情感、人文精神和人文知识体系的重建才成为可能。唯有当重建起人文信仰、人文情感、人文精神和人文知识体系时,才可为人文科学的重建提供土壤、动力、方向和指南。

再次,应该振兴哲学,创建当代哲学,以为重建人文科学,抵御人工智能技术颠覆人类独立存在和主体地生存提供最终的存在论依据和思想的基石。

从次,应该重建人文教育,将人文信仰、人文情感、人文精神和人文知识体系的重建和坚守,纳入整个教育体系之中,包括基本教育体系和高等教育体系之中,并以人文教育引导和规训科学教育、政治教育和经济教育。

最后,应该以人文信仰、人文情感、人文品质、人文精神和人文真知为指南,重建以限度生存和共生节制为根本准则的人文主义的伦理价值体系、政治实践体系和经济市场体系。

五、结语

《暂停巨型AI实验室:一封公开信》是人工智能业界发出的自我警告,即只有当确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,“在开始训练未来的系统之前,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。”〔48〕

对于已具有无限可能性的人工智能而言,其呈现出来的风险如何才是“可控的”?那就是人类将命运掌握在自己手中,而不拱手交给机器。回溯人类史,人从自然人类的黑暗深渊中走出向文化人类方向进化,将动物存在转变成人文存在,并不断向前攀登文明发展的阶梯,其中每一个环节,人类都将命运掌握在自己手中,并由此成就了人类自己。人类的继续存在而拥有属于自己的未来,同样需要将命运掌握在自己手中。今天,当面对已经获得超越人类的意识、思维、认知、逻辑及其灵活创设和应用自然语言的能力的人工智能,人类自己掌握自己的存在命运变得比任何历史时期都更重要,也更根本。面对已初具无限可能性的人工智能,人类掌握自己命运长存永久的方式是重建人文信仰、人文精神、人文知识和人文科学体系,以人文来引导和规训科技,收敛技术主义,放弃技术至上,限制人工智能以及基因工程等整个生物工艺学技术体系的无限开发,有节制地应用技术。只有技术安全时,人类才有存在的安全。

为此,有必要时时谨记霍金发出的警告:

人工智能可能是人类历史上最重要的事件。但除非我们学会避免风险,否则它也可能是最后的事件。与人工智能带来的诸多益处(如诊断癌症)并存的,还有巨大的风险(如自主的武器)。我们需要非常谨慎地对待人工智能,它的潜在危险甚至可能超过核武器。〔49〕

〔参考文献〕

〔1〕Rousseau,J.J.The Social Contract and The First and Second Discourses.Yale University Press.1997,p.146.

〔2〕〔7〕Turing A M.Computing machinery and intelligence,Mind,1950.pp.433-460,433-460.

〔3〕Mc Carthy,J.The problem of programming a computer to understand natural language.In Proc.IRE (Vol.49, No.1).1958,pp.11-15.

〔4〕Newell,A.& Simon,H.A.The information processing theory of thinking.Educational Psychology, 26(1).1956.pp.43-50.

〔5〕Winston,P.H.Artificial Intelligence (2nd ed.).Addison-Wesley.1992,p.4.

〔6〕Nilsson,N.J. Artificial Intelligence:A Modern Approach. Prentice Hall.1998,p.2.

〔8〕Aiken, H.The development of computer technology and its impact on management.Harvard Business Review, 34(6),1956,pp.135-144.

〔9〕Hopkins,J.Artificial intelligence: A modern approach.Journal of Computer Science, 10(1), 2014, p. 11.

〔10〕Gardner,H.Intelligence Reframed:Multiple Intelligences for the 21st Century.Basic Books,1999,p.34.

〔11〕Horvitz,E.Principles of mixed-initiative user interfaces.Communications of the ACM, 61(12), 2018,pp.38-45.

〔12〕Nielson, M.Deep learning: A practitioner's approach.Journal of Machine Learning Research,15,2014,p.9.

〔13〕Pause Giant AI Experiments: An Open Letter,https://futureoflife.org/open-letter/pause-giant-ai-experiments/.

〔14〕Samuel,A.L.Some Studies in Machine Learning Using the Game of Checkers.IBM Journal of Research and Development,3(3),1959,p.210.

〔15〕Wiener,N.Cybernetics:Or Control and Communication in the Animal and the Machine (2nd ed.).MIT Press.1961,p.162.

〔16〕〔美〕皮埃羅·斯加鲁菲.智能的本质:人工智能与机器人领域的64个大问题〔M〕.任莉,张建宇译.北京:人民邮电出版社,2017:168.

〔17〕Langdon Winner.The Whale and the Reactor: A Search for Limits in an Age of High Technology.University of Chicago Press.1986,pp.10-11.

〔18〕〔美〕大卫·格里芬.后现代精神〔M〕.王成兵译.北京:中央编译出版社,1998:19.

〔19〕Ellul,J.The Technological Society. Vintage Books,1964,pp.3-20.

〔20〕Veblen,T.The engineers and the price system. B.W.Huebsch,1919,pp.69-79.

〔21〕〔29〕Heilbroner,R.L.Do machines make history? Technology and Culture, 8(3), 1967,pp.335-345,13.

〔22〕Frey,C.B.& Osborne,M. A.The Future of Employment:How Susceptible Are Jobs to Computerisation?. Technological Forecasting and Social Change,114,2017,pp.254-280.

〔23〕Dunleavy,P.Digital Era Governance: IT Corporations, the State,and E-Government. Oxford: Oxford University Press,2014,p.7.

〔24〕〔25〕Bell,M., & Fakhimi,B.Digital Technology and Democratic Politics. London: Palgrave Macmillan,2020, p. 1,2.

〔26〕〔27〕Ellul,J.The Technological Society.Vintage Books,1964,p.44,45.

〔28〕Winston,B.Media Technology and Society:A History from the Telegraph to the Internet. London: Routledge,1998,p.6.

〔30〕Heidegger,M.The Question Concerning Technology and Other Essays. Harper Perennial Modern Classics. 2018,p. 28.

〔31〕Nietzsche,F.Thus Spoke Zarathustra.Penguin Classics.2005,p.82.

〔32〕〔英〕斯蒂芬·威廉·霍金.自动化和人工智能将让中产阶级大面积失业〔DB/OL〕.http://tech.qq.com/a20161203/002359.htm.

〔33〕〔美〕雷·库兹韦尔.奇点临近〔M〕.李庆诚,董振华等译.北京:机械工业出版社,2014:80.

〔34〕〔美〕约翰·马尔科夫.与机器人共舞〔M〕.郭雪译.杭州:浙江人民出版社,2015:86.

〔35〕江晓原.人工智能:威胁人类文明的科技之火〔J〕.探索与争鸣,2017,(10).

〔36〕Markoff,J. (2014, August 3). Elon Musk, Artificial Intelligence, and the Fear of the Robot Apocalypse. The New York Times. https://www.nytimes.com/2014/08/03/business/elon-musk-looks-to-the-robot-apocalypse.html.

〔37〕〔德〕弗里德里希·拉普.技術哲学导论〔M〕.陈凡,秦书生译.沈阳:辽宁科学技术出版社,1986:102.

〔38〕Mesthene F G,The Roleof Technologyin Society,Technology and Culture,1969,10(4).

〔39〕〔40〕〔意〕卢西亚诺·弗洛里迪.第四次革命〔M〕.王文革译.杭州:浙江人民出版社,2016:108.

〔41〕张正清,等.第四次革命:现代性的终结抑或重构〔J〕.武汉大学学报(哲学社会科学版),2018,(3).

〔42〕Lin P,Abney K,Bekey G,Robot Ethics:Mapping the Issues for a Mechanized World,Artificiial Intelligence,2011,175(5/6),pp.942-949.

〔43〕〔美〕斯图尔特·罗素,帕特·诺维格.人工智能:一种现代方法〔M〕.姜哲,等译.北京:人民邮电出版社,2004:741.

〔44〕唐代兴.生境伦理的知识论构建〔M〕.上海:上海三联书店,2013:122.

〔45〕〔美〕乔治·萨顿.科学史和新人文主义〔M〕.陈恒六,刘兵,仲维光译.北京:华夏出版社,1989:29.

〔46〕孙周兴.人文科学如何面对人工智能时代?〔J〕.哲学分析,2018,(2).

〔47〕〔美〕刘易斯·芒福德.机械的神话〔M〕.钮先钟译.台北:台北黎明文化实业股份有限公司,1972:75.

〔48〕Pause Giant AI Experiments: An Open Letter,https://futureoflife.org/open-letter/pause-giant-ai-experiments/.

〔49〕Nature Magazine - Rise of the Machines,https://www.nature.com/articles/478161a.

【责任编辑:罗唯嘉  刘彦武】

Humanistic Principles :Barriers to Prevent Unlimited Development of Artificial Intelligence TechnologyTANG Dai-Xing

〔Abstract〕Traditional technologies focus on natural objects for development, resulting in technological artifacts that lack the ability to reproduce and have no autonomous aspirations. In contrast, artificial intelligence (AI) targets the human brain and aims to “mimic and surpass human intelligence.” AI, from simulated learning to deep learning with strong autonomous aspirations, has rapidly developed the potential to “surpass human intelligence.” The emergence of ChatGPT-4 and AlphaFold may push humanity to the critical point of “technological enslavement of humans” and “human-dominated technology.” If allowed to continue unhindered, intelligent machines with deep learning and iterative upgrading capabilities will inevitably surpass human boundaries. The ultimate barrier to protect humanity from technological and machine enslavement lies in the field of humanistic sciences. Establishing humanistic barriers to prevent the unrestricted development of AI requires a reconstruction of humanistic principles. Firstly, there is a need to restore the humanistic beliefs, emotions, and spirit in natural and social sciences, making them humanistic in nature. Secondly, it involves rebuilding a socialized humanistic belief, emotions, spirit, and knowledge system. Thirdly, it necessitates the establishment of contemporary philosophy as a conceptual foundation for humanistic reconstruction. Based on this foundation, efforts should be made in two practical aspects. Firstly, reconstructing humanistic education to guide and regulate scientific education. Secondly, rebuilding a humanistic value system and a humanistic political-economic practice system based on the principles of limited survival and coexistence.

〔Key words〕Artificial intelligence;Technological determinism; Humanistic principles;ChatGPT;Humanistic spirit

猜你喜欢

人文精神人工智能
2019:人工智能
人工智能与就业
人文精神在科技期刊编辑出版中的体现及构建
数读人工智能
下一幕,人工智能!
试论医学人文精神的构建
循证医学的人文精神
寻找历史的缝隙——关于“人文精神讨论”的述评与思考