APP下载

生成式人工智能与知识生产

2024-05-08刘海龙

编辑之友 2024年3期
关键词:人工智能

【摘要】生成式人工智能与知识生产范式的变革是目前广泛关注的问题。文章首先对质疑人工智能不能进行知识生产的观点进行分析与回应,在此基础上回顾知识媒介历史,探讨生成式人工智能知识生产的特点,总结得出三种知识媒介,即追求全面图书馆藏的“巴别图书馆1.0”、运用非线性方式组织知识网络的“巴别图书馆2.0”、归纳知识底层逻辑重新生成新书的“巴别图书馆3.0”。目前的生成式人工智能属于“巴别图书馆3.0”,它打破了传统的知识搜索加推理的知识生产方式,通过模仿人类知识进行知识重构。这种新的知识生产方式虽基于统计学,是海德格尔意义上的“新常人”产物,但也具有创造性。人机协作的知识生产是生成式人工智能具有创造性的重要条件,但这种新的知识生产方式并非传统意义上的“思”,会引发人类思维逻辑机器化,以及知识权威和知识标准混乱等潜在后果。

【关键词】人工智能 知识生产 智能传播

【中图分类号】G206 【文献标识码】A 【文章编号】1003-6687(2024)3-005-09

【DOI】 10.13786/j.cnki.cn14-1066/g2.2024.3.001

一、人工智能能否进行知识生产?

在2023年年底由《学术月刊》《光明日报理论部》和中国人民大学书报资料中心联合发布的2023年度中国十大学术热点中,“生成式人工智能與知识生产范式变革”名列其中。[1]以ChatGPT、Gemini为代表的生成式人工智能之所以引起不同学科的关注,就在于它似乎可以无所不知、源源不断地为人类的各种问题提供解答。可以预见,未来它将深度地介入各种类型的知识生产。由于采用深度学习的算法,生成式人工智能基本上还是对知识的再生产,在这个意义上,生成式人工智能是一种基于算法的知识媒介。

本文讨论的知识,不限于专业性的、系统的、正式的知识,而是知识社会学和现象学中所说的更广泛的知识,即个人用于建构世界的意义与做出决策的信念,它既包括正式的知识,也包括非正式的日常知识,比如新闻、传言、故事、神话、习俗等。[2]这就是杜威所说的通过习惯知道如何做的知识,“我们走路和大声阅读,我们上下有轨电车,我们穿衣脱衣,我们做千万个有用的活动,却没有思考它们。”[3]人工智能研发进路的分歧基本上反映了这两种不同知识的区别。正式的知识偏理性逻辑运算,往往先将世界抽象成某种形式或符号,再进行推理、计算。而非正式的知识则更依赖于难以被完全抽象形式化的身体、情感等非理性的、难以用语言表达的默会知识。杜威把非正式知识称之为实践知识(knowing-how),与正式的命题知识(knowing-what)相对。[3]后者依赖长期的模仿、学习和实践,不断强化某些符号与行为间的联系,这就形成以深度学习、神经网络等为代表的联结主义的人工智能开发路径。[4]

语言学家乔姆斯基曾批评目前的神经网络(联结主义)进路的人工智能只是模仿而非理解,他认为不能自己加以解释的输出结果不能称之为知识。[5](155-156)这种看法混淆了正式知识与非正式知识。能够通过符号计算得出的理性知识是可以解释其输入、规则和推理过程的,但非正式知识就很难说得清其背后的所有依据,人们学习非正式知识的方式也主要是通过模仿,从说话的风格、语音语调、姿态言辞背后的微妙意义,到走路、游泳、骑车,有许多自动化的技能,但是却很难解释清楚为什么会这么做。这就像海德格尔对“上手”与“在手”的区分。我们“上手”使用用具时并不会把注意力放在用具那里,而是专注于任务本身,人通过操劳领会用具的性质,此时用具变得通透甚至消失,并不是我们认识的对象,是不可解释的。只有当工具出现问题时,我们才会将工具作为认知对象,去观察、思考、解释它们,这时候它们便处于“在手”状态,已经不再是我们打交道的对象,而是认知的对象,其属性发生了根本变化。[6]有时候当人们不用意识去控制,进入“心流”状态时,反而表现得比意识控制时更好。比如2018年获得奥斯卡最佳纪录片奖的《徒手攀岩》中表现的,攀岩爱好者迪安·波特(Dean Potter)在攀岩时完全依赖身体的感觉,将控制权交给无意识。从现代脑科学角度看,就是完全依赖人们意识不到的神经元突触连接,经过长期训练与学习,它们之间已经建立了人类意识不到的固定联系,具有精确的处理能力。[7]

概括而言,人类对媒介技术与知识生产认识存在着几种不同的看法。首先,作为一种“常识”,媒介技术被视为传播知识的工具,比如伯克在他的《知识社会史》和《什么是知识史》中,皆持这种看法。[8-9]媒介技术可用于储存和扩散,随着技术的进步,知识的扩散速度和渗透率会越来越大。这种看法将知识与媒介截然二分,忽视了媒介对于知识本身的影响。第二种看法肇始于伊尼斯,他将媒介与知识的关系作为核心问题进行关注。在其媒介偏向论中,具有不同空间和时间特性的媒介影响了知识的垄断与扩散,从而改变了社会的权力结构与历史进程。[10]从表面看,伊尼斯与前一种媒介工具论差别不大,然而他却开启了媒介化知识的传统,媒介技术并不是外在于知识的,而是知识的重要维度。麦克卢汉将这一观念发扬光大,他的那句“媒介即讯息”,不仅意味着不同时代的媒介决定着知识的深层结构(如以口语为代表的听觉/神话性知识、以字母表为代表的视觉/理性知识),而且媒介本身就是一种因为透明而被隐藏的知识,它的中介性被它自己屏蔽掉了,使人很难感知。后来的德布雷、基特勒都沿着这个思路不断将媒介化知识的问题进一步引向深入。

当前媒介在知识生产中扮演的角色有了新的变化。在人工智能时代,媒介从隐蔽的知识中介变成走上前台的行动者。它不仅在隐喻的意义上参与知识生产,而且以主体的身份,回应用户需求和问题,直接进行知识生产。正如古兹曼(Guzman)所说,目前的人机交流正在走向机器以主体的身份与人交流的新阶段。[11]

不过细究起来,生成式人工智能是否真的能够感知世界,它生产的是否是真正的“知识”,基于计算的认识论与人类的认识论是否具有同一性……这些都是存在争议的问题。原因在于目前对于知识的定义,均是以人类的知识为标准。比如黑格尔在《精神现象学》中提到,精神的最初状态来自于身体感知的知识,然后才得以逐渐抽象和一般化。尽管基于感官的知识在这个演化链条上处于低端的位置,但却是精神演化必不可少的一环。[12]如果缺乏这种依赖感官的知性的知识,一般化的知识就成为没有实质内容的空壳。在伯格和卢克曼的《现实的社会建构》中,知识的一般化过程也是从个体的具体经验开始,逐渐通过类型化、客观化、正当化的过程,抽象为特定群体共同接受的知识,最后再通过时间传承固定成为传统。[13]

目前基于大语言模型的人工智能生产的知识跳过了身体感知这个最低级也最基本的步骤,直接通过算法对已经具有一定抽象度的知识进行编码(类型化、客观化)和概率计算(平均化)。这就像哲学家塞尔在“中文屋”假说中所说的那个人一样,对于词语指涉的对象没有任何直接的经验,甚至都不知道它们具体的意义是什么,只是通过语言使用手册,将指令中最可能的语言(知识)输出给提问者。[14]在许多人看来,这并不符合人类对于“思考”与“知识”的一般定义。弗卢塞尔将这种知识称之为“技术图像”,与传统图像不同,技术图像不是对外部现实世界的呈现,而是依据凝想对既有历史的吸收与利用,它通过概念的计算与自我指涉,最终会将历史消耗殆尽,陷入尼采所说的“同一物的永恒循环”。[15](40)

哲学家德雷弗斯在《计算机不能做什么》一书中认为,理性主义及胡塞尔的超验现象学主张将世界形式化,将其变成非身体化的数据,但是当面对现实世界的多重复杂性时,这种方法就难免捉襟见肘。他更服膺海德格尔的现象学进路,认为身体在世所产生的知识要比计算所产生的离身化的被动知识更丰富、更复杂。[16]法国哲学家利奥塔也提出,这种仅存在于理性计算而缺乏身体感知的知识并不是真正的知识。[17]

对知识定义的探讨,必然会涉及哲学史上关于智能、心灵、身体、心理等问题的争论,尤其是身心关系的讨论,非常复杂。如果借鉴图灵判定“机器能不能思考”这个问题的思路,抛开对知识的本质主义定义和人类中心主义的定义,从实践结果层面看,目前以大语言模型为基础的人工智能通过语言与符号的互动,以一种类主体的角色,影响了用户认识世界与做出决策。这种知识在功能上与用户通过亲身实践、阅读讯息、与他人交流获得的知识完全是等价的。随着技术的进步,未来机器甚至能够通过直接感知获得知识,有可能建立起与人类知识平行的另外一个知识的范式。如果不执着于人类中心主义的对知识的定义,未必一定会得出人工智能无法生产知识的结论。质疑机器能否思考或者机器能否生产知识,就和讨论“潜水艇是否会游泳”一样,可能只是以人类为标准的语言游戏。在某种意义上,它们生产的是不同于人类知识的知识,并且从历史进程看,这种基于算法的知识及认识论,正在成为人的认识论和社会关系的纽带。[18]

人工智能知识生产也会反过来改变人类对于知识的看法。比如可以预见的一点是,未来使用不同语言的人可以借助人工智能翻译进行自如的交流,他们不具有另一种语言的知识,亦可用另一种语言表达思想。当然,在过去,不同语言的交流可以借助译员完成,但人工智能的“翻译”可以从语言扩展到任何领域,比如时下最前沿的绘画(如Midjourney)、视频制作(如Sora),甚至借助脑机接口,可以具备下围棋、作曲、写书法、跳舞、开飞机等技能。这会深刻改变人们关于学习与知识的概念。如果说考试时人们只抄袭了别人答案,会被认为没有掌握知识,考核不合格,那么使用人工智能提供的答案而不理解其意义能不能被认为掌握了这个知识?是否一定是理解某个操作意义才叫作具备这方面知识,塞尔“中文屋”假说中关于知识的定义是否仍然适用,人加上机器是否仍会产生意向性?人们会逐渐发现原来对于人工智能是否能够思考的质疑也会被加诸使用人工智能的人身上,未来的学习是否还需要按照现有的定义按部就班?这些问题未必会有共识,但是关于知识和学习的看法,肯定会变得更加多元。

人工智能生产的知识究竟与人类生产的知识有何不同?要讨论这个问题,首先要将其放到人类知识生产的大背景中加以理解,考察其知识生产方式的獨特之处与断裂之处,然后才能讨论这一新的知识生产方式会对个体及社会产生什么影响。本文将初步讨论以下三个涉及人工智能与知识生产的问题:

1.当前以大语言模型为基础的人工智能在人类的知识生产历史中处于什么位置,究竟有何种创新,在哪些方面对原来的知识生产方式构成了挑战?

2.从现象学角度看,以大语言模型为基础的人工智能生产的知识与人类的知识有何不同?

3.人工智能生产的知识可能对使用者及社会产生什么潜在的影响?

二、从宇宙之书到生成之书

从人类知识史看,生成式人工智能的知识生产方式具有革命性,它很有可能开创一种新的知识生产范式。对这个新范式的讨论有许多角度,如果从媒介视角切入,可以先从人类知识的物质层面——储存与加工的方式进行考察。知识尽管被视为非物质性的存在,但是从媒介视角来观察,反而会跳出具体的知识内容,从知识与载体、保存空间、保存方式、与人类的互动界面等方面,看到知识的形式特征。

这里不得不提到阿根廷著名作家博尔赫斯的一篇短篇小说《巴别图书馆》,它关注的正是知识的物质问题。博尔赫斯将整个宇宙视为一个图书馆,认为在理论上人类关于一切的知识均会被记录下来。他想象了一个六边形的塔状图书馆,每条边立着书架,不同楼层彼此相通,它储存了人类有史以来所有的图书。[19]正如这个图书馆的名字“巴别”显示的那样,这是一个可以通向天堂的知识之路,是通过知识掌握世界的伟大工程。

其实类似野心勃勃的工程在历史上不乏先例,中国元朝之后也存在“琅嬛福地”的想象。传说这是天帝藏书的地方,它包含人类可以想象的所有被记载下来的知识。张岱就曾以“琅嬛”命名自己的文集。历史上曾经有许多图书馆满足了人们对知识的想象,比如埃及的亚历山大图书馆、中国汉朝的天禄阁(藏书)与石渠阁(保存档案)、阿拉伯的智慧宫(巴格达)、非洲的廷巴克图图书馆(马里共和国)等。

我们可以把博尔赫斯这个略显荒诞的幻想视为一个大胆的思想实验:如果把人类知识的载体全部集中在一起,是否就能通晓宇宙的奥秘?这个思想实验显示了人类知识的极限,同时也有助于反思其边界及问题。如果不考虑不同语言的沟通问题,这样一个无边的图书馆给人们带来的最大挑战就是知识过载。如何压缩知识,成为最迫切需要解决的难题。

博尔赫斯还提到过另一个版本的巴别图书馆——只有一本书的图书馆。这本书由无限薄的纸和无限多的书页构成。尽管这篇小说写于1944年,但后知之明让我们知道,这种一本书的图书馆预言了今天的互联网。电脑、手机的屏幕就是那张无限薄的纸和无限多的书页。通过这个界面,所有知识都会瞬间呈现在我们面前,数量甚至远超博尔赫斯最初想象的那些以书籍形式存在的知识。因为它不仅包括正式出版的知识,还包括每个人通过社交媒体等数字技术生产的知识。

这些广义“数字出版”的知识正在以指数级增长。曾经有个经典的比较,一份《纽约时报》包含的信息,比17世纪的人一辈子接收的信息都要多。历史经年的积累加上网络上每个普通人生产的知识,使得任何一个人也不可能像金克木所说的那样,“把书都读完”。因此知道需要什么知识以及在哪里可以寻找这些知识变得更为迫切,它们是人类面对浩瀚的知识海洋时压缩知识体量的一种实用的策略。目前的关键在于如何将这些物质形态存在的静态的知识,变成鲜活的知识。

如果我们把以书籍形态存在的、线性的知识构成的巴别图书馆称之为巴别图书馆1.0的话,那么还存在另一种想象知识存在形态的方式。1965年泰德·尼尔森(Ted Nelson)提出了超文本和超链接的概念。他认为知识未必是以像书籍这样线性的方式存在,而是以一个非线性的、交织的思维系统的方式存在,他称之为“缠绕团”(structangle)。[20]换句话说,我们并不需要像阅读书籍一样,按照从第一页到最后一页的顺序,由浅入深地获得知识。宇宙间的知识存在的形态不是一本书,而是无数个相互交织在一起的知识点。所以对于知识的物质性而言,重要的不是数量,而是其存在形态。只有在知识之间建立联系,让其可索引、可扩展、可使用,才能真正意义上压缩知识,使人能够迅速地找到最需要的知识。

在这一巴别图书馆2.0版本中,人们最熟悉的莫过于HTML语言中的超链接文本,它将无数的网页通过某种犬牙交错的方式,嵌套在一起,成为一个开放的图书馆和文献宇宙(Docuverse)。这个巴别图书馆没有起点和终点,不存在固定的秩序。得益于互联网技术的发展,尼尔森的构想逐渐成为现实,尽管他自己发明的“上都”(Xanadu)系统因为生不逢时而归于失败。

除了这种以静态形态存在的知识外,巴别图书馆2.0版本还存在另一些活知识的版本。比如皮埃尔·莱维提出的“集体智慧”概念认为网络将带着不同知识与经验的人聚集在一起,有利于他们协作,生产出更具有针对性的知识。这种知识可以直接跳过书籍这个中介。德里克·德·科克霍夫将这种知识称之为“互联智能”,戴维·温伯格将其称为分布式的“网络化知识”,弗卢塞尔将之称其为建立于远程通讯基础上的“超级大脑”。

人脑中存在的知识本身就是非线性的,彼此交错在一起,网络同样也是通过外部刺激,激活这些知识,让其相互启发,生产出新的知识。这就比尼尔森所设想的超文本更进一步。它不是通过一个人去掌握所有知识,而是通过每个人了解知识的一小部分,然后再将这些鲜活的、可随时调用的知识通过体外的网络技术连接在一起。

当然,这只是一种理想状态,真正在运行的时候,仍然会存在不同人群与网络彼此不互通的局面,而且这个知识网络本身还存在着等级上的优先性,并不是所有的知识需求都可以得到满足。同时由于缺乏门槛,其中还充斥着大量个体无法验证的错误知识。

在人工智能发展早期,存在着一个专家系统的解决方案,最有代表性的是通过质谱仪数据给出化学结构的DENDRAL系统和针对细菌感染的诊断系统MYCIN系统。其思路是先将某个特定领域的知识进行符号化和层级化,然后通过算法对特定问题进行搜索与推理。它很像某个领域的专家,所以也叫专家系统。后来伯纳斯-李提出的“语义网”和谷歌的“知识图谱”都希望将人类知识整理成一个机器便于计算与检索的数据库,以实现知识压缩和被机器阅读激活。但这类专家系统只能成功地聚焦于某些细分领域,一旦扩展到全部领域,面对形式化复杂的人类知识时,就会显得力不从心。

博尔赫斯在《巴别图书馆》结尾一处注释中还提及一个有趣的猜测:“也许这个图书馆的无限性,只是人类的错觉,很可能是同样的一些书,以同样的杂乱无章在重复。”因此,找到这个图书馆内收集的知识的规律,便可一劳永逸地压缩知识。而这正是目前具有突破性的建立在大语言模型基础上的人工智能做的工作。

以ChatGPT为代表的大语言模型通过海量的语料库,将传统的巴别图书馆1.0的藏书中的语义单元(token)转换为千亿甚至更高级别的参数,然后针对人类的问题,用生成语言的方式,而不是搜索的方式,进行回答。从人类的角度来看,就相当于这些人工智能产品在阅读了人类图书馆中所有的图书之后,归纳出其中规律。在接到人类的问题之后,不是像前面提到的专家系统那样去检索图书馆中的书籍,找到合适的答案,而是根据它得出的人类知识的规律(主要是語言表达的规则),重新写了一本书予以回答。

按照前面的逻辑,我们可以将这样一种知识的存储与提取方式称之为“巴别图书馆3.0”。在某种程度上,人工智能代替了人类去阅读与消化知识,成为一个人与知识的界面。与巴别图书馆2.0中分布式的“网络化知识”和“集体智慧”相比,以大语言模型为基础的人工智能将网络化的知识彻底内化,将人的参与降低到了最低。通过自主学习,它将人类既有的知识进行大幅度压缩,最终将它们变成了语言的概率计算问题。一些学者提出这不是真正的思考与智慧,而只是语言游戏。[21]这是基于形式计算(符号主义)人工智能理论的批评,但是从目前大语言模型的表现来看,似乎人类知识的规律正隐藏在语言之中。言说的过程,就是思维本身。[22]

值得注意的是,巴别图书馆3.0版本仍然基于人类既有的知识,只不过用了一种新的整合方式将其重新呈现。但是当机器拥有了自己的感知与主体性的时候,它们也完全可以自己从头开始,另起炉灶,建立起自己的图书馆。机器所扮演的不再仅仅是计算的角色,还会扮演感知与创造的角色。这一过程在DeepMind公司发明的人工智能围棋AlphaGo中已有体现。最初击败韩国棋手李世石的AlphaGo版本是对人类所有棋谱中每一步的获胜概率进行归纳学习后,建立起自己的神经网络算法。而后来的版本AlphaGo Zero完全摆脱了人类棋谱,通过无监督学习的方式,从零开始,自己与自己对弈,左右互搏,只经过3天的训练便以100∶0的战绩击败了AlphaGo Lee(战胜李世石的版本),经过40天的训练便击败了AlphaGo Master(战胜中国棋手柯洁的版本,当时柯洁的实力强于李世石)。换句话说,AlphaGo Zero在仅仅给定了围棋基本规则的前提下,独立发明了围棋的所有技战术。目前人类职业棋手在实战中,已经全面抛弃了原有定式与思维方式,开始学习人工智能生产的围棋知识。

按照同样的逻辑,可以预见,如果赋予机器自主感知与实践,在将来的某个时刻,会出现不基于人类既有知识的“巴别图书馆4.0”。人工智能完全有可能重新发明“宇宙之书”。到这个阶段,人类不再是知识生产的唯一主体和标准制定者,我们会迎来一个真正的二元甚至多元知识的时代。

三、人类与“新常人”协作的知识生产

从知识存在的物质媒介,可以看到人工智能在知识生产的历史中居于什么位置,以及它的革命性表现在哪里。然而这样的知识生产对于人类来说,是一个算法黑箱,就连其发明者也无法确切地理解和解释知识生产的具体逻辑。但这并不意味着人类就无法理解人工智能的知识生產过程,我们可以通过现象学的路径,从个体和群体体验的角度,理解这些新型知识的文化意义及其效应。

前文提及人工智能开发中两个相互竞争的路线。一个是笛卡尔的理性主义路径,试图将人类所有知识全部形式化为符号、命题与数据,然后通过逻辑计算得出答案。另一个是模仿人类大脑的神经元结构,通过学习建立和强化不同单元间的联系,从而模仿人类的思维与行动方式,输出答案。换句话说,“一派把计算机看作操作思想符号的系统;另一派则把计算机看作建立大脑模型的手段。一派试图用计算机来例示对世界的形式表述;另一派则试图用计算机模拟神经元的相互作用。一派把问题求解作为智能的范式,另一派则把学习作为智能的范式。一派利用逻辑学,另一派则利用统计学。在学派上,一个是哲学中的理性主义,还原论传统的继承者;另一个则把自己看作理想化的、整体论的神经科学”。[23]用德雷福斯的话来说,前者是“造就心灵”,后者是“建立大脑模型”。[4]或者用不太准确的话来说,这两者的分歧就是结构与功能之别。[5](1)当然,这两个路径并非泾渭分明,建立大脑模型也离不开最基本的形式计算,造就心灵也离不开对人类逻辑思维的模仿。

20世纪60年代至80年代中期,在人工智能研究最初的这段时间里,符号理论或专家系统占据上风。它首先要用符号表征世界,然后才能逻辑推理。这个形式化过程在实践中遇到了困难,特别是对日常知识的形式化,常常显得力不从心。早期联结理论由于缺乏脑科学支持,更重要的是机算力无法与人脑的神经联结量匹敌,因而在表现上不如符号理论,直到20世纪80年代末联结主义才得到复兴。目前人工智能的突飞猛进,主要采用的则是联结理论或神经网络系统。因为算力的大幅度提升,模仿人脑联结的参数数量可以增加到千亿级甚至万亿级,它们可以通过预测与自我检验建立语言间的联系,所以机器突然变得可以像人类一样理解日常语言微妙的意义并作出回答。这个路径的优点在于可以跳过形式计算论企图对世界万物进行形式化的复杂建模,同时避免总结抽象出一个适用于万物的空白框架。它可以学习无法形式化的日常知识,不必理解其背后的逻辑与运行机制。这就使其具有了灵活的适应性,可以通过大量语料库的深度学习,找到统计学上的规则,进而模仿这种规则生产知识。但正如形式计算理论批评的那样,基于联结理论的人工智能并不理解自己在做什么,在运行的底层没有真正的逻辑推理和思维,只是根据统计学中大部分人类的选择,模仿人类的输出行为。所以会产生一些连简单的数学计算都会出错的问题,或者出现连儿童都不会出现的“机器幻觉”。

从人工智能思想发展角度,可以对前面讨论过的知识媒介的变化过程做出另一种解读,发现一条与当下生成式人工智能发展平行的线索。当下人工智能的强化学习需要具备尽可能完备的语料库,这正是巴别图书馆1.0的概念,它构成了人工智能发展的基础。巴别图书馆2.0想要将1.0的知识进行形式化,找到其中的逻辑,这正是知识图谱和符号主义的目标。但是十分遗憾的是这个任务过于宏大,无法穷尽,而且有大量日常的知识无法被形式化。巴别图书馆3.0采用的则是联结主义的人工智能,通过将巴别图书馆1.0作为强化学习材料,不断自我训练,建立起宇宙之书中的知识点联结,然后在输出知识时摆脱对巴别图书馆1.0中知识的搜索,根据预训练建立起来的参数,重新生成问题的答案。

在之前的研究中,笔者将目前基于大语言模型的人工智能生产的知识与海德格尔所说的“常人”生产的知识相类比,提出生成式人工智能是“新常人”的观点。[22]由于生成式人工智能的算法逻辑是基于词语间联系的概率,因此它所生产出来的知识是一种对人类知识取平均值的知识。换句话来说,就是目前知识的话语结构中,出现概率最大、被最多人选择的表述。这种知识是一种被磨平了棱角、被大多数人接受、随大流的知识。只不过由于其背后的语料库极其庞大,它所输出的知识的广博性掩盖了其平庸性。①

当然,这里的“新常人”是一个中性概念。如果使用前文提及的“巴别图书馆”隐喻,生成式人工智能生产的知识即是对既有图书语言表述规律进行总结后,按照这一基于统计学的规律将语言重新组合后得出的结果。因此,它在最大限度上模仿了人类的语言及其背后的思维结构。[22]所以在生成式人工智能的逻辑里,人被定义为与周围的同类最大限度地保持一致的动物。对人类知识进行计算的人工智能本质上并不追求具有独特性的知识生产,而是呈现它学习到的被多数人认可的知识。

人工智能本质上是“新常人”的判断并不意味着它不能进行有创造性的知识生产。其创造性来源于两个方面。

1. 基于海量数据的智能涌现

尽管目前基于大语言模型的人工智能只是在模仿大部分人类的语言表达,但是它的海量语料库使其超越了任何单一人类所能达到的渊博程度,足以生产出前人未见的知识。比如在棋类游戏领域,就已经充分证明了人工智能拥有比人类更“大胆”、更有“创意”的战略与战术。得出这样的“创造性”判断只是因为机器的实际表现超出了人类理解和预测能力的上限,是一个基于人类平均水平的标准(如果与多数人一致就是缺乏创造性的话),而从机器的角度,这不过是基于概率的必然选择而已。弗卢塞尔认为,其实人类的创造或信息生产也不过是一个组装已有信息的游戏而已,多数的信息都是在人们彼此的对话中合成出来的,它并不具有神秘性,与人工智能的信息生产没有本质区别。技术图像的这种可复制性使当权者和权威变得多余,最终瓦解我们后面将谈到的人类的权威与创始者。[15](67-70)因此对人工智能是否有“创造性”的评价,取决于可行的机器计算是否在广度与深度上超出了人类的解释与预测能力。

另一方面,生成式人工智能的知识生产过程既具有严谨的规定性,又具有人为设置的随机性、复杂系统的不可预设性以及物质基础设施不可控所产生的偶然性,这个过程中产生的随机性又会使其产生与人类完全不同的“创造性”思维,尤其在诗歌、视觉艺术方面,这种基于机器随机性的“奇思妙想”常常会让人感叹。

2. 人类与机器协作后的叠加效应

很多人把注意力放到人工智能的回答上,而忽视了目前的人工智能知识生产都是在人类提示词的引导下完成的。正如苏格拉底所说的那样:聪明的提问者和平庸的回答者一起,可以产生卓越的哲学。远高于其对话者的苏格拉底,通过不断地追问、质疑和引导,会将平庸的回答者引向未知的“海域”,让他们的潜能得到充分的开发与磨练,进而发现新的知识岛屿。

当拥有前所未有的丰富知识的“新常人”被富有创造力的问题加以引导时,就会生产出让人眼前一亮的知识,尤其是涉及超出个体能够掌握的知识背景和海量计算的领域,人工智能常常会有出乎意料的表现,填补人类的思维盲点。

四、机器的人类化还是人类的机器化?

上述人机协作的知识生产有三个值得注意之处。一是目前的人工智能的知识生产并不是纯粹的自我引导型的知识生产,不论是因为开发者刻意的设计还是因为当前技术的局限,都使它被剥夺了提问的权利,只是作为工具回应人的问题。在这个意义上,人工智能不具有主体性,并不是真正意义上的人类之“思”。

有学者指出,人工智能并不思考,只是一种计算的知识。[24]然而,将人工智能的知识笼统地称为计算的知识并不准确。正如上文在讨论人工智能的两个开发路径时提到的,形式计算理论才是真正意义上的计算的知识,而联结理论严格来说是对人类神经系统的一种整体性的模仿,是基于统计而不是逻辑计算,计算只是其具体手段。但有趣的是,与联结理论只是模仿人类思考结果相比,基于形式计算的人工智能理论反而是更追求人类的“思”的逻辑,只不过这种“思”是大陆理性主义哲学所理解的“人类之思”而已。但抛开人类之思是否具有绝对优越性的问题不谈,换一个思路,从人与技术关系的角度来思考这个问题,可能又会得出不同的结论。

在人与技术关系的讨论中,常常存在着一种二元对立思维框架。例如柏拉图、卢梭等都谴责过技术对人类潜能的破坏,认为技术使得人类放弃了自身的内在回忆或者道德方面的特长,转而依赖机器,最终导致人类的堕落。但是以斯蒂格勒为代表的技术哲学家们却认为,人类与技术从来就是共生在一起,离开了身体、火、简单器具、语言等技术,人无法成为真正意义上的人。正如柏拉图的爱米比修斯的神话所说的那样,与地球上的其他动物相比,人类的独特之处就在于他们能够发明与使用工具。[25]

如果说人离开技术不成其为人的话,那么反过来,技术是否可以独立于人而存在?以埃吕尔、温纳为代表的技术自主论认为复杂的系统性技术有自己的演化逻辑,无论是发明者、生产者还是使用者,均无法整体掌控它。技术会将自身的律令强加于社会之上,使整个社会配合技术的运行。甚至荷兰的维贝克还提出技术像人一样也具有意向性,[26]这与德雷弗斯、塞尔等学者认为人工智能与人的差异就在于缺乏意向性的看法针锋相对。这样一种人本主义的技术观在马克思的异化理论、海德格尔的技术集置理论那里就曾初露端倪。[27]

然而这并不必然得出技术可以脱离人而独立运行的结论,因为在最低限度上,技术需要借助人这个代理人而运行。即使是用拉图尔充满后人类主义的ANT理论来看待技术的运行过程,人作为行动者也会参与到技术的过程之中,更何况文化仍然会影响技术潜能的释放。就像雷蒙·威廉斯提出的那样,任何一种技术都是文化形式,取决于社会的整体需求,[28]比如互联网在中国的运行逻辑就与其他国家截然不同。

从目前基于大语言模型的人工智能知识生产来看,人的提问与引导仍是其必不可少的关键环节。原因在于目前的人工智能只是基于既有人类知识而生成,无法超出这个系统提出实践中有待解决的问题。而人类生理的与求知的欲望在知识体系外,构成了提出问题的原动力。因此,人工智能的知识生产,首先是人类参与其中的知识生产,而不是脱离了人类的知识生产。从伦理角度看,人工智能知识生产的后果究竟是善是恶,取决于人类的算法、语料库、提示词(问题)的设置是否合理、对回答本身的校验是否有效,即使是所谓“算法偏见”,最终也源自人类的偏见。之所以人们会产生机器可以摆脱人类独立进行思考的想象,原因在于计算过程过于复杂、难以追溯,再加上人类参与的间接性和分散性,使得传统的伦理因果推理变得暧昧不清,导致在具体问题的追责上变得困难。然而从整体看,人类仍然在目前人工智能的知识生产中发挥着必不可少的作用。

第二个值得关注的问题是这种人机协同的知识生产方式会对人产生何种后果。这里所说的后果不是具体知识内容的影响,而是人工智能作为知识生产方式和媒介对人的思维和行为方式的影响。最容易想到的当然是对人工智能的依赖,比如放弃自身的思考,凡遇事不决,先问AI。在某些封闭性的系统中(比如棋类游戏),AI的判断结果确实已经深刻地影响了人的决策。这很可能会带来海德格尔所说的追随“常人”的看法,放弃决断所造成的“沉沦”,使个体无法成为具有本真性的我,只能浑浑噩噩,随波逐流。[22]

还有一种结果则更加隐蔽,它往往可能體现在AI使用高手处。为了调教AI,得到最理想的输出结果,使用者往往会不断地尝试用更精准、更巧妙的提示词来调整AI的表现。提问质量的优劣,构成了“人工智能素养”的重要部分。这与前面所讨论的苏格拉底式的提问并不完全相同。苏格拉底的提问是对人类之思的刺激,常常会使用类比、反问、推理,甚至叙事的方式来推进论证。然而这些策略未必适用于与人工智能的交互。

为了提高交互的效率,人工智能的提示词要遵从编程与算法的逻辑。虽然与之前编程时代相比,大语言模型已经允许用户通过自然语言与之交互,但是大部分普通用户仍然会发现,自己的指令并不能产生和专家一样的结果,甚至产生“想象力焦虑”。[29]为了获得更好的结果,用户必须理解人工智能算法的底层逻辑,学习从机器的角度来思考问题。于是会出现一个颇具反讽性的现象,当机器正在模仿和学习人类的表达与思考方式输出答案的时候,人类却在模仿和学习机器的运行逻辑。这种双向传播适应的结果是,机器变得更像人,而人正在变得更像机器。

有一个段子,说人工智能本来应该帮助人类去洗碗扫地,让人类有空去写诗画画,但是现在AI开始写诗画画了,而我们还在洗碗扫地。虽然这种说法过于简单和武断,但从工作的替代性角度来看,目前在过去人类认为抽象的、高级的脑力劳动方面,人工智能表现得更加出色,人类反过来要学习机器的思维方式与逻辑。这是否是一种新的异化?

其实人类思维机器化并不是突然出现的。早在算法渗透进社会之际,人类思维和行动的算法化就已发生。比如粉丝做数据、打榜、电子商務中的赔本冲量、短视频等内容生产中的蹭热点,都是社会算法化的典型表现。[18]尼采曾经有句名言,“我们的书写工具也参与了我们的思维的过程”,这也是从麦克卢汉到基特勒一直强调的主题。[30]只不过目前人与人工智能的这种通过提示词进行交互的方式,使这个主题变得更加清晰。

人工智能的知识生产中,第三个值得关注的问题是如何面对经验的知识与计算知识的混合与标准暧昧的问题。在人类知识的生产历史上,还存在一条专业精英与大众对抗的线索。在相当长的历史时期,精英在知识生产上拥有绝对的主导权。尽管在某些局部,大众拥有主导权,比如在手工业等实践领域和民间文化领域,但精英始终掌握着整个社会的知识标准。

在数字媒体时代,大众生产的知识在数量上和影响力上都对精英生产的知识构成了冲击,全球范围内的民粹主义与反智主义盛行。从效果看,这种冲击有利有弊。它一方面动摇了精英对知识的垄断权力,另一方面海量信息无法一一核实也带来了虚假信息的泛滥。尽管数字时代大众生产的知识在数量上压倒了精英的知识,甚至在一些局部挑战了精英知识的权威性(比如维基百科),但是知识的判断标准仍然掌握在精英手中。

人工智能目前提供的知识,性质非常暧昧,它介于权威的正式知识与日常缺乏根据的非正式知识之间。没有人为它的质量背书,但是它又被认为具有某种由技术与语料库赋予的神秘权威性。在即将到来的人工智能时代,随着机器能力的增强,在某些领域它们将在知识标准问题上对精英提出挑战。例如当人工智能拥有了海量的病历库后,普通用户也可以自我诊断,医疗人员的权威性就会受到质疑。另一方面,前面讨论的常人判断与机器的幻觉不可避免地会产生完全错误或部分错误的知识。这将造成经验的知识与计算的知识、人类的判断与机器的判断,这两种混合的知识同时存在。例如真实的照片与人工智能修改或生成的照片同时存在、真实医生的建议与人工智能给出的建议并存,哪些是真知,哪些是机器的幻觉,在做出决断时会变得异常困难。尤其是对于普通人的日常决策而言,由于无法动用大量的资源进行核查,很可能会处于无助状态。借助人工智能的信息核查体制又会陷入新的标准模糊,因此建立一个公共的、可靠的自动事实核查系统将显得十分必要。

当然,这并不意味着人工智能参与后知识生产质量降低了,现实可能正好相反,人工智能虽然造成了知识标准的混乱,但是整体上知识的质量可能更高。只不过知识标准的动摇进一步强化了社会的不确定性。至少在人工智能完全成为知识标准的权威之前,人类会经过一个相当迷茫的过渡时期。或许从后人的视角来看,这可能是人类在知识生产方面最后的荣光。

参考文献:

[1] 光明日报理论部,学术月刊编辑部,中国人民大学书报资料中心. 2023年度中国十大学术热点[N]. 光明日报,2023-12-29(11).

[2] 刘海龙. 作为知识的传播:传播研究的知识之维刍议[J]. 现代出版,2020(4):23-31.

[3] John D. Human Nature and Conduct: An Introduction of Social Psychology[M]. London: George Allen and Unwin, 1922:177-178.

[4] H·L·德雷福斯,S·E·德雷福斯. 造就心灵还是建立大脑模型:人工智能的分歧点[M]//玛格丽特·博登. 人工智能哲学. 刘西瑞,王汉琦,译. 上海:上海译文出版社,2001:417-453.

[5] 尼克. 人工智能简史[M]. 北京:人民邮电出版社,2017.

[6] 海德格尔. 存在与时间[M]. 陈嘉映,王庆节,译. 北京:三联书店,1999:85-90.

[7] 大卫·伊格曼. 大脑的故事[M]. 闾佳,译. 杭州:浙江教育出版社,2019:103-118.

[8] 彼得·伯克. 知识社会史(下卷)[M]. 汪一帆,赵博囡,译. 杭州:浙江大学出版社,2016:97-123.

[9] 彼得·伯克. 什么是知识史[M]. 章可,译. 北京:北京大学出版社,2023:116-145.

[10] 哈罗德·伊尼斯. 传播的偏向[M]. 何道宽,译. 北京:中国人民大学出版社,2003:27.

[11] Guzman A L, Lewis S C. Artificial intelligence and communication: A Human-Machine Communication research agenda[J]. New Media & Society, 2019, 22(8): 1-17.

[12] 黑格尔. 黑格尔著作集第3卷:精神现象学[M]. 先刚,译. 北京:人民出版社,2013:61-83.

[13] 彼得·L. 伯格,托马斯·卢克曼. 现实的社会建构:知识社会学论纲[M]. 吴肃然,译. 北京:北京大学出版社,2019:27-158.

[14] J. R. 塞尔. 心灵、大脑与程序[M]//玛格丽特·博登. 人工智能哲学. 刘西瑞,王汉琦,译. 上海:上海译文出版社,2001:92-120.

[15] 威廉·弗卢塞尔. 技术图像的宇宙[M}. 李一君,译. 上海:复旦大学出版社,2021:40.

[16] 休伯特·德雷福斯. 计算机不能做什么[M]. 宁春岩,译. 北京:生活·读书·新知三联书店,1986:262.

[17] 让-弗朗索瓦·利奥塔. 非人:漫谈时间[M]. 夏小燕,译. 重庆:西南师范大学出版社,2019:13-35.

[18] 陈卫星. 智能传播的认识论挑战[J]. 国际新闻界. 2021,43(9): 6-24.

[19] 豪·路·博尔赫斯. 巴别图书馆[M]//博尔赫斯文集:小说卷. 王永年,等,译. 海口:海南国际新闻出版中心,1996:119-127.

[20] 李恪. 超文本和超链接[M]. 北京:新星出版社,2021:89-117.

[21] 胡泳. 超越ChatGPT:大型语言模型的力量与人类交流的困境[J]. 新闻记者,2023(8):13-29.

[22] 刘海龙,连晓东. 新常人统治的来临:ChatGPT与传播研究[J].新闻记者, 2023(6):11-20.

[23] 徐英瑾. 人工智能哲学十五讲[M]. 北京:北京大学出版社,2021:417-418.

[24] 黄旦. 作为人类文明进程动因的媒介——从ChatGPT说开去[J].新闻记者,2023(6):3-10.

[25] 贝尔纳·斯蒂格勒. 技术与时间:1.爱比米修斯的过失[M]. 裴程,译. 南京:译林出版社,2012:146-195.

[26] 彼得·保罗·维贝克. 将技术道德化:理解与设计物的道德[M]. 闫宏秀,杨庆峰,译. 上海:上海交通大学出版社,2016:64-81.

[27] 瓦尔·杜谢克. 技术哲学导论[M]. 张卜天,译. 北京:中信出版集团,2023:123-129.

[28] 雷蒙·威廉斯. 电视:科技与文化形式[M]. 冯建三,译. 台北:远流出版公司, 1994:26-45.

[29] 陈秋心,邱泽奇. “人机互生”时代可供性理论的契机与危机——基于“提示词”现象的考察[J]. 苏州大学学报(哲学社会科学版),2023,44(5):172-182.

[30] 弗里德里希·基特勒. 留聲机 电影 打字机[M]. 邢春丽,译. 上海:复旦大学出版社,2017:233.

Generative AI and Knowledge Production

LIU Hai-long1,2(1.Research Center of News and Social Development, Renmin University of China, Beijing 100872, China; 2.School of Journalism and Communication, Renmin University of China, Beijing 100872, China)

Abstract: Generative AI and revolution in the paradigm of knowledge production are inspiring widespread concern and discussion currently. This paper first analyzes and responds to the argument that AI is incapable of knowledge production, and then explores the characteristics of generative AI knowledge production through a review of the history of knowledge media. The paper argues that there are three different knowledge media, namely, "Library of Babel 1.0", which pursues a comprehensive library collection; "Library of Babel 2.0", which uses a non-linear approach to organize knowledge networks; and "Library of Babel 3.0", which re-generates new books by summarizing the underlying logic of knowledge. The current generative AI is in the phase of the “Library of Babel 3.0”, which breaks the traditional knowledge production method of knowledge search plus reasoning and reconstructs knowledge by imitating human knowledge. This new way of knowledge production is based on statistics, a production of Heidegger's "new Das Man", but it can be creative in eyes of human beings. The knowledge production of human-machine collaboration is an important condition for the creativity of generative artificial intelligence, but this new way of knowledge production is not "thinking" in the traditional sense, and it will lead human to think like machine, as well as creating the potential outcome such as the confusion of knowledge authorities and knowledge standards.

Key words: AI; knowledge production; AI communication

猜你喜欢

人工智能
我校新增“人工智能”本科专业
用“小AI”解决人工智能的“大”烦恼
当人工智能遇见再制造
2019:人工智能
AI人工智能解疑答问
人工智能与就业
基于人工智能的电力系统自动化控制
人工智能,来了
数读人工智能
人工智能来了