从斜目而视到斯芬克斯之口
2023-04-12吴静
摘要:技术对人类的认知范式起着重要的影响。从数据可视化到生成式人工智能的互动在不同维度上挑战甚至重塑着人类的认知能力及框架。数据可视化本质上是一种视觉认知范式,它强化了人类认识论领域中的视觉中心主义传统,由此导致以视觉为中心的数字技术权力谱系的建立。随着以ChatGPT为代表的生成式人工智能的出现,人类的认知发生了由视觉向言说的转变。其一方面通过语言处理技术和算法模型,突破并重塑了人类的认知结构;另一方面则建立起一种以数据言说为核心的普遍性知识体系,消解了人类对经验知识背后的特殊目的乃至意义的追问。生成式人工智能带给人类认知的挑战,应从它凭借普遍理性原则造成的认知中心化趋势,以及借由对话训练方式所激发出的主体创造性两个层面加以考察。
关键词:生成式人工智能;认知范式;视觉中心主义;言说;认知中心化
作者简介:吴静,南京师范大学哲学系教授、博士生导师,主要从事马克思主义哲学、国外社会思潮、数字人文研究。
基金项目:国家社会科学基金项目“德勒兹资本批判视域下的西方平台资本主义研究”(项目编号:20BZX011)的阶段性成果。
中图分类号:B0;TP18 文献标识码:A 文章编号:1001-4403(2023)03-0021-09
DOI:10.19563/j.cnki.sdzs.2023.03.003
ChatGPT的爆红,具有数字化时代一切新事物的所有铺陈:守口如瓶的前调、机械降神般的现身、蜂拥而至的跟进。一瞬间各种友好的、探索的、挑战性的与ChatGPT之间的对话被大量生成。然而,当人们还在震惊于ChatGPT对其前辈AI们的颠覆性时,OpenAI已经用GPT-4革了自己的命。加上文心一言的发布,各种版本的生成式人工智能(AIGC)的性能、参数、智能级、伦理性之间的测试和比较顿时稳稳维持着科技类话题的热度,当然这其中也不乏异议的声音。而不过一年多之前横空出世的“元宇宙”及其之后引发的各种潮流,随着业界的纷纷转向,似乎已成明日黄花,失去了原有的关注和吸金能力。科技以前所未有的加速度将一切文化中“不能回头”的隐喻演绎到极致。尽管自20世纪70年代以来,控制论一度失去了其在历史上曾经有过的高光时刻,但随着数字技术日新月异,科技无意识甚或是技术无意识对技术-人、技术-社会关系的影响又一次进入人们的思考。新技术在很大程度上成为思考人文主义传统和宏观社会关系再生产的一种哲学入口。在互联网造就的“数字普遍理性”之下,人类的认知正在被如何重构?技术是否会成为另一种大他者?人工智能是否强化了“技术无意识”在人的个体化过程中的作用?这些问题不得不被追问。
一、视觉中心主义的诱惑和陷阱
马丁·杰伊在为他的《低垂之眼》的中译本写序言的时候,特地提及了雅克·拉康1963年首次日本之行时在奈良看见信徒凝视弥勒雕像时受到启发,重新确证了自己关于眼睛-凝视和“对象小α(objet petit ɑ)”的理论。也是在这一年,福柯出版了《临床医学的诞生》一书,讲述了医生对患者身体的凝视如何被去个人化而塑造成权威话语进而被形塑为一种“科学”权力的过程。在这里,无论是作为主体欲望投射的注视,还是权力关系聚敛的查看,“凝视”建立起来的是一种以视觉经验为中心的双边关系,它不仅是对对象的图像符号的关注,而且是对构成视觉经验得以被理解的场域的结构性作用。“凝视”不仅仅是经验性的“看”,更是主体被塑形和自我体验为现代主体的过程。其实自希腊时期以降,“看”的能力与理性认知之间就建立起了紧密的关系。新柏拉图主义和中世纪神学更是以“光”“暗”的隐喻将真理与可见性相连,“神目观”甚至以全知全能的视角重构了线性时间的神学意义。而后来的启蒙运动虽然颠覆了神性的绝对,却又以对光的执着将视觉可见性的隐喻(科学真理)推向顶峰。启蒙(enlightening)一词本身在词源上就与视觉相关,它所唤醒和照亮的正是理性主体的意识。于是,理性主义的传统在主体、视觉和理性之间建立的连接成为主客体界划的哲学基础。在笛卡尔主义的影响下,现代性所依据的知识范式表现为一种视觉范式,它将世界纳入理性主体无所不在的凝视框架之中。这意味着,视觉的外在性在促成了哲学上的主客体二分思想之后,建立起了一种现代文化的核心机制,将被客体化的世界与以视线-视觉为中心的秩序和手段之间的关系界定为知识和科学的内容。萨义德后来对表征主义(representationism,也译为再现主义)的批判则揭露了以视觉为中心的知识体系所隐匿的默认值,它实际上是通过一系列前哲学的假设构成了对思想的理解以及概念生产的特征。
随后,照相机、摄影机等一系列现代图像生产装置的发明以及大众传播媒介技术的普及在实践上将这种视觉文化体系推向了高峰。然而,哲学史长久以来的提醒一直存在:影像或图像从来就不是直观的真实。这也是为什么古希腊哲学时代视觉中心主义在坚守主客体二分的同时仍然保持着对表象/现象背后的本质的追求。在现代技术条件的加持下,图像及其蒙太奇手法所建立起的可见与理解之间的外在性联结,其实不过是一种叙事张力,是文化结构对“空场之无”的填充,同时也是可见物与可说物之间关系的一种重构。它所产生的表达并不必然指向真实或本质,而是将用可见书写出来的新的意义叙事取代真实。马丁·杰伊梳理了20世纪法国思想对这种视觉中心主义的批判和反思,其中最为激进的是德波所领导的情境主义国际以画面闪烁、声像异轨、逆序、中断和多声道输入为特征的实验电影来打断单一的图像/影像叙事,以反抗景观的叙事性所负载的社会编码功能。海德格尔在理论上也呼应了这种对视觉图像上的挑战。他批评存在于哲学史中的视觉中心主义传统将现代世界整体展现为“世界图像”时代的到来,不但图像/影像符号本身成了关于存在的经验性表达和知识的来源,而且一切存在被扁平化表达为图像,于是关于世界的真实被把握和理解为图像。无独有偶,阿多诺和霍克海默也对这种视觉主义的表征体系提出了质疑。他们指出,这种通过现代工具实现的实证主义正是客体在视觉层面被具体化和被表征的方式。它建立起了一种虚假的等式,使得平等关系只与客体的特殊功能(工具化特质)相关,而与客体的内在属性无关。这种不合理的表征等式实际上是对互动式的中介作用的妨碍:它阻止了主体进入客体。其结果就是,世界被设想成与工具理性对它的表征一致的样子。这是由被预设的同一性制造出来的表征主义,它具有极端保守性,除了为现状背书之外,别无他能。
而数字时代的“天启论”,正是这种表征主义等式的极化,它将动态的数据投射到算法模型的幕布之上,于是,局部性的再现变成了形式上的马赛克式生成。数据可视化,利用图形图像处理、计算机视图以及用户界面,通过表达、建模以及对立体、表面、属性、动画的显示,以更加视觉中心主义的方式将结果输出给读者。信息可视化的处理对象是非结构化、非几何的抽象数据,如金融交易、社交网络的传播分布和文本数据的信息分析,其核心挑战是针对大尺度高维复杂数据如何减少视觉混淆对信息的干扰,图形化的符号的优点在于可以将用户的注意力引导到重要的目标。但是,可视化和其他数据输出的问题同样都在于,这种根据特定目的进行的数据输出的意义并不在于它展示全部真实,而是将事物引向最大概率,被调用的数据及其重组的再现获得了全部的存在合法性,因而具有了普遍的意义。它们甚至被认为是剔除了“无关紧要的因素”后的事实凝练,得以取代真实存在,甚至愈发将特定情境下的事件定格和凝聚为普遍性本身,把视差理解为全域,条件和历史则被抹除。
当然,作为数据分析工具的数据可视化有其他方式不可替代的优点。但过度依赖数据可视化所透露出的视觉中心主义的霸权仍然值得警惕。当海德格尔批评现代性诱使人们将世界理解为目力所及时,他所指的其实正是理性的“凝视”。这种单向的、自以为是的凝视正如绘画中的透视法,是图像经过光线的反射由外而内置入观者眼睛的过程,是以观看主体为中心的所谓“现实”的建构过程。由视线的投射将图像理解为“现实”的做法将视觉凝视的对象变成了一种具有普遍性的形而上学存在:“人类主动定向,他自己不再让自己与世界为伍,而是让世界与自己相对峙。人把世界钉死,固着在世界图像之上。”①①吕迪格尔·萨福兰斯基:《海德格尔传》,靳希平译,商务印书馆1999年版,第390页。而与海德格尔所说的经验性图像相比,数据可视化就更加是一个依赖统计学模型所重构起来的独立系统,它以不连续性的数据提取造就了表面上的连续性总体。当福柯将“凝视的主权”解释为科学/真理/客观性的权力时,他指出了一个传统形而上学忽略的关于客体的真相:“凝视不再具有还原作用了。……因此我们才有可能围绕着它组建一种理性语言。”②②米歇尔·福柯:《临床医学的诞生》,刘北成译,译林出版社2011年版,第7页。马丁·杰伊敏锐地指出了其作为视觉和语言共同构建起来的“认识论领域”的本质,并认为“语言的组成作用被语言和视觉为一体之假设所掩盖”。③③马丁·杰伊:《低垂之眼》,孔锐才译,重庆大学出版社2021年版,第331页。
数据可视化在人们的观念中之所以能超越经验材料而成为科学性甚或真理性再现的原因,正在于它所依赖的独特的数字化工具语言。高度抽象化的数据以极端的形式化将自然语言转变为具有纯粹数性特征的符号,使人们长久以来对作为自然科学基础的数学的信赖投射在了实际只是统计学结果的可视化输出上。这种数据语言的组成作用和科学理性所建立起来的对视觉的偏爱共同强化了“凝视”可视化输出的技术化认识作用。但是,和小数据时代的所有结果一样,可视化本身并不能保证其数据(经历爬取、清洗、补缺等步骤)和模型(相关性关联)的可靠性。而这样的输出结果一旦成为校准事实的标准,轻者失准,重者是失焦,“丧失对真实社会关系的把握。这不啻创造了另一种凌驾于真实的人与社会之上的新架构:数据拜物教。其结果则是,经验的现实在数据所构筑的所谓‘客观真实’面前失语”①①吴静:《从影像到数字:社会性别建构的“拟像”之困》,《探索与争鸣》2021年第12期,第139-147页。。
阿尔贝托·开罗在《数据可视化陷阱》一书中列举了来自设计、数据、模型、偏见以及被隐藏的不确定性五个方面的问题,它们都会影响可视化的呈现效果。但事实还并不仅限于此。作为一种建构和生产行为,影响“凝视”关系的权力配置几乎涉及可视化设计的每一个细节:图表样式的选择、坐标轴的改变、颜色的安排、描述性统计的不同、观看者对不同种类数据的敏感度差异、信息的过载或过度可视化都会使得完全相同的原始数据产生极端不同的表达和理解效果。但视觉中心主义的倾向却隐匿了这种权力结构,使得可见性与不可见性、内在性与外在性、可表达性与可感知性被消弭在无批判性的“看”中。福柯从话语分析角度对临床医学诞生的实质的指认在这里依旧适用。“临床医学经常受到赞扬,因为它注重经验,主张朴实的观察,强调让事物自己显露给观察的目光,而不要用话语来干扰它们。临床医学的真正重要性在于,它不仅是医学认识的深刻改造,而且改造了一种关于疾病的话语的存在可能性。……这种共同的结构切割出并接合了所见与所说。”②②米歇尔·福柯:《临床医学的诞生》,刘北成译,译林出版社2011年版,第12页。
当然,这种判断并不是否定数据可视化是一种有效率和效用的工具,而只是强调其不应当仅仅被理解为一种中立且保证了客观性的工具。它本身不但是一种技术权力和话语的布展,同时以极其视觉中心化的方式放弃了对数据背后意义的追问。除此之外,元宇宙的沉浸式建构更加是以视觉为中心的一个景观帝国。这一点从它所依赖的3D场景搭建技术和所推销的VR眼镜就可以极其明显地展示出来。事实上,不论是元宇宙希望通过VR/AR技术所实现的场景增强本身,还是它所允诺的对于物理现实边界的超越,都“传达出现代主义消费实践对身体的各种应许和承诺:年轻、健壮、美丽、随心所欲……”③③吴静:《革命还是游戏:元宇宙的救世叙事解读》,《阅江学刊》2022年第3期,第59-67页。这也就可以理解皮肤和虚拟装备交易成为视频游戏和元宇宙的一个吞金法宝。这种视觉上的净化美学所实现的不过是围绕商品所建立起来的景观的光晕,它不断改变和重塑着个体和社会的认知结构,也重建了认知和经验、经验与事实之间的多重关系,使得基于被技术化所设定的视觉感知获得了比真实还真实的“超真实”。于是,这种平面化的认知方式是从人类特有的抽象认知(概念、抽象、批判等)中的倒退,是如德勒兹而言被工具“预设”了的劳动,是对技术权力的无意识,它导致的是对鲍德里亚所批判的“超真实”的绝对臣服。并且,将数据可视化可能会导致视觉被当作一种唯一的或主要的认知和表达方式,而过度依赖数据可视化有可能导致读者忽略其他感官和认知方式对于数据理解和分析的重要性,受特殊处理的视觉呈现的误导而做出错误的判断或决策。同时,强调视觉性的做法本身就为数据化制造了一条新的边界:它排斥了那些无法通过视觉方式获取信息的人,例如色盲、色弱或视觉障碍者。社会公平原则在这种视觉依赖话语中一退再退。因此,对于这种借助数字技术权力所建立起来的新的视觉中心主义的权力谱系,是应当保持谨慎和批判态度的。
ChatGPT所形成的“看”是新视觉中心主义的一个生动案例,其创造了一种类似于社交媒体参与者之间的互相凝视,这种互动借助自然对话生成方式所展现出来的社交属性极易让人忽视作为“接缝”的技术核心特征。在这里视觉经验的直接性和自然性建立起来的是一种以观看者为中心的双边关系,它不再是数据可视化中的单向地、科学性地观看,而是在对对话者的拟人化赋形的同时将自己在这种话语权力中质询为获得知识的主体。这种由“查看”和“审视”的现代观看所构造的“可读”和“透明”正是对生成内容的一种认知方式和框架。
二、独白还是对话:生成式人工智能的“普遍理性”主义
数据可视化所透露出的视觉中心主义对人类认知虽然极其重要,但本质上毕竟还带有了工具的性质。ChatGPT及同类型的生成式人工智能(AGI,Generative Artificial Intelligence)的出现则指向了一个人类思想发展更为核心的问题——言说。生成式人工智能的运作以自然语言处理(NLP,Natural Language Processing)技术与大语言模型(LLM,Large Language Models)为基础,通过深度学习算法对大量的语言数据进行训练,从而学习和理解自然语言(涉及自动分词、词性分析、句法分析和语义分析等NLP领域的多种复杂技术);再使用神经网络技术(例如递归神经网络或转换器模型等)将输入文本序列映射为输出文本序列,从而实现文本的生成。
和传统的搜索引擎不同,生成式人工智能的目的不在于根据关键词对人类已经创造出来的内容进行检索,而是根据关键词对以自然语言呈现出来的问题或提示进行回答。这种文本生成不但一反之前数据可视化的追求,将表达以最接近自然性的方式——人类语言(这正是人类文化形成的基础)——呈现出来,同时还使用了最古老的思想生成方式——对话——作为提示设计(prompt engineering)的路径。这很难不让人想起历史上那些启迪了心智的对话,其中最著名,也最具有文化隐喻意义的莫过于斯芬克斯之谜。俄狄浦斯在逃离神谕命运的过程中,在忒拜城外遇见了狮身人面的斯芬克斯,回答了缪斯教授给斯芬克斯的谜语:“什么动物早晨用四条腿走路,中午用两条腿走路,晚上用三条腿走路?”(谜底是“人”)斯芬克斯羞愧而死。这个故事中的斯芬克斯正是智慧和知识的象征,它使用着从掌管艺术与科学的缪斯那里学到的关于“人”的谜语向人进行提问,然而,除俄狄浦斯以外的路人对关于自身的知识却毫无意识,最终败在斯芬克斯的力量之下(在故事中表现为被斯芬克斯所食)。俄狄浦斯对谜底的揭露显示出人类在“认识你自己”之后获得的力量,它对超自然的力量进行了祛魅。这也是为什么海德格尔在解读《俄狄浦斯王》这一剧作时会将俄狄浦斯的眼睛阐释为人类理性的象征。
GPT系列正如数字时代的斯芬克斯。作为生成式预训练转换器(Generative Pre-trainning Transformers),它是基于谷歌在2017年提出的用于序列翻译的Transformer模型而进行的预训练技术之上的生成,其预训练的数据来源是大量的网络文本数据。AIGC的核心技术价值是实现了“自然语言”与人工智能的融合。自然语言是一个包括词法、词性、句法、语义的体系,也是不断演进的动态体系。在ChatGPT宣布可以集成第三方插件、实时联网之前,它的训练数据集仅截止到2021年9月。而在这一封印解除之后,ChatGPT不但可以使用实时的网络资源,还可以和网站互动。用OpenAI的话说,现在互联网所能提供的服务都成了ChatGPT的“眼睛和耳朵”。尽管各种测试亲证了这一系统文本生成能力的强大(GPT-4已经具有了图像生成能力),但从本质上而言,它只是一种提取已经被沉淀、被记忆的知识的交互方式,其底层技术是自然语言处理(NLP)和其赖以建立的大语言模型(LLM)。大语言模型是一个用数学语言表征的知识体系,在本质上是一个通过统计学模式学习文本的概率分布和语法结构,形成人工智能技术理解自然语言和文本生成能力,生成一些与语料库类似的新文本。大语言模型所透露出的正是对人类一切知识都可以被数字化表征的自信甚至傲慢。从GPT 3.0到3.5,大语言模型实现了突破性的发展,具备了基于准确和规模化数据,形成包括学习、抉择、尝试、修正、推理,甚至根据环境反馈调整并修正自己行为的能力:它可以突破线性思维框架并实现非线性推理,也可以通过归纳、演绎、分析,实现对复杂逻辑关系的描述。尽管从知识能力的应用来看,这种模型已经较神经网络算法的“过程黑盒子”不同,具有了清晰的思维链条,在过程性上愈加接近人类的思考方式,但它依然是基于语料库和训练数据库的有条件生成。
以此为基础的GPT系列正如从缪斯女神那里学来谜语的斯芬克斯,将一种外在性获得的、作为集体经验的“人”的知识用以向人言说。言说甚至独立成为一种力量,它使不能超越言说、不能意识到集体经验真相的对象一败涂地。但与斯芬克斯的故事不同的是,在当下的这场互动中,问答双方的位置进行了转换:提问的是人,而回答的是GPT。这种变换的意义极其重大。它既赋予了提问者绝对的主动:“比苏格拉底式的反讽,比辩论术、比悬置思维法和怀疑法都更古老的,正是借助它(提问——笔者注)某种命令显示了:提问应当作为提问加以保存。提问的自由应当被宣布并得到捍卫。”①①雅克·德里达:《书写与差异》,张宁译,生活·读书·新知三联书店2001年版,第130页。但从另一方面而言,提问的纯粹性必须由对话语形成过程中限制条件、局部知识等诸多因素的反思来保证。这种对微观权力和其施加于知识过程影响的考察正是福柯知识考古学的任务。在这场问答游戏中,人工智能技术正是这种权力最具象的表现。它以技术和硬数据的“科技”外壳为一种被结构起来的知识套上了“普遍理性”的外衣。借用福柯在阐述自己研究现代临床医学的真正意图时用的语言:“当时这种话语在内容上的变化远远小于在体系形式方面的变化。临床医学既是对事物的一种新切割,又是用一种语言把它们接合起来的原则。”①①米歇尔·福柯:《临床医学的诞生》,刘北成译,译林出版社2011年版,第11页。
以ChatGPT为代表的生成式人工智能正预示了这种新的体系形式方面的颠覆性的开端。它不仅突破了人类在知识获得方面的极限,甚至影响了人类的认知构架。如果说在“斯芬克斯之谜”这一古老神话中,人类的失语是对于被外在化的自身知识集合的失察的话,那么今天人们在面对不断迭代的AIGC所发出的惊叹声中,更多的是因为默认了被生成的知识圆满具有现成性和可触性而产生的震惊。人文主义长久以来的传统中,对知识及其生成方式的省察现在让位于直接性的“看”,这种“看”对于距离的突破塑造了现成在手的知识景观。这种知识的整体性和客观性假象来源于大数据技术和人工智能算力的加持,接合的“缝隙”被忽略,技术及其输出的结果被默许为普遍的自然性。这种对于技术无意识的暧昧很类似于齐泽克的《意识形态的崇高客体》中描绘的社会性征兆(social symptom)②②斯拉沃热·齐泽克:《意识形态的崇高客体》,季广茂译,中央编译出版社2017年版,第17页。。尽管技术征兆或知识的技术性表达是否可以在社会建构中发挥同样的作用依旧是一个值得讨论的话题,但是大语言模型的信仰者却坚决相信:从任何可证伪的意义上来说,知识甚至语言的统计学确实相当于理解。并且,人类所宣称的智能大部分在本质上是对话性和互动性的,因而具有社会性的内涵。表面上看来,生成文本的人工智能的复杂的序列学习(complex sequence learning)和社会互动可能是一般智力的充分基础。但事实上,这种建构性的输出却因凝视的可达及性而成为客观性系统和普遍理性的语言,尤其是当读者发现AIGC所能提供的自然语言表达已经极为接近,甚至超出了个体的知识边界的时候。
大语言模型的这种默认最根本的问题在于,它隔绝了知识的理解与其情境之间的互文关系,这产生了一种方法论上的悖论:一方面,知识本身被所有浮于表面的经验数据(包括网络文本的经验生产)建构,由于AIGC和其底层技术的大语言模型都并不具有真正的“思考”和“理解”的能力,它只能通过深度学习的思维链条和语言概率逻辑实现文本生成。这和人类认识所希望达到的“认识你自己”和“理解世界”的目的相去甚远。知识本身和经验的关系被无限拉开甚至隔绝,其目的是使某种特殊的“知识”通过人工智能的“斯芬克斯之口”成就其普遍性。另一方面,一种极致的数据经验主义倾向被史无前例地提高到认识论层面上。“除经验以外,知识别无来源”的经验主义认识论信条被改写为“除数据以外,知识别无来源”。这在德勒兹提出以“先验经验主义”方法去探索经验形成的条件从而解决传统经验主义的问题之后,简直是一种理论上的倒退,它默认了一切言说的理论预设的合法性,并虚构了由拉康所说的象征意义完成的知识的整体性和同一性。至此,生成式人工智能的“言说”已经不再是智者学派对于具体问题的回答,它成了类似于“逻各斯”的言说:有关规律、真理和意义。传统人文社会科学对经验背后的关系与本质的探索和努力被认为与“事实(本质上是数据)”无关而被轻视甚至抛弃。当福柯以知识考古学的方式来抵御“人的形象正从流沙上消抹而去的”颓势时,他并没有预料到,有一天,知识的图谱居然也只是经验的流沙表面上的雪泥鸿爪。这种抽象的“知识”建立了一种无可超越的象征秩序,它不是某个回答、某项技术、某种局部真理,而是由如福柯所论断的在体系形式上面建立起来的屏障,是齐泽克认为的真理-事件关系所依附的情境暴露出的“秩序”空洞。技术所形成的集体意识的主权成为话语背后一致性和连续性的解释原则。于是,福柯的提醒在这个时代再一次显示出它的意义:“对这些现成的综合,这些人们在一般情况下不经任何验证就给予承认的归纳,这些我们从一开始就已经承认其有效性的关联,应重新提出质疑。”①①米歇尔·福柯:《知识考古学》,谢强、马月译,生活·读书·新知三联书店2003年版,第21页。
三、人工智能时代:认知中心化还是人类学解放空间?
波兰尼在讨论自然科学的论证通常是以默认数学公理和符号体系的有效性为前提时,曾批判性地提出两个问题:“这一形式前提体系的逻辑地位是什么?特别是,我们承认它有效的根据是什么?”②②③迈克尔·波兰尼:《个人知识——迈向后批判哲学》,许泽民译,贵州人民出版社2000年版,第293、294页。他本人将对这一问题的反思引向了一个科学认识论上的重大真相:“数学进展中的大步伐常常包含种种观念决定,这些决定因为其本身的性质而永远不可能被严密地证明是正确的。”③这一结论与大多数人的常识可能并不相符,但熟悉科学史尤其是数学史的人并不会感到多么惊奇。它提出了一个重要的问题:那些被默认为是自然性和普遍性的理论建构在多大的意义上是由观念决定的,又在多大的意义上影响了以它为基础的人类认知。
和前数字时代的区域性的集体文化认同相比,数字技术和数据资源的共享(虽然仍旧是在一定范围内,但其广度已经远远突破过去的区域性边界。在这一点上,以互联网为基础的社交媒体功不可没)造就的“实时公众领域”就成了一种奇异的世界性景观。它本身既是技术架构的结果,又成为技术进一步迭代和使用的素材。如果说电视媒体等模拟信号技术的发展重新界定了“位置”和“地点”的概念,使得体验和场所的物理性得以分离开来的话,那么数字技术则冲击了一切的文化经验的边界,使数据和人工智能的输出成为更大范围的认同对象。在ChatGPT等AIGC的训练和使用的过程中,尽管人们对很多具体问题的回答提出了异议,但智能算法及其所驱动的自动化决策,以及作为数据库来源的网络文本并未进入批判性视野。从某种意义上说,AIGC生成的不仅仅是文本(也包括图像),而且是更具有同一性和连续性的世界图景。从某种意义上而言,它类似于巴塔耶和德里达所说的“元书写”:“它不是自己,不为自己,不属于自己,也不靠近自己。”④④雅克·德里达:《书写与差异》,张宁译,生活·读书·新知三联书店2001年版,第478页。从有着强烈视觉中心主义倾向的数据可视化青睐到AIGC的预训练生成式言说,人们对机器输出结果的态度已经不再考虑形式和内容的区分以及形式对内容的决定(尽管预训练本身就意味着形式的优先性)。预训练模式下生成的内容本身其实是被形式结构化的。斯蒂格勒沿着西蒙东的理路,对这种情形提出了警告。他认为:“当今技术的高速发展引起了时间化(事件化)内部的断裂,伴随而来的是非地域化过程,这就要求我们重新认识技术性问题。”⑤⑤⑥贝尔纳·斯蒂格勒:《技术与时间1:爱比米修斯的过失》,裴程译,译林出版社2019年版,第19、80页。作为人工智能技术基础的数字化的核心问题在于它通过自身所依赖的普遍理性(工具)所实现的输出造就了一种准“强制”的规范,使自身内在地具有了普遍性和必然性,从而体现出技术体系对于其他社会结构和体系的前件式影响,这也正是人工智能时代技术无意识比过去任何时候更内嵌于人的个体化过程和社会化进程的原因。其结果必然是“社会的其他领域只能无条件地依照技术物体的规律来调节自己”⑥。
20世纪30年代以来认知计算主义与反计算主义曾经有过激烈交锋。然而,计算主义所面临的很多诘问在今天大数据和大模型的技术应用得以实现的情况下都得到了部分的解决。以GPT系列为例,当数据类型和数量以及模型参数呈现指数级增长后,通过深度机器学习所获得的结果(如GPT-4)就已经在一定程度上显示出和人类思维方式甚至情绪方式的相似。乐观的计算主义者相信,从任何可证伪的意义上来说,知识甚至语言的统计学则相当于理解。而大语言模型所实现的正是这种意义上的知识获得过程和理解过程,其数据覆盖的全面性保证了这一过程的可靠。这种对计算主义认知构架的笃信使得AIGC的生成内容越来越容易获得信任,而使人们忽略其作为根基的数据和模型问题。
齐泽克曾用“斜目而视”来挑战“凝视”的无批判性。这一概念在齐泽克的哲学中常常被用来描述对于现代社会、政治和文化现象的分析方式,强调对于被掩盖、被忽视或被禁忌的方面进行批判性分析。在他看来,后者建立起来的是一种以视觉经验为中心的二律背反关系,它不仅是对被审视对象的关注,而且对构成理解视觉经验的场域起着结构性的作用。“凝视”不仅仅是经验性地“看”,更是主体被形塑和自我体验为现代主体的过程,它以一种具象化的方式将传统的主客体二元关系深化为意识形态的作用场。“凝视”所默认的理性主义和科学主义态度将世界理解为触手可及的客观知识。然而,“斜目而视”以从非正面、非常规的视角进入,造成了视线的错位,也意味着某种对“凝视”得以成立的权力的冒犯。这种冒犯是从由数据建构起来的象征界向实在界的刺探,它力图揭示数字化绘制出的“科学客观”和“普遍理性”之下内在的矛盾、不稳定性或者深层次的问题。可以预想,在数字化越来越普及的今天或未来,技术的“凝视”将越来越无所不在。“斜目而视”的态度可能正是对人类自身反观的所在。
不过,在ChatGPT的例子中,一个有趣现象的出现为技术无意识注入了某种人类学的可能:这就是预训练的提示(prompt)模式是以对话方式进行的。和传统搜索引擎的关键词模式不同,对话框架的启用一方面意味着自然语言处理的成熟度大大提升,可以实现对上下文情境和内在逻辑的挖掘;另一方面则将整个生成方式置于了一种形而上学的高度:人类思想的产生正是在对话和提问中开启的。虽然在事实上,现阶段所有的自然语言处理的任务,都不意味着机器真正理解其所面对的语言的真实内容和价值维度以及它们之于世界的意义,人工智能所做的只是如玩填字游戏一般的活动(当然所涉及的内容的广度和深度规模更庞大),这背后是通过机器深度学习之后的一次又一次的概率解谜。不论是谷歌的BERT(Bidirectional Encoder Representations from Transformers)模型还是OpenAI使用的GPT(Generative Pre-Training)模型,在本质上都是基于这种预训练模型的典型代表。它要求生成的输出文本达到两个方面的要求:第一,语句通顺;第二,符合知识。但值得注意的是,这个要求的标准和检验都以其进行训练的语料库为坐标体系,它是利用训练好的模型,使用待判断的数据去“推断”得出各种结论。AIGC形成的学习能力取决于参数的规模。GPT-2大约有15亿个参数,而GPT-3最大的模型有1 750亿个参数,上升了两个数量级。根据媒体报道但还未被证实的消息,GPT-4的参数可能将达到100万亿规模。这也就要求训练模型所需要的数据也必须更多。从这个意义上说,大语言模型在逻辑上担当了一种知识整体(尽管它自身也在动态变化)的功能,打破了过去人类知识传承和学习的分散性,从而为认知的中心化提供了前个体层面的可能。
在BERT和GPT两者之中,GPT是采用对话式的提示(prompt)方法促使人工智能利用上文进行思维链条的推演,而不是像BERT一样需要海量的专业标注数据,以及对模型参数进行改动(也就意味着可以不部署模型,而是接入公开的大语言模型服务,这也就是为什么GPT的预训练语料库可以是网络文本)。在这种情形下,GPT模型的调试就会呈现百花齐放的姿态,对话者越多,提示越丰富,人工智能的创造力涌现就越猛烈。这种互动模式上的差异是极具关键意义的,它不但推动了开发和应用的成本降低,并且从人机互动的维度上实现了“用户生成内容”。它成了一种德勒兹而言的“内在性生产”:“不是某人对某物的生产,而是为了生产自身而生产的生产,它是一种没有基础的时间和生产。”①①克莱尔·科勒布鲁克:《导读德勒兹》,廖鸿飞译,重庆大学出版社2014年版,第69-70页。但必须意识到,依赖于机器的连接而形成的生产方式(或生产本身)更多的是结果而非原因,它们是既定结构(模型和提示及其互动)内在性博弈的表层显现。这一博弈同时具有了双向的可能:一方面是对话者的因素;另外一方面则是由人工智能的“三驾马车”决定的机器无意识:决定模型框架的算法、实现深度的算力以及互联网储存的数据。
也正因为如此,生成式人工智能同时在由机器无意识所决定的认知中心化和主体创造性的人类学特征两个方向上都具有了可能性空间。一个佐证的例子是,OpenAI在推出GPT-4的同时,还发布了其开源软件框架Evals——一个可以对AI模型进行众包测试的软件框架。它可以用来开发和运行评估GPT-4等模型,同时检查其性能。也就是说,使用Evals,全球范围内的开发人员都可以使用数据集生成提示,测量OpenAI模型的生成质量,并比较不同数据集和模型的性能。开源和众包的形式打破了架构的封闭性,使得人工智能技术的训练、测试形成了公共连接的一部分,真正体现了人类智识和创造性,因为他们以人类特有的抽象思维和识别能力弥补了由机器学习和人工智能系统驱动的软件的不足。这种协作不但实现了数字系统内部的连接,甚至有可能为这种连接赋予主体能动性的影响,从而改变智能技术的输出结果。另一方面,提问的互动方式的意义至关重要。它可以对交互的内容进行情境化和个性化,实现对智能系统的最大影响。“提示设计(prompt engineering)”的专业化和丰富化也可能会为基于自回归模型的人工智能带来不一样的结果。
四、结语
在传统的深度神经网络算法的基础上,ChatGPT通过增加训练数据的参数量级而实现输出结果的有效性和准确性,并正在成为知识生产的重要方式。由于以ChatGPT为代表的大型语言模型在训练过程中对网络数据文本具有强依赖性,因此,此类生成式人工智能的广泛应用可能会引发认知中心化问题。对于这一隐忧,ChatGPT自己的回答相当谨慎。它承认人工智能所使用的数据模型的局限性既有可能导致最终输出结果不能准确反映观点的差异化和多样化,也有可能将已有数据中存在的偏见放大,这都会导致未来知识或认知的中心化趋势。对此,ChatGPT也给出了一个颇为中肯的建议:人类必须充分意识到这种风险并用适当的方式进行代偿和矫正。从“用户生成内容”的多向性到“AI生成内容”的计算主义,一方面,当未来大量的知识由人工智能生成时,知识生成背后所依赖的网络文本的可见性及其边界该如何划定?AI自身生成的文本是否有可能反复被引用而进入循环论证?另一方面,当知识本身成为一种高度依赖网络文本的中心化产物时,高度发达的人工智能时代所期待的去中心化的未来愿景又该如何实现?对人工智能的“使用方式”的重新思考正在成为关乎人类自身存在方式和价值来源的时代之问。
[责任编辑:赵强]