数字加速主义的阿喀琉斯之踵
2025-03-05吴静
摘要:从判别式人工智能到生成式人工智能的发展使得作为技术基底的大语言模型不但引起了空前的关注,也成为科技创新产业竞相追逐的新热点。在内在结构方面,大语言模型虽展现出强大的泛化和涌现能力,但也存在泛化能力差、过度拟合、数据偏差等问题,其“涌现”现象也难以预测和控制。同时,大语言模型面临数据抗衰和模型退化的发展瓶颈。随着时间推移,性能受“模型漂移”的影响在多模态、多任务领域明显下降,商业化落地受阻,部分企业的先发优势难以超越。尽管大语言模型的突飞猛进被视为信息社会新阶段的标志,但是其发展面临着有待解决的挑战和限制,以及背后旷日持久的能源和财力消耗。因此,唯有深入研究大语言模型技术的底层逻辑和运行原理,进行针对性测试和评估,批判性地审视其生成的价值逻辑,才能更有针对性地处理大语言模型对社会关系产生的影响,从而更好地解决人机协同及交互界面等问题。
关键词:大模型;泛化;模型退化;价值
基金项目:国家社会科学基金一般项目“德勒兹资本批判视域下的西方平台资本主义研究”(项目编号:20BZX011)
中图分类号:B84;TP18 文献标识码:A 文章编号:1003-854X(2025)01-0104-08
在2023年度中国十大学术热点排行中,“生成式人工智能与知识生产范式变革”赫然名列其中。而作为其技术基底的大语言模型成功引起了研究者、产业界和监管机构的高度关注。国内和国际AI界都非常重视大模型尤其是在此基础上向通用人工智能发展的安全问题。2023年11月23日,在第二届全球数字贸易博览会数据要素治理与市场化论坛上,国家数据局局长刘烈宏在解读接下来的工作任务时,特别提出数据基础设施要为数据应用方提供适应于通用化的智能决策、辅助设计、智慧管理等能力,也要充分利用人工智能大模型的最新成果,促进数字化转型和智能化升级。为此要推进数据领域核心技术攻关、强化数据安全治理。而来自欧盟委员会、欧洲议会和27个成员国的代表,也在2023年12月早些时候达成了一项三方协议,拟对人工智能监管进行立法并已完成草案的准备工作。其中一个重要方面就是对大语言模型开发人员基本的透明度要求。法案根据商业用户数量和模型参数对大模型采取了分级管理的制度,但透明度要求将适用于所有模型,包括在不泄露所有者商业机密的情况下有义务发布训练数据概要,并要求人工智能生成的内容必须做到可即时识别。对于前沿大模型,相关的合规义务还包括定期披露模型评估、跟踪系统风险、网络安全保护以及模型能耗在内的详细报告。
由此可见,一方面由于人工智能发展的无限潜力以及它为改变世界提供的巨大可能,另一方面也由于技术本身的不透明性和其发展过程的不确定性,业界、社会、学术界和多国政府之间已经开始有意识地形成知识共享和最佳实践协同,重点关注安全标准和安全实践,通过确定人工智能安全方面最重要的开放研究问题来支持人工智能安全生态系统,以减轻各种潜在风险。很多业内人士在不同场合表示,目前在推动大模型商业化落地方面还面临诸多痛点:如何精准针对市场需求来开发下游场景应用?如何保证长期充裕的资金和能源支持?是追求算力无限升级还是寻求有效性算力?更为关键的是,高质量训练数据集的迭代更新以及使用安全和可解释性的问题,也亟待解决。在这种重要性之下,从算法逻辑、机器学习的特点以及场景应用出发对大模型所提供的知识生产方式和结果进行批判性分析就是非常必要甚至急迫的事情,因为它既可能对当下的社会认知和未来人类知识图谱发生重大且无法预测的影响(这种影响甚至有可能对今后有关现实的每一个单独判断都发生难以察觉和不可逆转作用,因为一旦使用者对某种特定的知识生产方式产生强烈的信任与依赖,无意识地在认知习惯中排斥其他模型和认知方式,就有可能丧失对所获得的数据和信息进行批判性思考的能力),同时也会关系到当前政府和产业界对于大模型技术的支持和布局。
一、大模型的内在结构瓶颈:泛化和涌现
ChatGPT的爆热不仅使OpenAI自2023年以来收获了最高的关注度,也成功带动了知识界、产业界以及立法监管机构对大模型技术的了解和追捧。仅就行业发展而言,在国际上,除了GPT的生成式预训练模型外,同样基于transformer的BERT、被证明在视觉对象识别和分类中极为成功的深度学习模型ResNet、基于LSTM架构的上下文感知模型ELMo、在文本分类和情感分析任务上表现优秀的自然语言处理模型RoBERTa,以及众多适用于专项任务的深度卷积神经网络模型都得到了不同程度的发展和应用。在国内,百度的文心一言、阿里云的M6、腾讯云的MT-SAT、科大讯飞的星火和华为的盘古大模型等预训练模型也在推进技术的同时,试图结合已有的构架创造新的人工智能应用场景。一种加速主义的立场被贯彻到了从科技界到人文社会科学领域。在媒体的推波助澜之下,人们普遍相信对大模型性能的持续优化和迭代可以实现智能的突破。
这些争奇斗艳的大模型,尽管性能不同,但都可以通过机器学习有效地从大量标记和未标记的数据中捕获具有逻辑关系的信息,并通过将这些信息(和人类理解的“知识”并不完全重合)存储到大量的参数中并对特定任务进行微调,极大地扩展了模型的泛化能力。这就使得它们在应对不同场景的任务时,不再需要完全从零开始,而只需要借助少量的样本进行微调即可。更为关键的是,实现了有效泛化之后的大模型在突破了某个规模时可以展现出惊人的“涌现(emergence)”能力,即令人意想不到的知识生产能力,它可以在没有直接训练过的任务上表现出非常优秀的性能。这种涌现能力之所以让人倍感惊异,其主要特质有两点:第一是它们的突然爆发性,它不是一个渐进的程度改变的过程,而似乎是瞬间从不存在转变为存在的非线性不连续过程;第二是它们的不可预测性,不但难以预测其出现的规模,就连规模的缩放也并不和模型的规模缩放成正比。新的研究和评测还表明,在某些任务和模型中存在超出阈值的复杂度,超过该阈值后模型的功能会急剧提高。尽管对于“涌现”的原因和其在人工智能发展过程中所代表的意义众说纷纭,但相对较为一致的共识认为,“涌现”现象是复杂系统内部各个组成部分之间的相互作用和协同作用所导致的系统整体表现出来的性质和行为。这些性质和行为无法简单地从各个组成部分的性质和行为中推导出来。简单地说,其性能的戏剧性跃升无法简化或还原为某个或某些因素及它们之间的作用。
这种看似神奇的能力使得作为人工智能基底的大模型技术更添“玄学”色彩:有人甚至认为这种不可预测的能力所具有的无限潜力可以被认为是人工智能“觉醒”的表现。伴随生成式人工智能ChatGPT的乍现而来的“机器意识”话题至此更被放大,“智能涌现”“智能意识”的概念一度在惊艳之外还加深了人们对人工智能发展长久以来就有的焦虑。那么,从“泛化”到“涌现”,是否意味着大模型技术已成为解决问题的最佳选择或具备向通用人工智能转变的基础了呢?答案到目前为止都是否定的。
首先,大模型技术的良好应用前景必须建立在模型的高“泛化”能力的基础上,而模型的“泛化”性能是指模型对非训练数据集(即新数据)的适应能力和推广能力,它是一个机器学习模型在面对新的数据集时表现优劣的衡量指标之一。“大语言模型不像循环神经网络那样单线程地进行学习,而是同时有大量副本各自就不同文本展开学习,并通过共享权重或梯度的方式即时性地分享学习成果。”(1)一个好的模型需要具备较高的泛化能力,这也就意味着它的运行不仅应当在用来训练的数据上表现出色,还应该可以在基于其他数据的测试集、验证集以及实际应用中展现出良好的预测性能,只有这样才能够适应新的数据集并具备较好的预测精度。这种迁移学习的能力,即把从过去的经验(训练数据)中学习到的逻辑链条、知识表达和策略应用到新的数据场景中的功能(也是大模型的“举一反三”),是大模型最被需要的能力。换句话说,以大模型技术为基础的人工智能要在不同的下游场景中适应良好并应用自如,必须要提高模型的“泛化”性能,这也是向通用人工智能转变过程中的一个核心问题。
模型“泛化”能力差有两种不同的表现:过度拟合与拟合不足(欠拟合)。由于训练数据集和测试数据集不重合,当模型可以在训练数据上获得较好的表现,但在测试数据集上却表现欠佳的时候,被称之为过度拟合。出现这一现象的原因可能是模型过于复杂。而当在训练数据集和测试数据集上面都不能获得良好表现时,则被认为是拟合不足,原因则是模型过于简单。两种情况都无法表达数据之间的真实关系。
因为这个原因,有学者和业内人士对大模型技术的普遍应用的前景提出了质疑。他们认为,依赖于巨型数据集和高算力的大模型并不是解决所有人工智能技术问题的万应良药。因为大模型所依赖的自回归算法不但需要耗费巨大的能源资源和长时的训练,而且其拟合不足和过度拟合的问题难以在随机的验证数据集中体现出来。其所导致的模型崩溃会极大地影响下游应用。而这些问题的产生,不仅取决于参数和数据的数量,还取决于模型结构与数据形状(即数据分布的离散度)的差异大小。以目前的GPT-4为例,其自身所生成的文本一旦进入自己的训练数据库,则必然改变人类知识所具有的多样性,过度拟合的收缩将难以避免。对这个问题的补救往往需要诉诸更大更全更新的数据库进行多次验证,这种循环显然是非良性的。
而要使得模型具有良好的泛化能力,不但要在特征选择和特征缩放(选择与目标变量高度相关的特征,以及去除噪声和冗余特征)与数据增强方面投注更多精力,更需要通过结合多个模型来提高泛化能力。事实上,越简单的模型越具有更好的泛化能力,模型的复杂度会增加泛化的难度。因此,在训练模型时,可以通过早期停止法、正则化等方法适当地调整模型的复杂度,以避免过度拟合引起的模型崩溃。但这一做法本身却又和大模型发展要求的多模态和多任务融合的基本倾向之间存在一定的张力。因为按照传统的机器学习泛化理论,模型的参数量越多,其拟合能力也就会越强,这意味着模型的泛化能力会越差。作为很多大模型底层的深度神经网络,其参数规模一般极为可观,这就导致它的泛化能力和参数量增长之间的关系呈现出开放性特征,并不是参数越大越好。大语言模型(LLMs)在随着GPT系列惊艳现身后也被爆出存在泛化问题。
其次,对于“涌现”现象,尽管人们的理解还远不能达到其生成的内在机制,但它也并不如某些技术乐观主义者宣扬的是“机器智能”生发的奇点。“涌现”这个概念最初是由诺贝尔奖得主物理学家P.W.安德森在其著作《越多越不同(More Is Different)》里提出的。他认为“大型和复杂的基本粒子集合体的行为,并不能按照少数基本粒子性质的简单外推来理解”(2),随着一个系统的复杂性增加,新的性质可能会出现,即使从系统微观细节的精确定量理解都无法预测这些性质。这种非线性突变在小模型中并不存在,这也就是为什么大模型技术在由生成式人工智能带火的这波发展浪潮中被追捧的原因之一,它被不少研究者和商业人士视作通往超级智能的技术构架。但在AI领域最重要的会议之一、一年一度的NeurlPS神经信息处理系统会议上,一篇题为 “Are Emergent Abilities of Large Language Models a Mirage?” (《大语言模型中的涌现是海市蜃楼吗?》)的论文获得了年度最佳论文,文章通过数学方法测评指出,大模型的涌现能力在很大程度上是由于研究者选择的度量标准而产生的,而不是模型性能在规模扩展中发生了根本质性变化,“所谓的涌现能力会随着不同的指标或更好的统计数据而消失”(3)。这也就意味着,所谓机器的“自主智能”更多是对于“涌现”成因的不可知性的过于乐观的想像。
“涌现”作为一种复杂系统的现象,它并不是大模型内在的本质性能力,而取决于很多方面的原因,虽然它在一些时候展现出非常强大和令人振奋的神奇,但它的可靠性却无法被期待,这体现在以下几个方面:
第一,“涌现”现象难以被排错(debug)和调试。由于“涌现”出现的机制和参数规模都并不清晰且难以预测,对其进行识别和debug的难度就非常之大。而且如果数据存在偏差或质量问题,模型的涌现能力和结果都会受到影响。数据偏差可能导致模型在某些情况下表现不佳,甚至产生错误的预测或决策。一旦这种错误不能被很快监测到,就会在不知情的情况下影响下游应用。
第二,可解释性差。大模型技术本身的复杂程度就已经非常之高,深度神经网络的很多关键性逻辑仍处于黑箱状态。“涌现”更是黑箱中的黑箱。其难以提高的可解释性会导致人机信任危机增加,特别是在需要解释复杂情况或涉及敏感问题的应用中。
第三,泛化能力有限。虽然大模型的涌现能力可能会在某些特定任务上表现出色,但这并不意味着它能够在广泛的领域和场景中泛化。“涌现”所依赖的训练数据集的多样性和质量及其结构和参数的复杂性有可能导致模型泛化能力的下降,从而降低其面对新任务时的性能表现。
因而从内在机制来看,虽然大模型的涌现能力令人震惊,但在目前阶段依旧存在难以解决的难题。所以在实际应用中需要谨慎考虑其适用性和局限性。大模型的涌现能力也并非没有局限,对于某些特定的领域,它的性能可能还不如针对专项任务的模型。事实上,在很多任务的实现上,数据的数量并不是保证模型适配性的唯一因素,相反,数据的质量、可靠性以及模型适用性的标准同样重要。在某些情况下,小数据集可能更加准确和可靠,因为它们更容易进行有效的数据清洗和筛选。弱算力的系统也可以通过使用高效的算法和优化技术来提高性能,如可以使用并行计算、分布式计算和硬件加速等技术来提高系统的效率和性能。而且,和大模型技术后期的“递归诅咒”相反,小数据学习进路在后期随着数据集的增加和模型的优化,可以取得更好的效果。这是因为小数据学习更侧重于深入理解数据和模型,通过精细调整和优化模型架构、特征工程等方面,取得更好的效果。这也就意味着,大模型技术并不能完全取代其他的技术应用方法,它的优越性只有在特定的领域内才能体现,并不是所有的场景应用都值得用大模型再做一遍。
二、大模型的发展瓶颈:数据抗衰与模型退化
人工智能的长足发展取决于两个关键性的方面,一是模型的优化和更新,二是下游应用市场的普及和创新。前者是后者的基础,后者则保证和维持了前者不断发展的动力。“由于学术研究和行业应用可能共享相同的主干LLM,因此在LLM上的大多数研究进展可能有利于其下游应用。”(4)由此大模型与应用之间形成递进关系,即先有强大的大模型,才能有优质应用;反过来,只有通过优质应用所吸引的用户及其产生的数据和反馈,才能帮助大模型不断优化和改进。“元宇宙”从喧嚣一时到后继无力很大程度上与下游应用的开发缺乏想象力相关。反观这一波大模型浪潮,从ChatGPT仿佛“机械降神”般的现世到不久之后GPT-4的上线,国内外众多科创企业的跟进,使得2023年成为名副其实的AI大模型的大战之年。OpenAI当之无愧地在这一年的大部分时间里都成为引领风骚的先锋,当GPT-4在下半年增加了“my GPTs(我的GPT)”的自定义设置后,不但提供了一种人际交互创新的平台,更借助用户的力量将模型本身的迭代和多任务优化做到了极致。尽管大模型技术的后来者众,但到目前为止,能在参数、算力和前期积累方面与GPT系列真正一较高下的新模型并未出现,直到谷歌公司在2023年12月6日发布号称有史以来体量最大、功能最强的大模型Gemini(有Gemini Ultra、Gemini Pro 和Gemini Nano三个版本),用以挑战GPT-4的霸主地位。
相比于OpenAI将纯文本、纯视觉和纯音频模型拼接在一起的多模态实现方式,谷歌称其多模态为原生多模态(natively multimodal),它可以支持输入文本、图像、音频和视频,输出图像和文字,“无缝”理解、操作和组合不同类型的信息,拥有了强大的交互能力。研发者声称这种“原生性”体现为模型从初始阶段就被设计为“多感官”模型,通过对其“投喂”多模态数据(包括文字、音频、图片、视频、PDF文件等)进行训练,再根据训练结果用另外的多模态数据进行微调,进一步提升模型的有效性。在谷歌给出的与GPT-4的对比成绩单中,Gemini Ultra在32个常用的学术基准的30个上领先GPT-4。而在MMLU(大规模多任务语言理解)测试中,Gemini Ultra以90.0%的高分,成为第一个超过人类专家的模型。为此,谷歌公司展示了一个长达6分钟的视频,用以全方位展现Gemini在多模态任务上的强大性能。在这段视频中,Gemini仿佛一个智慧体,不仅能观察周围世界,及时做出反应,还会说多国语言,并实时用声音、图像与人类互动。
然而,正是这个视频在一天之内就引发了争议,使得研究者对Gemini的真实能力产生了质疑。面对有理有据的质疑,谷歌公司不得不向媒体承认,这个视频并非实时录制,而是经过多次剪辑。但Gemini的研发负责人否认故意造假,称只是为了简洁缩短了反应时长,使用了原始镜头中的静止图像帧,然后编写了文本提示,减少了延迟。这也证明了Gemini对任务的真实反应速度不但远远慢于视频所展示的,而且仍然在一定程度上依赖于提示工程(prompt engineering)。
一时之间,“翻车”和“造假”之声四起,谷歌的回应也并没有收到预期的效应。在关于科技诚信和宣传策略的拉扯背后,是这场所谓的“造假”风波所影射出的AI公司急于打破头部霸主的科技垄断地位、吸引资本市场的焦虑。积淀深厚的老牌企业都如此,各路后来跟进的新秀就更加只能在卷参数、卷任务的路上一路飙进了。科技界仿佛一夜之间变成了大模型加速主义的天下。
与此同时,GPT大模型的缺陷却在不断被爆出。先是2023年5月,就有大模型老用户在OpenAI论坛上开始抱怨GPT-4,即使在熟练的任务领域内也出现了性能下降的情况,他们形容这种情况为人工智能“变笨”了。对于此,OpenAI的产品副总裁Peter Welinder在社交媒体上表示,更多用户、更长时间的使用(背后是更多的数据)使得ChatGPT在同一任务中发现了更多的问题。这从另一个角度证明了大语言模型的泛化能力存在缺陷,并且它目前能实现的思维链条离真正的人类理解还很远。
这种模型的衰退现象与之前人们普遍相信的“数据飞轮”作用形成了强烈反差。在具有增效作用的数据飞轮中,更多的数据有助于训练出更好的模型从而吸引更多使用者,进而产生更大数据集和模型参数用于微调和优化。在这个过程中,数据和模型的增长形成了相互促进,并且随着使用时间的增加效应越快。这正是网络的正外部性效应的体现,所谓“要么平台,要么乌有”。多模态大模型的运作实际上形成了一种强大的数据生产平台,它以自身特有的逻辑机理控制了知识的再生产。但即使在最乐观的情形之下,数据的“飞轮作用”并不是无限的,它不但存在其自身的阈值,而且它是否能发展到极大值还要取决于限制性条件和需求。来自斯坦福大学和加州大学伯克利分校的研究者在一篇《ChatGPT的行为会随时间如何变化?(How is ChatGPT's behavior changing over time?)》的论文中提出:大模型的性能表现可以在较短的时间内有巨大的差异,并不总是稳定。因此“需要不断地评估和评估应用程序中LLM漂移的行为,特别是由于像ChatGPT这样的LLM如何随着时间的更新并不透明”。(5)研究者同时对GPT-3.5和GPT-4做了测试,他们在对四个常见的基准任务——数学问题、敏感问题、代码生成和视觉推理的结果进行比较的基础上发现,两个版本的ChatGPT的表现都随时间发生了变化,其中大部分是变差,只有极少数的任务出现了优化。并且,这种时间变化没有形成稳定的曲率关系,难以预测和判断。这一结果在一定程度上打破了技术研发者和投资者对大模型应用前景所做的乐观估计。
事实上,这种衰退几乎是所有机器学习模型的“顽疾”。哈佛大学、剑桥大学、蒙特雷大学和麻省理工学院早在2022年就通过研究结果证明,91%的机器学习模型都会随着时间的推移出现性能下降。这种退化类似于人类的衰老现象,因而研究者将此称为“人工智能老化”。这种老化的本质,和“模型漂移”有关,它是机器学习生命周期中一个非常重要的特性,指的是目标变量和自变量之间的关系随时间而变化。更简单地说,由于数据变化或输入与输出变量之间关系发生变化而导致模型性能下降。由于这种漂移,模型会变得不稳定,并且在大多数时候会随着时间的推移预测精度不断降低。“模型漂移”分为“数据漂移”和“概念漂移”两种,它们分别意指对数据的分布或数据的解释随着时间发生了变化,前者会导致训练好的模型与新的数据变量分布不相关,从而发生结果恶化;后者则可能是独立或在前者的基础上,目标变量的含义发生变化,从而使原有的模型丧失意义。从这里可以发现,模型漂移从本质上讲反映的是目标变量的动态变化性与预训练模型的静态适应之间的张力关系,依赖于人类行为和社会现象的模型可能会更加容易退化,因为这两者发生改变的几率和进行解释的语境相关性要远高于数学问题。
在机器学习模型的常规运作中,数据飞轮本质上是为了迭代模型,用新模型解决新问题。当数据飞轮的神奇作用不再能被保证、而成了一个如“永动机”一般的神话时,大模型的发展就不得不面对自身的瓶颈。从GPT系列不长的发展历程可以看到,几乎其每一次的性能跃迁,都是在预训练数据的数量、质量、多样性等方面做出了重要的提升。GPT-2大约有15亿个参数,而GPT-3最大的模型有1750亿个参数,上升了两个数量级,GPT-4的参数则达到100万亿规模,规模呈指数级增长。然而,由这样的海量参数和训练数据集训练出来的模型一旦发生漂移现象,对其进行重新调整和训练也并非易事。尽管理论上,对漂移现象也可以进行建模和监测,但由于巨大的时间成本(长时间的跟踪和测试、验证)和数据资源成本(首先要确认漂移区域,在针对性地进行训练),可行性上存在巨大困难。尤其在多模态、多任务领域,难度更加提升。
这种难度既反映在大模型技术本身的迭代和推进上,也反映在下游的应用场景中。尽管2023年上半年的投资市场极为热衷于AI场景创新,但真正落地并成功商业化的并不多见。这是由于OpenAI母公司的强势创新能力和市场野心。在2023年11月开发者大会上,ChatGPT的开发者奥特曼就展示了公司针对多模态、my GPTs以及其他工具的全盘布局,这几乎涉及了众多应用公司在这一波浪潮中的全部商业化努力,但其功能却更强大、价格也更为低廉。无疑,从规模方面来看,大模型暴力美学依赖的大数据、高算力的发展方式使得平台加速主义的先发优势显露无疑,后来者很难在短时间内通过数据增强和模型优化赶超领先者。
正因为如此,更多的应用创业者转而另辟蹊径,在专业性的行业大模型方向寻找新的空间。这当然是由于transformer技术的底层构架已经被开源,众多通用大模型的次第推出使得业界可以直接通过微调的方式使用,而不需要耗费巨大的人力物力和时间单独完成研发新模型的任务。但在这个基础上,大容量、高质量的行业数据就显得至关重要。它不仅是微调模型能否成功的核心,也是其投入商业化应用的市场前景的保证。然而,就目前的情形而言,各行业的数据资源都非常有限,且质量不一。各种统计方法呈现出来的差异也非常大。这种分散性不仅导致了数据达不到调试模型有效性的阈值,还会在没有统一的数据标准和质量控制的情况下,使得模型训练效果大打折扣,甚至影响其泛化的效果。而要彻底改变这种情况,势必增加企业的巨大运行成本。以很多创业者关注的医疗大模型为例,它不但需要各医疗卫生机构开放共享各自的医疗数据来构建行业数据集,还需要再增加数据的丰富性和多样性,但其有效性和投入使用的收益却难以预测。这些问题共同构成了当下大模型技术推广的主要瓶颈。
三、反思认知技术化与数字加速主义
和“元宇宙”主题一样,人文学者和科创界围绕大模型和人工智能的种种喧嚣——惊叹、焦虑和躁动——一度让工具批判和技术解析的声音很难被理性地看待,除非它被安排上配合流行的惊异—反转叙事的故事结构。而且,由于人工智能技术壁垒和黑箱始终存在,技术话语和大众传播之间的鸿沟难以以有效的科普方式填补,对于该问题的讨论在某些时候不可避免地被披上了带有臆想色彩的外衣。除此之外,媒体在助推这种想象性上扮演了不可忽视的角色,“注意力经济”的策略使他们更愿意选择符合受众期待或更容易引起讨论的角度。这些讨论毋庸置疑地最终被导向了技术加速与未来社会建构之间的张力关系。和经典的现代性批判以及技术理性批判的思路不同,卷体量、卷算力、卷速度的大模型的众神之战让一种迷恋加速的密集主义倾向和迷恋规模的暴力美学占据了上峰,这很难不让人想起十年前亚历克斯·威廉姆斯(Alex Williams)与尼克·斯尔尼塞克(Nick Srnicek)发表的《一种加速主义政治的宣言(Manifesto for an Accelerationist Politics)》(下文简称《加速主义宣言》)一文。文章秉承了未来主义主张加快技术革命的一贯取向,倡导通过对已有科技成果的挪用和重新配置,改造社会结构、经济模型和意识形态,实现人类解放。在这个宣言的核心中,两位作者对新科技的发展寄予了无限希望,认为解除技术阻碍将导致资本主义崩溃,在此基础之上产生出新的人类社会形态。德勒兹和加塔利在《反俄狄浦斯》中所描述的资本主义对生产力的压制和他们描绘出的“解辖域化(deterritorilization)”成为威廉姆斯和斯尔尼塞克的理论资源。
从BERT到ChatGPT再到Gemini的突飞猛进,以及国内AI大厂争奇斗艳的大模型之战,标志着信息社会进入了大模型主导的新阶段。这让很多人乐观地相信,人—机互融,信息、模型和行动的无缝衔接时代即将到来。谷歌也指出在可以预见的时间内通用人工智能将会得到应用和普及,各种领域中的智能系统将具备与人类认知能力相持平的智力水平,能够胜任多种复杂任务。人们相信,随着大模型的不断优化和民用化,其将极大地推动生产力跃升,从而成为社会生产生活的主要工具,重塑经济社会的生产和再生产方式,全面降低生产成本,提升经济效益。甚至有人认为,大模型技术集成了互联网、云计算和大数据的全部生产能力,实现了信息获取的边际成本无限趋近零。将来更可以通过智能系统自动获取信息,利用大模型中枢驱动各类任务系统或通用人工智能,使得社会生产和再生产的总成本将逐渐趋近固定成本,从而从根本上解决资本主义生产的剥削顽疾。
这种美好的设想仿佛《加速主义宣言》的理论蓝图已然成真。但正如奈格里在对这一主张做出反思时指出的那样,这“是通过将认知劳动从其潜伏期中撕开的方式来释放它的力量”,以为只要解放被资本压制的认知劳动生产力,就能够“最终把握从物质劳动霸权到非物质劳动霸权的转变……革命的唯物主义历来都是这样做的”。(6)奈格里承认,这种断言无论从政治上还是技术上都过于决定论了,他借用了德勒兹和加塔利的“集体性装配(collective assemble)”概念来展示重新占有固定资本和转变劳动力的可能。但事实上,《加速主义宣言》的两位作者都过于乐观地解读了德勒兹和加塔利的理论,他们忽视了后者的另一个概念更加适用于分析认知劳动生产和人工智能社会条件。思考新技术的发展及其社会化应用后果,是萦绕德勒兹资本批判始终的一大主题。德勒兹曾以“公理化”(axiomatization)来形容资本主义生产方式的运行机制和扩张路径。与前资本主义社会借助特定符号意义,将社会要素的流动限制在特定场域内部、并凭借清晰且不可逾越的规则实现对社会进行整合的“编码化”体系不同,资本的公理化不但具有更为严密和周全的特征,且借助着资本强大的同质化逻辑将所遭遇的一切元素裹挟进自己的洪流,哪怕这些元素本身具有解放性的潜力。这种公理化逻辑并不通过明确的辖域来实施对社会要素的控制,相反,它通过更加普遍的、更具成长性和可塑性的“强中心”体系强化了控制的深度和广度:“只有一只作为中心计算机的眼睛,它进行着全范围的扫视。”(7)在此基础之上,晚年德勒兹曾提出了“控制社会”(society of control)理论,以揭示在信息通讯与互联网技术普及应用的前景下,资本主义社会统治形式将发生的整体嬗变:技术的进步扩展了资本微观规训的社会场域,主体虽从福特制时代的“惩戒社会”中解放,却又随即陷入“技术—资本”合谋的控制论图景之中。更为重要的是,这种控制方式因披上了价值中立和形式开放的外衣,而更加难以被辨识和揭露,从而在深层意义上强化了资本主义的统治秩序。如果说福特制中的流水线、工厂制度代表了产业资本场域封闭性的生产特征,那么后福特制时代的数字管理和数字生产方式则代表了金融资本将信息开放性和主体自由流动性作为生产前提的特征。资本借助信息通讯技术,将生产过程扩展到社会诸微观生活领域,且在知识生产公域化(实现通用化的知识前提)的前提下形成更趋数字理性的文化结构。而世界范围内大模型竞赛的不断推高的背后是技术的同一性的宰制(模型、构架、共享数据库),它必须要消弭任何不能被资本一体化运作框架所涵盖的异质性因素,这正是资本总体化逻辑的具体展现,它是知识生产从过程到结果都被资本所吸纳的结果。正如马克思所指出的,“资本只有在自己的发展过程中才不仅在形式上使劳动过程从属于自己,而且改变了这个过程,赋予生产方式本身以新的形式,从而第一次创造出它所特有的生产方式”。(8)
大模型在“泛化”和“涌现”上的结构性冲突以及模型衰退和崩溃的缺陷由于一直停留在应用市场之外的技术领域讨论中,因而并没有给予更广泛的使用者客观分析和理性对待其生成结果的机会。它使得人们忽略了对知识生产过程和方式的省察,代之以对人工智能技术的惊叹式的赞赏和使用。传统的与知识之间的批判性距离让位于直接性的上手。从某种意义上而言,大模型的“泛化”性能越强,就意味着它对于新任务和新数据库的适应性越强,也意味着支撑大模型做出判断的知识体系和价值逻辑越具有公理性。这种公理性的知识和价值链既是通用人工智能的通用性能够成立的基础,也是它的人—机界面友好程度的保障,但同时它也制造了一种不验自明、无可置疑、睥睨一切社会存在的“数字的普遍理性”,使带有特定价值预设的语言—概念—文化—价值体系被指认为具有普遍性和自然性的现实(甚至真实)本身,而这一体系无疑是现代性都市社会生活所预设的。当技术成为普遍的社会无意识,“泛化”的要求就成了大模型技术甚至通用人工智能的“社会征兆”(齐泽克意义上)。它需要不断拓展自己的边界,这导致大模型原有的概念体系和数据库与新任务之间的矛盾不断,从而出现模型漂移或崩溃,以至于从内部瓦解了原模型本身。这种被称之为“社会征兆”的东西喻示着某种在暗中与人们广为接受的普遍性相对立的具有颠覆意味的特殊性,它是大模型技术造就的“数字的普遍理性”的撕裂口,揭示出认知技术化的无意识幻像成为更大的“他者”。
对大模型的追高使一种具象方式出现的数字加速主义以前所未有的强度和态势迫近我们的生活。它定位了一种集体性的“崇高客体”,不但用以“缝合”现代世界范围内、不同文化域中的“漂浮的能指”,甚至能以排他性的方式(过度拟合改变原始数据库离散度)实现知识重塑和普遍化。正如齐泽克所说:“对既定历史现实的体验,要想获得其统一性,唯一的方式就是获得能指的代理,通过对‘纯粹’能指的指涉。将某一意识形态的统一性和同一性作为指涉点保证的,并不是实在客体。与此相反,正是对于一个‘纯粹’能指的指涉,为我们对现实历史自身的体验提供了统一性和同一性。”(9)大模型技术正是这样一个“纯粹”的能指,它以对其结构性冲突和瓶颈的遮蔽为世界图景的连续性提供了技术的保证。那么,真正的问题就在于:当人工智能成为对社会认知方式和文化体系进行结构化的依据时,对大模型加速主义的迷恋是否在一种技术决定论的前提之下抽象地将重塑社会未来的维度简化成了单一的技术进步?“把技术等同于工具的观念带来的是对通过把握真理而处理人自身与世界关系这一原初思考的遗忘,用胡塞尔的话说就是‘科学危机’,即去历史化。”(10)这一去历史化的真正危机是使得解放的意涵可能丧失了社会关系的维度,并且越来越脱离任何实际的社会或政治机构。而“通过加速我们现有的资源来实现从资本主义中获得的解放,使资本本身——最重要的是,资本作为一种剥削性的社会关系——成为我们斗争的地平线”。(11)然而,这种零和博弈式的市场角逐方式和现代性以来的分配原则市场竞争有所差异。“由于在竞争中的判决与区分原则是成就,因此,时间,甚至是加速逻辑,就直接处于现代性分配模式的核心当中。……社会竞争的逻辑是,必须投入越来越多的资源,以维持竞争力。”(12)而大模型的平台效应无法促使常规性的竞争发挥作用,先发者的垄断优势难以突破。
大模型技术的数据暴力美学式发展的背后不但是巨大的能源和财力的消耗,而且是一场结果未知但旷日持久的投入。这既是技术的战场,也是资本的战场。它不仅体现为资本以技术为工具对于人类历史以来的一切共同性的吸纳,也体现为其所代表的文化价值体系通过大模型的通用性输出有偏差或有害的幻觉,这将会对使用者造成严重后果。但对于此问题,研究者仅仅从传统的输出结果的保真性角度出发是远远不够的,因为很多时候大模型的输出结果中的错误难以通过一般性的观察被查知和纠正。并且必须意识到,没有哪一个模型可以永远有效,只是衰退的速度各不相同。而现存的大语言模型随着其规模的增加,模型性能甚至出现了先增加后又开始下降的现象。这既需要深入到大模型技术底层和逻辑链条中,根据其赖以成立的运行原理进行针对性测试和评估,从而对很可能发生的问题做出判断,更需要批判性地拷问其生成的价值逻辑。简单的“价值对齐”并不是解决问题的良药。因为价值从来不是普遍和匀质的。大模型(以及通用人工智能)在智识生产方面的加速普遍化和人类社会文化价值的多样性之间的不对称会随着数字技术的普及愈加明显。而作为一项正在快速发展的技术,不但大模型的技术原理需要更加细致和深入的研究,它对于社会关系再生产维度的影响、人机协同的关系生成方式以及交互界面的形成都应当被纳入到更具有针对性的研究视野当中。
注释:
(1) 吴冠军:《大语言模型的技术政治学评析》,《中国社会科学评价》2023年第4期。
(2) P. W. Anderson, More Is Different: Broken Symmetry and the Nature of the Hierarchical Structure of Science, 1972, 177(4047), pp.393-396.
(3) Rylan Schaeffer et al., Are Emergent Abilities of Large Language Models a Mirage? ArXiv: 2304.15004.
(4) Lei Li et al., Large Language Models for Generative Recommendation: A Survey and Visionary Discussions, ArXiv: 2309.01157.
(5) Lingjiao Chen et al., How is ChatGPT's Behavior Changing Over Time? ArXiv: 2307.09009.
(6) 安东尼奥·奈格里:《反思〈加速主义政治宣言〉》,张一兵主编:《社会批判理论纪事》第15辑,江苏人民出版社2023年版。
(7) 吉尔·德勒兹、费利克斯·加塔利:《资本主义与精神分裂(卷2):千高原》,姜宇辉译,上海书店出版社2010年版,第295页。
(8) 《马克思恩格斯全集》第32卷,人民出版社1998年版,第103页。
(9) 斯拉沃热·齐泽克:《意识形态的崇高客体》,季广茂译,中央编译出版社2002年版,第135页。
(10) 洪北、胡大平:《从马克思到斯蒂格勒:实践唯物主义的技术论》,《阅江学刊》2023年第6期。
(11) Paddy Gordon, Left Accelerationism, Transhumanism and the Dialectic: Three Manifestos, New Proposals: Journal of Marxism and Interdisciplinary Inquiry, 2021, 12(1), pp.140-154.
(12) 哈特穆特·罗萨:《新异化的诞生——社会加速批判理论大纲》,郑作彧译,上海人民出版社2018年版,第33页。
作者简介:吴静,南京师范大学哲学系教授、博士生导师,江苏南京,211100。
(责任编辑 胡 静)