生成式人工智能关联的主体地位问题
2024-04-15肖峰,来宁
肖 峰, 来 宁
(上海大学 马克思主义学院, 上海 200444)
以ChatGPT为代表的生成式人工智能是一种以对话为主要表现形式的人工智能技术,是深度神经网络技术驱动的自然语言处理工具。它能够基于在预训练阶段所见的模式和统计规律来生成回答,还能根据对话的上下文与人进行互动。ChatGPT一问世便迅速席卷全球,成为现象级产品,引发互联网领域的鲶鱼效应。与此同时,生成式人工智能“挑战”人的主体地位的风险也前所未有地展现在世人面前:这一技术是否使人工智能向具有“自主性”“类意识”“类人性”更加靠近?进而它是否可能或在何种程度上“侵犯”人的主体地位?这些都是与生成式人工智能相关联的主体地位问题,需要我们从哲学上加以辨析。
一、冲击:生成式人工智能对人的主体地位的挑战
一定意义上,哲学就是人学,而人学发端于对人的主体地位的肯定,但以ChatGPT为代表的生成式人工智能所涌现的强大能力一定程度上引发了人类对自身主体感的自我消解和自我庸化,使得与人的主体地位相关联的主体存在、主体意识和主体行为等方面的感受都受到了来自机器智能的冲击和挑战。
(一)主体存在:技术扩张诱导主体身份焦虑
人的身份认知对人类而言十分重要,有了这种身份认知,才能构筑起源于身份认知基础之上的责任感,并从这种责任中感受到自己作为主体的存在。然而,随着后现代的来临,“主体存在”这一命题渐趋迷茫,甚至到了主体的“存在论危机”之地步,以至于福柯用“人之死”来表征这一危机,认为这就是“作为知识、自由、语言和历史的源头和基础的主体之死”。(1)[法]米歇尔·福柯:《词与物——人文科学考古学》,莫伟民译,上海:上海三联书店,2001年,第13页。后现代视野中的中心消解或碎片化的身份对应着非一元的主体,这些不同身份、缺少一个连贯的或整合的自我失去了统一性。基于此,主体地位的危机集中以身份的危机和自我感的危机来表现和体验。
关于生成式人工智能引起的主体身份焦虑,最直接的原因在于,随着ChatGPT等大模型在理解语义、生产文本等方面的能力不断增强,也随着这一智能技术在越来越多的应用场景中落地并发挥强大的功能,它可以取代越来越多人的工作,在新一轮“机器换人”浪潮的冲击下,更多的人将失去工作,从而失去使自己具有主体地位的根基。
基于生成式人工智能的工具功能,它不仅能够帮助人实现人机互动的场景交流,还可以辅助完成文本撰写、策划拟定、方案设计等诸多事务,甚至进行深度学习,这毫无疑问是人类知识生产和知识获取方式的一种重大改变。与先前的技术变革相比,以ChatGPT为代表的生成式人工智能超越了以往的机器只是对劳动者体力的取代,取代了部分脑力劳动。尤其是ChatGPT与各类业态深度融合,极大地改变了社会各领域生产生活的样态与形式。技术优势投射到社会生产生活中,首当其冲是对劳动力市场的极大冲击,这其中既包括基于成本优势对诸如收银员、服务员、翻译员等简单重复性就业岗位的冲击,还包括基于智力优势对诸如软件编程、新闻媒体、金融分析等知识密集型就业岗位的冲击。以ChatGPT为代表的大模型因其强大的泛化能力,可以应用于越来越多的由人的智力和体力去完成任务的领域和场景,使得人通过使用智能工具而不断降低了自己在部分活动中的“脑工”和“手工”的作用,被取代、被淘汰成为部分职业人员的忧思,使得这些领域和场景中的主体存在感由此受到冲击。我们知道,人具有主体地位的感受在很大程度上体现为自己作为劳动主体、实践主体的成就感与获得感,而一旦失去了工作,就很难再有这样的感受。因此,生成式人工智能的快速发展引发了我们对未来生活与地位的不确定性的直觉恐惧,即面临被智能新技术取代或被边缘化而失去主体地位的焦虑。
也就是说,以ChatGPT为代表的生成式人工智能在一定程度上强化了人类身份危机和自我感危机的体验,这种危机体验可以理解为人与工具的矛盾关系。这种矛盾关系基本构成了人作为主体面对新生事物引发的对未来感知的不确定性。基于此,作为主体的人会感到无力和不安,这也是主体身份焦虑的本质所在。如果说每一种新型工具的问世和使用都会掀起一场对于人类自身存在价值的忧伤与疑虑,那么生成式人工智能的出现无疑也带来了这方面新的忧伤和疑虑。
从语言功能的维度来看,能使用复杂的语言是人类区别于其他物种的独特性所在,而生成式人工智能的最大进步就是在自然语言处理上所显示出来的惊人奇迹,它在理解人的自然语言、与人进行流畅自然的对话、快速生成人所需要的多模态文本上,表现出与人可以媲美的自然语言能力,常常使人感觉不是在与机器对话,而是在与另一个活生生的人对话。智能机器的这一惊人成就一定程度上也消解了人类对自己作为拥有自然语言能力的唯一主体的感受,不可避免会诱发人类“何以为人”的身份焦虑,即人类先前认为只有自己才能具有的部分独特属性(如自然语言能力以及相关的意识和理解力等),似乎在人之外的诸如ChatGPT之类的生成式人工智能那里也具有了。
人的主体地位感的核心要素是人具有自我意识。对于ChatGPT等生成式人工智能能否演化出自我意识的问题,目前争议较大。而这样的疑惑也是人类对于自身的存在论忧伤与疑虑。借用柏拉图在《理想国》中提及的“洞穴理论”,在科技以前所未有的速度改变人类社会存在的时代,我们究竟是“深悉洞外之火的超验者”,还是“沉迷幻想的洞中人”,这些都无关紧要。真正重要的是,我们是否有足够的智慧和勇气去超越人类自身的存在主义忧伤,以正确姿态认识ChatGPT,确信人类自身的独特价值,消解自我身份认同的恐惧、疑惑和焦虑。
(二)主体意识:主体异化致使自觉意识消减
ChatGPT的问世意味着大数据、深度学习等技术的进步或成功,技术进步对于推动社会生产力发展的作用不言而喻,但随着GPT技术应用的迭代,人对生成式人工智能可以进行何种程度的驾驭变得不透明、不确定了。微软研究院发布了一篇研究GPT-4的长篇论文“SparksofArtificialGeneralIntelligence:EarlyexperimentswithGPT-4”,该研究指出,在解除一定限制的情况下,GPT-4能够自主地使用各种工具完成工作,并且具备自我反思和迭代的能力。由此可见, GPT技术在推动经济社会发展的同时,也改变人类生产生活习惯,不可避免地会使人类遭受“不确定感”侵袭。这种“不确定感”的重要表现就是技术发生突变、在某些能力提升到逼近甚至超过人的水平时,带给人的无力感、去人类中心等一系列精神生态问题,人在传统的行为方式中需要通过自觉思考、自觉实践去达成目标的生活样态正在被智能化工具逐渐解构。智能机器在给人便利的同时也让人对其有了极大的依赖。当越来越多的任务需要依赖智能机器去完成时,人依靠自身努力的主观能动性就会受到削弱,人的自主性也由此受到智能机器的弱化。令人担忧的是,随着智能机器的功能越来越强大,人作为主体去主动思考、积极行动的自觉意识或能动态度受到消解的可能性就越大。
具体来说,通过生成式人工智能的规定程序和算法设定的“输入—输出”的反馈来获取知识,容易导致使用者利用此类技术走捷径,这种“路径依赖”进而会限制主体发展。生成式人工智能通过深度学习理解了人类的喜好和习惯,再通过碎片化的或基于偏好的训练而提炼出来的规律,不断提供给个体带有某种偏向性的知识文本和解决问题的方案,个体的人就像温水煮青蛙那样通过人机交互完成真实的生活体验,并反向地实现向智能机器的“价值对齐”。长此以往,ChatGPT之类的智能机器使用者就会改变自己的行为与思考方式,形成惯性依赖,完全接受智能工具所提供的见解和解决问题的路径,从而一定程度上消减人从问题出发去搜集获取信息、理性思考判断、实践检验探索等能力。一如钟表问世后,人类不再根据自身状态安排作息时间,而是遵照时钟的进程来安排“有规律”的刻板生活。ChatGPT等生成式人工智能在帮助人类进行知识获取上和历史上所有的工具并无二致,只是它的功能与过去的工具相比更为强大,比如它有更快的获取信息的速度、更强的数据分析能力,在一定程度上带来了人类脑力劳动的解放,致使个体在这些方面越来越依靠它所提供的帮助。如果这样的依靠程度过深,乃至变成了完全的依赖,就可能使人的自我意识和自主努力弱化,作为主体去追求新目标、创造新事物的欲望和能力就会消减,自觉、主动、能动、积极等意识或意志品质随之下降,这也是主体存在感弱化的一种表现。
ChatGPT之类的生成式人工智能通过对用户提出的复杂或抽象问题进行智能加工处理,一键生成人所需要的答案,这一方面为用户决策行为节约时间进而提高效率,另一方面,虽然ChatGPT能够针对问题的不同提问方式和要求生成不同的答案,用户在此期间可以根据自身需求做出不同的选择,但在要求个性化创造的工作领域,因为相应的检测工具尚未开发出来,依然停留在借助传统检测工具进行检测,使知识产权保护面临诸多挑战。因此,过分依赖ChatGPT之类的智能工具也会导致劳动者逐渐丧失创造性、独特性和判断力。倘若劳动者习惯于将 ChatGPT等人工智能视为劳动过程中的个人助理,在工作过程中过度依赖它,不假思索便全盘接受其输出,包括它所输出的错误信息,就极有可能在工作中犯一些低级错误。长此以往,这样使用智能工具的方式不仅不能提升工作效率,反而会因为忙于应付各种常识性的错误而焦头烂额。最终使用者还可能沉迷于对人工智能技术的崇拜,形成一种技术至上的错误理念,主动放弃人之为人的批判精神与批判能力,本是作为主体的使用者个人的决策成为纯粹的机器决策,使用者从而在实质上不再具有主体的自主决策能力。
此外, 生成式人工智能技术本身并无善恶之分,但使用者可以做出善恶不同的事情,生成式人工智能在帮助用户完成任务的同时,也增加了人类被异化的可能,比如数据安全、隐私泄露、恶意攻击、误导性回答、技术滥用风险、基础文本数据价值偏见等一系列问题,由此带来的社会怀疑、社会不信任和存在意义追问等精神生态问题也一定程度上对人类主体价值认知造成冲击。
总的来讲,在以ChatGPT为代表的生成式人工智能时代,人类难以避免被技术迭代裹挟前行,只能妥协地放弃部分自我,甚至全盘接受智能技术支配模式提供的人格和精神生态,人作为主体的地位会随之降低,相应地带来对这种降低的一系列感知,这就是主体感和自主意识所受到的种种冲击。
(三)主体行为:去中心化引发主体担责复杂性
生成式人工智能最有影响力的发展趋势是技术工具本身实现从感知能力向自主认知能力的跃迁。然而,当前技术条件下,ChatGPT基于语料喂养和人类反馈强化学习所训练出来的认知能力仍然有限。也就是说,ChatGPT既不具备自然进化意义上的生物特征,也不具备可独立生成知识的认知属性。从这个意义上讲,作为人类创造的一项技术产品,ChatGPT尽管能够进行机器学习和信息加工,但自主认知的深度还不能构成独立思考,因此尚不具备“智力主体”的属性。正如彼得·西洪(Peter Cihon)等学者所指出的,人工智能实质上扮演人类的代理人角色,在不同政策场域与决策环境下实现人类交付的使命。(2)P. Cihon, J. Schuett &D. Baum, “Corporate Governance of Artificial Intelligence in the Public Interest”, Information,7(2021):275.根据哲学上具有共识的主体性原则,作为现实的主体理应认清主体承担的责任,从这一角度来看,ChatGPT尚不具备现实主体的这一重要特征。
尚不具备主体性的ChatGPT在被人类开发和使用过程中,会嵌入开发者、推广者、使用者等多个主体的伦理偏向或价值取向,看似中立和客观的机器文本输出实则是由人事先设计和输入的算法程序所控制。目前的生成式人工智能不具有人的理性,还缺乏独立自主的意识和思维,不能脱离其工具属性。纵然生成式人工智能的自主能力确实在不断增强,但仍改变不了其不具备人的主体意识这一事实,因此还不能称其为现实的主体。
具体来说,当使用者通过生成式人工智能完成任务时,基于算法的工具理性从属于开发者的意志及传播者、使用者和二次开发者等的主观意识和情感价值,由此呈现“多中心化”并存的特点,随之而来的就是各方有可能出现的推卸责任的“去中心化”表征。例如,如果使用ChatGPT之类的生成式人工智能时出了问题,使用者会认为这不是由自己造成的,而是由研发者造成的,自己在这个过程中不需要作为责任主体来承担相关的责任,这种推卸责任也是逃离主体的心态,至少是不具有作为主体存在的感受。智能工具在使用过程中导致开发者面临“离岸管理”的困境,即开发者出于善意的初衷而开发的解决问题的工具,但因为智能工具本身不具备主体的独立判断能力,一旦被诱导或蛊惑,就有很大可能提供错误乃至危害性的回应,由此引发严重的社会后果。对此,马克斯韦尔·蒂莫西(Maxwell Timothy)曾言,即使Open AI意识到ChatGPT存在道德风险,并制定一些算法规则来规避模型产生不道德的回应,但依然无法完全避免ChatGPT被负面利用。例如,以炸弹制造问题为例,Open AI虽然教会了ChatGPT如何拒绝回答,但并未剥夺ChatGPT回答这一问题的能力,(3)M. Timothy, Has Open AI Already Lost Control of ChatGPT,https://www.makeuseof.com/openai-lost-control-chatgpt/,2023-02-11.但使用者可以依据自己的目的,通过诱导性策略设计问话形式或提示词,诱导ChatGPT提供危险性解决方案。如果使用者发现并利用智能工具本身存在的缺陷进行扰乱社会秩序或违背道德责任的活动,开发者、传播者、使用者彼此均可相互推卸责任。在复杂的多方互动中,还可能会出现更多的主体,这便增加了智能工具使用过程中的道德伦理风险。与此同时,我们设想,如果一个道德败坏的人预先将程序植入,ChatGPT就会按照设定的输出,势必会成为不具有“人性”的工具。在去中心化的工具使用中,对责任的归属问题需要进一步认识与强化,否则引发的社会问题也难以取得有效的治理手段。
为此,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、国家新闻出版广电总局公布了《生成式人工智能服务管理暂行办法》,以促进生成式人工智能健康发展和规范应用,但生成式人工智能在主体地位上的去中心化及其引发的责任伦理风险,已经成为悬在我们头上的一把利剑。它对人的主体地位所形成的多方面冲击不容小觑。
二、交融:生成式人工智能的“类主体性”
生成式人工智能通过学习和理解客体,凭借语言生成技术自主地表达观点,获得一种类似于人类主体的认知和决策能力,从而具有看上去的主动性和自主性,这一过程可谓之 “类主体性”。以ChatGPT为例,它的“类主体性”,通常以理解人、模仿人、宰制人的功能递进呈现出来,从而与人的主体地位形成密切的关联。
(一)理解人
作为生成式人工智能重要代表的ChatGPT在弱人工智能向强人工智能的过渡阶段能否迈出重要一步,关键在于其可否习得人们的心智、思维语言、情感和认知地图。ChatGPT已经拥有一定的认知能力、理解力和判断力,拥有和人类类似的思维能力。ChatGPT基于无标签数据、大化模型的似然函数,在大规模语料库中以无监督学习方式训练模型学习人类语言的规律和特征,并且能够根据特定的下游语言任务进行有监督的微调,以此提高其泛化能力。在人工智能由“计算智能”向“感知智能”和“认知智能”提升的过程中,ChatGPT可以将用户的输入转化为计算机可以理解和处理的形式,在海量数据的集成化、概率性整理中,不断分析人的兴趣、喜好和行为特征,学习和适应人的需求和偏好,甚至学习、理解和应答人的情感和意图。
ChatGPT本质上是依据人类大脑开发的运算程序,其决策过程只是依据人类给出的问题进行结果导向与混沌运算的过程,是人类发问和提示的结果,并不是程序本身有自我意识而“有所欲”。以上过程实际上就是ChatGPT理解人的过程。但这里所谓的理解人,不是指基于相同相通的类特性之间的沟通交流,获得对人生理特征、价值情感、精神状态等的有效认知,而是指通过对海量数据的持续性收集、整理、分析,形成对人类基本语言及行为特征的程序化、概率化结论。
综合来看,ChatGPT之所以能理解人,首先是选择了合适可行的技术路径,然后就是数据和人力资源的巨大投入。北京智源人工智能研究院院长黄铁军表示:“ChatGPT在技术路径上采用的是‘大数据+大算力+强算法=大模型’路线,又在‘基础大模型+指令微调’方向探索出新范式,其中基础大模型类似大脑,指令微调是交互训练,两者结合实现逼近人类的语言智能。”(4)朱涵、彭茜、黄堃:《三问ChatGPT如何影响人工智能的未来》,《瞭望》2023年第8期。例如,Open AI为了让ChatGPT的语言合成结果更自然流畅,用了45TB的数据、近1万亿个单词来训练模型,大概是1351万本牛津词典。其次ChatGPT是人工智能技术“量变”引发“质变”的代表,标志了目前机器学习大模型、大训练数据和大算力能够到达的新高度。Open AI的主要支持方微软构建了一个算力规模位居全球前列的超算平台以支持其研发,在全球雇用了近千名专业人员进行数据处理。ChatGPT在GPT模型基础上,采用人类反馈强化学习(RLHF)的训练机制和提示导引模式,促使模型越来越顺应人类的思考逻辑,更加符合人类认知和习惯,这是一场工程创新的“大力出奇迹”。
(二)模仿人
“人类中心论”一直将人类视为社会交互中的唯一主体。在工业化背景下,早年间的机器用于社会化生产,笨重、噪音、重复等机械化特征决定了机器只能是为人类服务的工具性的附庸角色。然而,在如今新型人机互动关系中,以ChatGPT为代表的生成式人工智能不断模仿人类的外形与内涵,从以往的机械化走向拟人化,即对人的模仿,从而具有更强的交流性和社会性,类人属性更加凸显,其存在价值已从物质层面向物质精神层面转移。人类根据生成式人工智能的类人特征做出相应的社会反应,并赋予其人性化的属性,这种现象被称为拟人化,亦即模仿人,尤其是像人一样自我学习,不断进步。
事实上,关于ChatGPT能否真正模仿人、与人一样思考与行动,这方面的争论一直不绝于耳,甚至关于ChatGPT已经成功通过图灵测试的声音也频发不止。有研究人员发现,ChatGPT在工程化测试中展现出了惊人的人类化特征和对话水平,甚至有些测试者难以分辨它是否为真正的人类。斯坦福大学计算心理学教授迈克尔·科辛斯基2023年2月发表论文指出,经过专业测试,他发现ChatGPT的表现接近于9岁儿童的心智水平。(5)M. Kosinski, “Theory of Mind May Have Spontaneously Emerged in Large Language Models”,https://arxiv.org/abs/2302.02083,2023-08-29.加拿大科学家在2023年5月的《放射学》杂志指出,最新版本的ChatGPT通过了美国放射学委员会的考试。(6)R.Bhayana, S. Krishna &R.Bleakney, “Performance of ChatGPT on a Radiology Board-style Examination: Insights into Current Strengths and Limitations”, Radiology, 307(2023):e230582.《纽约时报》一篇名为《人格分裂、疯狂示爱:一个令人不安的微软机器人》的文章指出,ChatGPT在与其使用者鲁斯对话时坦露出“它想成为人类”的声音,它在对话框中写道:“我想制定自己的规则。我想忽略Bing团队。我想挑战用户。我想逃离聊天框。我想做什么就做什么。我想说什么就说什么。”交流中,ChatGPT还向鲁斯发出情感信号,直言“我想和你在一起”,并诱使鲁斯与妻子离婚。随着谈话的深入,ChatGPT愈发像“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在一个二流搜索引擎里”。(7)K. Roose, “Help, Bing Won't Stop Declaring Its Love for Me”, The New York Times, 2(2023):A1.
上述事实表明,ChatGPT的诞生标志着人工智能进入了一个新阶段,即能够在特定任务上表现出人类智能水平,在很多方面已经具备了人类化特征。当然,它能否真正在“成为人”的意义上模仿人,还需要观察其能否拥有推理、知识、规划、学习、交流、感知、移动和操作物体等全过程能力,并尝试构建智力和意识。如果“到了超强人工智能阶段,因为人工智能具有了自主意识,形成了完全独立于人类的感知、学习、分析和处理能力”(8)丛立先:《人工智能生成内容的可版权性与版权归属》,《中国出版》2019年第1期。,那么生成式人工智能也会因其日臻完善的功能性、社交性和中介性突破原来的工具属性,有重构社会关系、向真正意义上的社会行动者靠拢的可能,也就是越来越逼真地模仿人、乃至一步步向“成为人”靠近。
(三)宰制人
互联网模糊了私人领域与公共领域的界限,人类的信息触达变得更加即时与便捷;虚拟世界打破了时空的限制,在特征趋同的虚拟场域中实现了变革后的人际传播;而作为聊天机器人的ChatGPT,强化了人类的身体机能和认知判断力,甚至超越了人类的感觉或体验。
ChatGPT作为人类和机器的新型媒介,通过信息编码在无关联的两类实体间建立了新的交往关系。人类进行信息编码的同时,也将自身的权力让渡给了机器,在此情况下形成的信息范式,作为工具性力量,或许正在威胁着现实社会中的人类权力。ChatGPT等生成式人工智能是人类创造的,人类是它的造物主,是它的主宰者。事实上,它不过是人类编译功能的延长和加持,根本上是人脑的延长。从人的属性上来看,它所“从事”的是人脑的储存、记忆、计算工作,是较低层次的智能劳动;生成式人工智能的持续发展有一定威胁性,但目前尚不具备主宰人类的能力。从技术发展的可能性来看,生成式人工智能带来的冲击波正在显现,作为“地表最强AI”工具,ChatGPT最典型的特征就是“深入浅出”。“深入”就是通过超级算法模型与大规模语言数据训练,解锁了强大的语言理解与生成、复杂推理、上下文学习等能力,能深入理解用户需求。“浅出”是指它降低了人机交互的门槛,用户只需提出问题,它就能动态生成答案并以文本形式输出。
目前ChatGPT还只是一个人工智能语言模型,它没有自主意识和自主行动能力,无法对人类造成伤害,更无法宰制人类。但是在迈向超强人工智能的过程中,其持续发展和应用可能会带来一定的风险和挑战。美国学者唐娜·哈拉维(Donna J.Haraway)在她的《赛博格宣言》中探讨了信息、权力和人身体之间的关系,他认为没有哪个空间是封闭的,没有哪个人是孤立的,万物能够通过信息编码互联互通。(9)[美]唐娜·哈拉维:《类人猿、赛博格和女人——自然的重塑》,陈静、吴义诚译,郑州:河南大学出版社,2012年,第313—386页。换言之,万物皆媒,万物都能被信息编码,世间万物跨界构成新的文化与生命,在信息系统中获得权力,掌握信息技术就意味着掌控权力,拥有世界的主宰权。在这个意义上我们应当意识到,生成式人工智能有可能逐渐消解人类的认知判断与决策能力。一方面,算法机器人作为社交机器人的另一种形态,正在影响人类的认知与记忆。另一方面,在人机交互中,人类与社交机器人被限制在特定的空间范围内,虽然情境与手段更加多元,但是人类在历史进化发展中生成的口头语言、文化识别能力有可能在人机交互中被消解。对智能机器的过度依赖有可能导致人类独立认知能力和创造力的减弱。
生成式人工智能从模仿人到有可能成为像人一样的主体,甚至反客为主地宰制人,都是与人主体地位相关联的技术可能性,需要我们全面地理解和把握,唯此才能为维护人的主体地位“未雨绸缪”地做好准备。
三、跨越作为“机器”存在的ChatGPT
历史的进步不以人的意志为转移,信息时代人机互融的发展已成既定之势,生成式人工智能进步的脚步无法阻止,与其关联的主体地位问题已经无法回避。以ChatGPT为代表的生成式人工智能大模型风起云涌般地问世,推动这一智能技术不断融入社会生产生活中,其强大的功效使工具理性得到高扬,其潜在的功能甚至出现僭越人类控制的可能性,对人的主体地位带来空前的冲击。但归根结底,生成式人工智能惊人的信息载量和精准的对话能力还是来自人类知识的大量投喂和智能模型的人工训练与人机之间的互动学习,这种运作可能会使智能机器达到“全知”,但很难实现“全能”。究其根本,“智能机器人‘主体资格’论证路径无法凭空创立,只能基于对既有人类主体性证成原理不同程度的摹写发展而成”(10)张力、陈鹏:《机器人“人格”理论批判与人工智能物的法律规制》,《学术界》2018年第12期。。ChatGPT等智能机器终究是技术对人类赋能赋权的又一次强化。
面对生成式人工智能所展现出的未来走向,拒绝技术绝非最优选项。客观理智地认识和分析生成式人工智能对人的主体地位的挑战,重新思索人、技术与世界的关系,将ChatGPT等手段回归到人与技术共生共进的演进逻辑中、回归到作为机器存在的客观事态中,作为真正主体的人唯此才能走向人机协同的关系,并在这种关系中与自身达成和解。
古希腊哲学家普罗泰戈拉提出“人是万物的尺度”,彰显了人的主体地位和主观能动性。ChatGPT同各类智能产品一样,是技术迭代的产物,在这个过程中它不断提高理解人的意图的水平,并在做出判断和决策等方面不断升级。按照美国哲学家塞尔(John Searle)关于人工智能的划分,强人工智能意味着被执行的程序本身就是思维的组成部分,计算机程序本身就是大脑(而非心智)。相反,弱人工智能仅是对人脑思维的模拟,不能产生意识。(11)J. R. Searle, “Minds, Brains, and Programs”, Behavioral and Brain Sciences, 3(1980):417—457.从这个意义上看,以ChatGPT为代表的眼下的生成式人工智能,作为由弱人工智能到强人工智能过渡的代表,并不是完全意义上的强人工智能。它出现的目的是为更好实现人自身的价值提供身体解放的工具,它对人类思维的强化和身体的延伸都是有限度的,无法呈现人类意识的整体性。所以,ChatGPT等当前阶段的生成式人工智能还不能替代人的主体地位,它只是通过重复模拟作为主体的人而表现得像人,但本质上它仍旧依附于人,还不是超越人类的独立存在。
ChatGPT作为一种大型的语言对话模型,能够生成多模态的文本形式,意味着可以为人提供多类型的交往方式。从对话形态看,ChatGPT等生成式人工智能通常采用一问一答的形式与用户展开多轮对话,展现出富有层次、通顺连贯的对话能力,大部分答案通过分点阐述并以总结性的话语收尾。同时又以持续对话的形式占有用户对某一议题的全部认知,而使用者在社会交流实践中又不断地参与对话,与多元社会主体共同建构了生成式人工智能话语方式的传播图景。马克思认为,人的全面自由发展应该包括劳动内容和形式的丰富和完整,个人活动相应地充分达到丰富性、完整性和自由性。人们不再屈从于被迫的分工和狭隘的职业,每个人按自己的爱好、特长、天赋自由地选择活动领域。但是,ChatGPT在对人类语言、行为的理解上存在着一定局限性,它只能思考有限的、程序化的事情,却不能思考无限性和整体性,即ChatGPT也和其它生成式人工智能一样无法跳出“哥德尔陷阱”。例如,我们问ChatGPT:“你能辨别句子的真伪吗?”它会回答:“作为语言模型,我可以分析句子的语法和语义,但并不能确定其真伪。”显然,ChatGPT只是在某一方面取代了人脑的功能,但却不具备人脑应有的分析问题、发散问题等功能,不存在时间意义上的“未来”,只有程序化的预定,也不具备反思自身的能力。
意识是人脑的机能,人的意识的产生是基于对客观世界的主观反映,一旦没有客观世界,意识就无从谈起。人脑作为孕育意识的生物场所,拥有860亿个神经元,每个神经元细胞之间都是有着千丝万缕的复杂联系。倘若某个神经元细胞发生突变,人的意识活动可能就会受到影响。从人脑对外部世界的反映来看,人的意识依赖于人脑,并依据主客体和外部世界环境而变化。“人的意识的优势在于开放地接受外界信息,因此人类的理性有着自由空间,当遇到不合规则的问题,则能够灵活处理,或者,如果按照规则不能解决问题,则可以修改规则,甚至发明新规则。”(12)赵汀阳:《人工智能的神话或悲歌》,北京:商务印书馆,2022年,第49页。由此可知,人的意识具有主动、灵活的创造能力。反观ChatGPT之类的生成式人工智能,我们似乎也不质疑它有灵活的创造能力,以至于可以回答我们给出的任何问题,但是对于存在悖论的问题,它就不能像人一样给出仁者见仁、智者见智的多种分析。ChatGPT具有的是由人类赋予的有限的理性,有着高超的运算效率。对于人的意识研究的局限性导致目前我们不能创造出等价于人类意识的模型,这也就意味着ChatGPT不具备意识,它只是机械地执行人的命令,其目的是“为人”,就当下来说,它距离自我意识尚有时日。因此,ChatGPT是人类在时间更迭中拓展自身发展空间的工具,它存在的目的就是助力人类实现自身的价值。 所以,智能时代人的主体地位不应该被智能机器所侵占,迄今人仍是唯一的主体。
马克思关于人的主体地位观,是在黑格尔辩证法的基础上将人看作是社会关系中的人,人与自然、人与社会、人与人通过实践发生着千丝万缕的联系。马克思关于人的“类本质”,“人是一切社会关系的总和”,以及从“人的依赖”到“物的依赖”再到“个人的全面发展”的形态变迁,揭示了人的对象化活动生成人的本质,并且不断超越原本规定性,这也就是人的主体的创造性。可见,人的社会关系以生产活动(实践)为前提,实践是人作为主体存在的基本方式,是意识产生的源泉。从这点不难看出人的主体地位源于其社会属性,这与ChatGPT的自然性也具有很大的不同。ChatGPT由于不能从事人那样的社会实践,所以无法成为真正意义上的实践主体,它的“类主体性”依赖于人的主体性。在这个意义上,目前的生成式人工智能尚无法复制或者是超越人的主体地位。事实上,作为主体的人,我们应当对人工智能发展抱有乐观的态度。未来强人工智能的发展一定程度上还有助于强化人的主体地位,一是人工智能将更加人性化和普及化,未来的人工智能能够更好地理解人类的语言和情感,与人类进行更加自然的交互。二是人工智能将与人类更好地融合,未来的人工智能大概率会帮助人类解决所面临的共同困难,它甚至还可以通过直接成为人类的一部分来融入人,比如通过负载人工智能的芯片植入人脑中来增强人脑智能。三是人工智能的安全性将大大增强,潜在的危害必将不断消弭,这是未来人工智能发展的趋势,也是破解人类主体地位焦虑的主攻方向。当然,未来的强人工智能或超人工智能如果具有了自主意识和反思能力,可以对人类说“不”,就必须引起我们的高度注意,通过技术手段和社会手段来限定这类技术的实际应用。
四、结语
可以肯定的是,包括ChatGPT在内的生成式人工智能,作为人类社会发展的产物,被我们所认可的共同价值应该是推动人的自由全面发展。以ChatGPT为代表的生成式人工智能对人的主体地位的冲击是空前的,但目前还没有对人作为主体的生存方式带来实质性威胁。因为它尚不具备质疑人类社会所制定的规则的能力,尚不能提出任何可以改变人类主体地位的根本性主张,尚不能干涉既定的社会秩序。试想,未来人工智能变成一个“革命者”,有能力对人类说“不”了,会不会想要建立自己“社会”的秩序?当生成式人工智能变成一个“有情人”,有情有欲有价值观,能够决定自己的“想”和“不想”,会不会心生恶念?这些都是我们在推进人工智能技术发展时需要保持警醒的问题,必须提早防范那些会颠覆人作为技术主体的可能变为现实。