生成式人工智能的技术创新与伦理风险
2023-03-05汤书昆
董 媛,汤书昆,2
(1.中国科学技术大学 人文与社会科学学院,安徽 合肥 230026;2.中国科学院科学传播研究中心,安徽 合肥 230026)
2022年末,ChatGPT“横空出世”,因“机”智若人而“惊艳”全球,一举成为现象级的应用。仅仅三个多月之后,ChatGPT创始机构OpenAI又推出了“能够产生更安全、更有用响应”的GPT-4,是迄今为止最强大的人工智能大语言模型。现代技术的特殊性从本质上说就在于它的进化速度[1]25。这一革命性的技术创新迅速掀起了新一波的AI浪潮,谷歌、百度、阿里等各大互联网公司纷纷挤入“赛道”、加入“混战”,相继推出“Bard”“文心一言”“通义千问”等生成式AI产品。微软也宣布将ChatGPT与旗下的Office办公软件、必应(Bing)搜索引擎等所有产品进行全线整合。可以预见,随着AI不断拓展自己的能力边界和应用场景,由数据和算法驱动的人工智能将日益成为人们日常生活中的数字基础设施。
技术的进化必然伴随着人类生存环境的改变,并与人的存在境遇密切相关。在麦克卢汉看来,一切技术都是媒介,一切媒介都是我们自己的外化和延伸[2]。约翰·杜海姆·彼得斯则将媒介(技术)视为人类存在的塑造者和可能性的孕育者,它不断地为人的生存提供新的锚点,人类也因此能够“为其所能为”[3]。事实上,ChatGPT正是以其“无所不能,啥都能干”的“新天选打工人”姿态迅速引爆公众热情,引发人们对于AIGC(人工智能生成内容)的欢呼和遐想。当然,与之相伴的还有诸如“AI来抢饭碗”“生成式AI将把人类带向何方”等狼来了的忧虑与恐慌。
不可否认,技术进步总是同时包含着善与恶,人们预期并获得某些确定的结果,但总有一些预料之外的继发作用[4]132,134。有些副作用引发的灾难甚至会超过这项技术创新所带来的进步本身。海德格尔对现代技术有着更多的忧虑,在他看来,如果把技术当作某种中性的东西,我们就最恶劣地听任技术摆布了[5]5。因此,面对迅速迭代的技术冲击和充满不确定性的未来,我们不仅要关注能用ChatGPT们做些什么,还要警惕ChatGPT们可能会对我们做些什么,既要深刻理解AIGC的技术创新与底层逻辑,还要看到它的技术暗面与潜在风险,并思考如何适应与应对新的技术环境与生存境遇。这也正是本文关切的本质问题所在。
一、ChatGPT的创新特质与底层逻辑
ChatGPT这一技术物问世以来的“生命历程”可谓高光辉煌,推出仅仅两个多月,全球用户就突破1亿,成为史上“吸粉”最快的互联网应用。其扩散速度之快、范围之广和接受度之高,都是史无前例的。20世纪60年代美国学者罗杰斯(E.M.Rogers)在《创新的扩散》中指出,创新扩散的四大要素分别为创新、沟通渠道、时间及社会系统[6]13。以此来分析ChatGPT的扩散效果,不难发现,除去商业宣传、媒体噱头等可能的传播动因,其被公众认为的创新特质以及由此激发的兴奋、恐慌等强烈的情感冲击,无疑汇聚成一股飓风般强劲的扩散动力。号称能够替代人类进行创作、创意的ChatGPT被认为是有望形成“思维革命”的技术创新,将改变人类思考和处理问题的方式方法,并由此重塑各行业生态乃至整个世界[7]。从公众感知的层面来看,相较于过往的AI产品或者智能媒体,ChatGPT的技术创新主要体现在内容生产主体、内容供给方式和人机交互体验这三方面。
(一)内容生产主体从人到机器
随着互联网技术的不断发展,网络用户从信息终端变成了一个个节点,交互作用和参与性得到不同程度的体现。迄今为止,数字化信息生产与传播主要有专业生产内容(PGC)、计算机生产内容(CGC)、用户生产内容(UGC)和专业用户生产内容(PUGC)等几种模式,其内容生产主体分别为专业性机构媒体、算法等辅助性技术、非专业用户和专业用户[8]。从根本上来说,这几种模式的共同特点在于它们的内容生产主体都是人或者以人为主。而ChatGPT的技术核心是生成性AI,其信息生产与传播的模式为人工智能生成内容(AIGC),它的内容生产主体是机器。不可否认,机器占有数据的能力和信息处理的速度都是人所不能比的。因此,从UGC到AIGC,被视为内容生产力的大变革,必将引发内容产业的混战,改变人类知识的生产方式[9]。
(二)内容供给方式从信息呈现到智能涌现
GPT-4拥有亿万级的神经元网络,有着超强的算力和参数规模,可以进行更加复杂的概率组合。加上大语言模型的强化训练,使得它具有更强的语词联想力和场景适应性,生成的内容匹配度相对就比较高,在一定程度上显现出如同蚁群般“由小生大”、整体大于个体累加之和的“智能涌现”现象[10]。在内容供给上,相对于谷歌、百度等传统数字搜索引擎将相关信息源网页一一呈现供人手动遴选的模糊检索,ChatGPT能够以类人脑的方式对搜索到的海量信息进行内容整合、文本分析、观点提炼甚至无中生有等一系列的快速“深加工”,并以自然语言文本形式生成回答,实现按需输出和精准供给,极大地简化用户的心智劳动,从而在很大程度上解决了信息超载这一普遍的“痛点”问题,可以说是越来越“善解人意”。长远来看,这种新的知识调用方式不仅会改变人类的获知与求知模式[11],还将使得人与机器的知识互嵌更为深入。
(三)人机交互体验从主导感到依赖感
ChatGPT以自然语言直接问答的交互方式和响应水平无疑契合了加速时代人们对高效率的迫切需求,也迎合了人与生俱来的便利性感知偏好。然而,任何技术的社会化落地,其实质都是技术逻辑与社会选择“互构”的结果[12]。法国技术哲学家埃吕尔(Jaques El-lul)指出:“在社会中技术的活动越多,人的自主性和主动性就越少。”[13]正如打字机赋予人们自动化书写新能力的同时,也遮蔽了书写和笔迹的本质,使人手丧失了本质地位[14]235-237;无人驾驶技术在解放人们双手的同时,也将人沦为了技术的“看护者”和辅助者。从这个角度来说,ChatGPT在增强人们日常话语实践便利性和轻松度的同时,也在客观上削弱了人类在内容生产与知识创新上的参与权重,使得人的主体地位“屈从”于程序化的技术,进一步地将主体性让渡于技术物,从而加速了人走向“持存物”的进程。就像刘易斯·芒福德所说,人类不再是作为使用工具的动物来主动地发挥作用,而是成为被动的、为机器服务的动物[4]477。
需要强调的是,在罗杰斯“创新的扩散”理论中,一个观点或技术是否属于创新,主要取决于人们主观上认为它是不是新颖的,用户对它的认知决定了创新被采用的速度[6]14,17。ChatGPT的“野蛮”扩散在一定程度上印证了这一判断。结合业内人士和学界专家的观点,稍加分析便可发现,人们对于ChatGPT有着未经实践的跟风“神化”和不切实际的过高期许。其实从技术层面来看,人工智能并非新生事物,ChatGPT大语言模型仍是一个基于训练内容进行概率组合的传统模型,其底层技术逻辑仍然是基于深度学习,数据是燃料,模型是引擎,算力是加速器。虽有全息的训练数据集,亿万级神经元构成的深度神经网络,以及刻画了人类学习机制的自监督学习和提示学习,但到目前为止,ChatGPT仍有着自身的学习瓶颈和认知缺陷。根本原因在于,虽然人类已在一定程度上知道了“我们是怎么知道的”,但我们并没有真正揭开人类认知的奥秘,并没有完全理解人类的思维,尤其是创造性思维,即从0到1的创造方式是目前仍难以解释的。因此,ChatGPT也并没有真正把握“知其然,且知其所以然”的因果关系。总而言之,人所具有的自我意识、反思性及与之密切相关的真正意义上的自主创造性,是当前阶段的人工智能尚不具备的,人工智能的升级奇点并未来到,仍处在从量变到质变的积累过程之中。况且,量变导致质变是一种现象,并不是一条必然规律[15]。因此,ChatGPT并非如人们所想象的几乎能解决所有问题,它仍然只是辅助人的工具,而不是替代人的“神器”。
二、AIGC的应用失范与潜在风险
在可预见的未来,AIGC必将越来越普遍地嵌入人类的日常生产生活场景,并且很可能以其技术逻辑潜移默化地驯化乃至支配着人类,形成新的技术垄断,在赋能生活世界的同时也导致更深的生活世界殖民化,甚至“蚕食”、消解人的自主性及个体差异性。麦克卢汉指出,正因人们对媒介(技术)如何影响潜意识抱温顺接受的态度,才使得媒介(技术)成为囚禁其使用者的无墙的监狱[16]。因此,我们必须意识到对人工智能的盲目乐观和对大语言模型的深度依赖潜藏着诸多问题,如果不加以自律或规制,生成式AI的快速迭代与应用失范或将为人类带来话语生产和意识演化的双重危机。
(一)沦为陈词滥调的话语生产
海德格尔指出,话语在本质上是属于人的一种存在建构,是人的存在的展开状态。而话语有可能变成闲言,即漫无边际的闲聊、八卦和陈词滥调、老生常谈。那么,话语是如何变成闲言的呢?在海德格尔看来,日常话语遵循着“因为有人说是这样,所以事情就是这样”的逻辑,某些话只要有人曾经说过,只要是名言警句,都可以为话语的真实性和合乎事理担保。那些来源于囫囵吞枣的阅读和日常生活中道听途说的话语便以这样“人云亦云”的方式传达自身,或者通过人们笔墨之下的“陈词滥调”扩散出去。如此一来,原本立足点可能就不太稳的话语经过一道道“鹦鹉学舌”的中转,最终很可能会面目全非、根基全无。话语就这样变成了闲言,而闲言原本就是一种封闭,它使得一切新的诘问和一切分析工作都被束之高阁[17]237-238。循着海德格尔的思路加以分析,我们不难发现,当下智能传播技术的可供性,使得不假思索的“一键复制”“一键转发”等不求甚解的“拿来主义”越来越便捷,越来越普遍,也使得话语更加容易变成陈词滥调的闲言。于是,我们的日常话语实践也相应地日益成为搜索、复制的“拼贴术”和通过差异调制来掩盖抄袭的“化妆术”,甚至连部分学术话语创新也在一定程度上沦为基于反检测考量的查重、降重文字游戏。
可以推测,随着AIGC的快速发展和广泛应用,出于对高效率的无度追求和自身惰性的过度放任,人们在知识调用和内容输出时很可能会对生成式AI产生越来越深的依赖,从而在不知不觉中被驯化成知识的“搬运工”和机器的“传声筒”,并通过人与AI话语的互构循环,进一步加剧陈词滥调的生产和话语创新的匮乏。正如雅克·埃吕尔所说,所有的技术进步都有代价,比如它在客观上限制了真正文化传承与生成的一些必要条件,即消化吸收所要求的反思和时机。知识分子不再有时间对一本书进行沉思了,更多是快速浏览的浅尝辄止和支离破碎的断章取义。在强大的人工智能加持下,我们的确在见证知识的创造,但它只不过是纯粹量上的肤浅的变化[4]128-129。实践表明,当前阶段的AI并无真正意义上的自主心智和自我意识,只是在算法的驱动下进行指令执行,提供基于数据流和语义关系的答案,难以提出有实质创造性的新观点。或许我们可将AIGC想象成公共资料库和共享大脑 ,有着相同的资源储备和生产模式,它必将在一定程度上消除个体间知识素材、加工与生成的差异性,进而使人们的话语生产陷入某种“千篇一律”。比如ChatGPT是在预训练的阶段进行监督学习,模拟人脑逐层抽象的模式,从训练数据集的大量原始文本中提取共性的意义结构和文字之间的概率关联,再结合人类反馈强化学习,学会使用自然语言与人类聊天的“套路”,在对话中生成类人化的响应文本。笔者亲测发现,ChatGPT能够基于单次会话语境做出一定的情境理解,也能够基于不同的用户“画像”对同一问题给出不尽相同的回答,可以说已初步具有“举一反三”的强化学习能力。然而,其技术逻辑决定了它的响应仍只是一种基于程序的数据处理。也就是说,虽然它回答问题是类人化的,但其类人的水平还很有限。具有完美能力的图灵机恐怕也回答不了超出程序能力的“怪问题”[15]。那些只可意会不可言传的理解,那些灵机一动的智慧闪现,目前人工智能还做不到,而创新却往往产生于那些沉思之后的灵光乍现。就此而言,目前人工智能与人类的差别仍是从0到1的“银河系”。
此外,我们还必须关注的是,人工智能生成内容首要的、决定性的起点是数据,而包罗万象、良莠不齐的互联网信息是ChatGPT类AI训练数据集的重要来源,有相当一部分为UGC(用户生产内容),即便有人工智能训练师的把关,也难以避免“幸存者偏差”。因此,当下算法偏见依然是人工智能的“阿喀琉斯之踵”。见识决定认知,训练数据的质量水平和偏差不仅会助长陈词滥调的循环传播,还可能造成“振振有词地胡说八道”等以讹传讹的智能行为偏差。事实上也的确如此,诸如ChatGPT和“文心一言”等一本正经地讲述“林黛玉倒拔垂杨柳”、生成各种“奇葩”图片等人工“智障”表现便遭到了人们的“群嘲”,甚至在社交媒体上掀起了一阵话语狂欢。业界和学界普遍认为,尽管GPT-4回答的准确性大幅提高,但可靠性依然是ChatGPT类大语言模型的一大瓶颈,也是它们有用性的最大障碍。至于未来有可能出现的具有自主意识的强人工智能乃至超级人工智能,我们可以拭目以待,却不能只是静观其变。总之,把自己的思想搁在一边,随时随地去打开一个APP,那是对自我的遗忘。不管技术如何变迁,只有当我们能够挣脱陈词滥调、以讹传讹的话语漩涡,富于洞见的思想和智慧才能够自由流淌、绽放光芒。
(二)囿于“时间客体”的意识演化
首先,对AIGC的过度依赖将加剧个体意识的趋同化。斯蒂格勒在《技术与时间》中指出,当某一客体的时间流与以该客体为对象的意识流相互重合,该客体即为“时间客体”。程序工业(即文化工业),尤其是广播电视信息传媒工业,大量地生产着音乐旋律、电视节目等时间客体,它们的共同特征在于被无数个“意识”同时收听或收看。在智能传播时代,各种移动终端触手可及,人们更是被算法瞄准,落入“用户归档”的渔网之中,几乎完全被画像、被预测和被掌控。于是,越来越多的人似乎难以避免地沉溺于信息“巨流”之中,在各类“屏幕”和短视频、电影、网络游戏、直播等新型时间客体上消磨的时间越来越多,诸多意识的时间流共时化特征也随之愈加明显。然而,人的意识从本质上来说本应是历时性和个性化的,它应当是自由的、特别的,是必然属于个体自己的[18]1-5。按照麦克卢汉对热媒介和冷媒介所作的区分与界定,相对于阅读书籍,短视频、电影等显然属于“高清晰度”、要求参与度低的热媒介。而ChatGPT类的AIGC因其“直给”的内容提供方式和即时响应模式,同样也应归于要求接受者完成信息少的热媒介[19]37。因此,当人们却越来越惯于将自己的意识附着在各种时间客体,附着在自己现实生活之外的一段段流动的时间上,实际上是在任由他者操纵着自己的视觉、听觉神经和时间意识,从而将自己变成没有视野的独眼怪物。与此同时,人们也越来越在沉溺于“他者的时间”中忘记了自我,或许还遗失了自我(遗失了自我的时间以及个性)[18]11。在约翰·密尔看来,个性是人类福祉的因素之一。早在十九世纪五六十年代,他便注意到了现代商业社会所带来的平庸化与趋同化倾向,人们读着、听着、看着相同的东西,去相同的地方,以致不易看出个性如何还能保住其根据[20]。可以想象,在社会日益加速和时间普遍匮乏的语境之下,随着ChatGPT逐渐向移动端渗透,AIGC将越来越深刻地嵌入日常话语实践,这种沉溺于“时间客体”的现象将更为严重,珍视自我个性的意识也必然会随之渐渐弱化,我们自身中一切个人性的东西将愈发被磨成一律。
其次,过度依赖AIGC或将造成人脑思考功能的惰化甚至退化。众所周知,为了完成某项工作,人类通常会通过资料查找、数据学习进行强化训练。如今,这些数据集也被用于训练AI。把AIGC集成到office之类的常用办公产品中,人们便如同拥有了一位个人数字助理(微软将此描述为副驾驶)。于是,一个更加高效、轻松的工作状态便自然而然地成为我们的想象和期许。其实日常生活中早已司空见惯的是,“众里寻他千百度”的思考求索简化为“百度一下”,动动脑筋变为动动手指、动动嘴巴。我们就这样渐渐习惯于将大脑的思考能力让渡给各种技术工具,将其作为知识获取和解决问题的重要甚至首要途径。斯蒂格勒将人类对技术这种“身外之物”的依赖称为“代具性”。在他看来,由于爱比米修斯的过失,人是一种固有的“缺陷存在”“力不若牛,走不若马”,必须依赖代具而生存[1]311。然而,包括AIGC在内的各种代具都不只是会带来便利和节省脑力,还可能会蚕食人们的思考能力,浑然不觉地接管我们选择的权利。任何一种新的技术,都要引进一种新的尺度,能够不可抗拒地改变人的感官比率和感知模式。比如唱机就是一种使国民胸腔缩小的玩具[19]17,30,335。卢梭甚至视技术为人类背离自身本性的根源。面对ChatGPT的冲击,来自纽约大学等高校的教授及诸多学者们纷纷警告:“AI会让学生大脑萎缩,要像躲避瘟神一样躲开ChatGPT!”实际上,脑科学研究也表明,构成我们思想的物理和物质条件的人脑永远是个“半成品”,一直处在被塑造和建构的过程之中。与人工智能的深度学习一样,我们的大脑也同样遵循着“用进废退”的规律。如海德格尔所言,在沉思中,一个贯穿我们当下所作所为的空间才得以开启自身。当我们全神贯注于不可穷尽的值得追问之物,不懈地追问与求索,这凝思式的逗留过程之中便蕴含着无数的“遇见”,每一次“相遇”都可能碰撞出智慧的火花。沉思的道路总是不断变化,从各不相同的位置出发,并相应地有着各自的响应与抵达[5]69-71。
最后,过度依赖AIGC将促使人类的记忆进一步外化。技术的发展推动着各有记忆可供性的媒介不断出现。书写曾经充当了通用的存储媒介,后来我们将数据流刻录到唱片和胶片上,隐没于黑盒子之中,转换为数字技术和人工智能的代码指令。人类的记忆形态就这样随着技术的发展从具身的“生物记忆”和“内部记忆”越来越外化[21]1,也越来越疏离于我们自己。基特勒不无悲伤地断言:当我们拥有了留声机、电影等可以记载并复制声音和光学数据中时间流的存储技术,人类的记忆能力就一定会退化。它的“解放”即它的完结[14]11。诸如照片、视频、唱片、电影胶片、书籍等能够将我们的第一记忆(感知)和第二记忆(回忆)记录并留存下来的数据存储介质或技术物都是斯蒂格勒所谓的“第三持留”(或第三记忆)[18]20。这些技术性的“第三持留”在一定程度上保证了我们记忆的持久性甚至永恒性。从表面上来看,记忆的外化有效转移了个体的记忆负担,释放了人脑的内存空间,是人类在记忆术加持下对“健忘”这一先天性缺憾的弥补与对抗。但实际上,记忆是个体经验不断被冲刷、过滤、内化和沉淀的身体性盈余,是主体自我建构的重要环节。基于此,可以说当下无处不在的“云存储”记忆外化技术和AIGC意识代具,在接替人脑记忆角色的同时,也不可避免地将其记忆功能逐渐简化乃至退化。此外,记忆的永恒性也同时意味着遗忘之不可能性,而遗忘的终结又何尝不是记忆的价值消解?在某种意义上,生命中的遗忘和被他人遗忘是自由的同义词,我们都是这样经历着、铭记着、遗忘着、前行着。对个体而言,永不消逝和无法抹去的记忆或许是生命中不可承受之重,它让我们失去了必要时挥别过往的洒脱和自由,从而束缚着我们当下及未来的自我想象与主体建构[21]133。
三、AI时代的主体性危机与人机关系
人的主体性是人工智能时代一个关键议题,主要担忧在于对AI和自主智能系统的高度依赖是否会从根本上削弱人在认知和决策上的主导地位[22]。的确,与沦为“陈词滥调”的话语生产和囿于“时间客体”的意识演化风险相勾连,我们还应当对人工智能可能引发的危机有着更深的远虑,对AIGC应用失范可能造成人主体性的逐渐消解保持着高度的关注与警惕。换言之,我们在话语、注意力、思考和记忆等方面对技术的依赖性增长可能会造成自我个性化的丧失,使得人的属性渐渐被技术属性所淹没,从而使得“我”失去了“人之为人”的本质丰富性,成为一个“近乎不存在”的空泛概念。如汉娜·阿伦特所说,如果知识与思想已然分道扬镳,我们也就变成了机器的奴隶,变成了无思想的生物[23]。在海德格尔看来,现代技术的本质是“座架”,人及世间万物都按照“座架”规定的解敝方式解蔽自身。人虽然是技术的使用者,但从根本上来看却是技术赋予使命的执行者[5]22。技术的置造,让世界井然有序而又千篇一律。被抛于世的此在与其他存在者的共处同在消除了人们彼此之间的差别和特色,此在成为差不多的“常人”,并在“常人”的宰制下“沉沦”于世,随大流地过着差不多的生活,“常人”对文学艺术怎样阅读怎样判断,我们就怎样阅读怎样判断[17]180。斯蒂格勒也指出,一味地沉入技术世界是一种灵魂的沉沦,而沉沦是一种遗忘。他甚至悲观地认为,在当今的技术时代,技术的力量具有毁灭整个人类的危险[1]95,104。真若如此,作为技术发明者的人,实际上便有了自我毁灭的力量。由此,我们可以看出不同时空的人们面对技术僭越时共同的身份焦虑,以及个体价值被消解的“存在之痛”和意义危机。在吉登斯看来,“个人之无意义感”正是晚期现代性导致的基本心理问题[24]。
在数字分身、数字永生等概念层出不穷的当下,人工智能带来的冲击无疑倒逼着我们去反思和追问人之为人的规定性,也就是去寻求那个贯穿并且支配着每一个人之为人的东西。其实,这一终极追问始终伴随着人类。柏拉图将人视为没有羽毛两足直立的动物。《荀子·非相》曰:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”《荀子·王制》云:“力不若牛,走不若马,而牛马为用,何也?曰:人能群,彼不能群也。”马克思在《关于费尔巴哈的提纲》中指出,人的本质在其现实性上,是一切社会关系的总和。在法国哲学家帕斯卡尔看来,“人只不过是一根苇草,是自然界最脆弱的东西,但他是一根能思想的苇草。”[25]著名的图灵测试,在对机器与人的区别上,关注的主要是语言和理性两个方面[26]。稍加分析便可发现,在古今中外这些关于人之为人的众说纷纭中,人们更为关注的是人的社会属性,尤其是语言和思想之于人的重要性。福柯认为人与世界的关系实质上是一种话语关系,话语和权力不可分离。事实上,当前人们对于AIGC的担忧便恰恰在于它已然“侵入”了人类的语言和思想领域,从而切中了人类主体性的要害。
意大利学者保罗·贝南蒂(Paolo Benanti)指出,语言归根结底是一种交流技术。有了它,人就能“发明”自己,把自己想象和创造的结果传播开来[27]。《圣经》中巴别塔的故事,正是语言之于人类存在重要性的生动注脚。在海德格尔看来,语言是存在的家园,它是人存在的揭示、澄明与到达[28],是思想的载体和驱动器,所有思想道路都以某种非同寻常的方式贯穿于语言之中[5]5。实际上,语言不仅是人际交流不可或缺的中介,也是我们一切心理活动的载运工具。比如在深度思考的状态下,个体的内在意识自由流淌,旧认知与新信息充分碰撞、交融,当下体验与过往记忆自由穿梭、勾连,原有的固化体系被悄无声息、了无痕迹地解构与重构,日常生活中的困惑与烦恼得以化解或抛却。就此而言,沉思甚或遐思是人与自我的无声交流与深层对话,也是个体认知的梳理和思想的升华,它就像一种液态黏合剂,作用于人类有机体的自我动态整合与情绪自洽,从而让人的自我意识和主体性得以不断增强,真正有别于被数据和算法操控的纯然理性的硅基生物。
当下的问题在于,技术的僭越让我们的语言、思维和行动模式都日益陷入某种程度上的机械化,以至于人之为人的本质规定性面临强劲的挑战。虽然目前还处于弱人工智能阶段,但随着各大巨头卷入“混战”,强人工智能时代或许就在不远的未来,甚至超级人工智能也并非不可能。届时,刘易斯·芒福德的担忧或将变成现实:机器体系趋向规律性和完全的自动化,最终隔断了机器与人类联系的脐带,使它变成了一种绝对[29]265。换言之,对于当下大量存在的意识代具化和技术垄断,如果人类再不有意识地加以克制与规制,我们不但面临意识演化的风险,最终人的意识恐将皈依于机器之心,进而产生新的意义上的“人之死”。就此而言,ChatGPT所预示的通用人工智能(AGI)就不再仅仅是由大语言模型所打造的新工具,而且预示着一种统摄一切的新存在,或者说开启了通向新存在的大门[30]。当然,这种“新存在”并非必然意味着更好的存在,它促使我们去思考人类该如何看待不断涌现、加速迭代的人工智能数码物和技术物的存在,并选择该以怎样的姿态与它们共生共处。
技术与人类相伴而生,异常古老,正是技术标识了漫长的人类史前时期,如新石器时代、旧石器时代等[4]2。若从人类中心主义的观念出发,人是机器的完全尺度,人和技术之间是控制与被控制的二元对立关系[31]。然而,面对“几乎什么都能做”的人工智能,人类正逐渐丧失原有的控制力,到处蔓延着被僭越和被替代的焦虑。同时,以人工智能和生物技术为核心的现代技术,正在加速推动人类身体和精神的双重技术化[32]。栖居于技术理性甚嚣尘上、自然人类文明及其精神表达系统逐渐式微的人类世界,我们必须以一种“to be or not to be”的反思姿态去直面数字生命的存在,去构建新生态下的人机关系。实际上,人造技术物不只是人类征服自然的工具,也是人类经验与存在的积极建构者和非人类行动者。从“谷登堡人”到“机器新娘”“图灵人”,从“沙发土豆”到“手机人”“网络茧儿”,在这一系列称谓的比方和隐喻里,我们可以窥见人与技术的纠葛和博弈由来已久,二者可谓是互为镜鉴、共同演进。当下,人与智能机器正日益互嵌互构成为共生体,“人机共生”乃至“人机一体”成为未来趋势。因此,我们应当打破非此即彼的替代思维,建立起人与技术协作进化、相得益彰的共生思维。OpenAI近期将公司主页标语从“形塑未来的技术”改成“创造造福全人类的安全人工智能”(Creating safe artificial intelligence that benefits all of humanity)便充分体现了这样一种科技向善的自觉意识和实践作为。
四、结语
以ChatGPT为代表的AIGC在内容生产和供给方式上的技术特质高度契合着日常生活不断加速语境下人们对于效率的崇尚与追求,因而一经问世便迅速受到人们的“热捧”。然而,如果不对AIGC的狂飙式扩散和应用加以密切关注与必要的规制,毫无顾忌地任由人工智能“篡权”、宰制,我们或将面临话语、意识和存在等多重危机,甚至最终失去人之为人的根基。然而,必须强调的是,我们对于技术的批判从来不是为了逃避或抛弃,而恰恰是一种对自身存在境遇的直面和沉思,这种沉思也是一种追问,其实任何的追问都是为了寻求,寻求一种人与技术的自由关系。换言之,沉思乃是对于值得追问的东西的泰然任之[5]69。因此,我们应当顺应日常生活深度媒介化的客观现实与“人机协作”“人机一体”的未来趋势,抛却二元对立的替代思维,秉承和合共生的理念,泰然自若地看待生成式人工智能既可赋能又有负能的一体两面,提升数字素养,高扬人文精神,共同致力于科技向善,合力构筑美好数字生活新图景。
人类一直生活在人造物与自然物混杂的、不断变化着的环境之中。纵观人类技术发展史,每一次技术的变革或崛起都会带来不同程度的焦虑、恐慌甚至抵抗。柏拉图曾焦虑于文字即将替代口语,“你发明的文字使习字人的心灵患上健忘症,因为他们不再使用自己的记忆;他们会相信外在的文字,记不得自己。”[33]《庄子·天地篇》中记述了一位老农拒用新的取水装置“桔槔”,而坚持“凿隧而入井,抱瓮而出灌”的寓言故事。麦克卢汉指出“电力技术问世初期产生的结果是焦虑”[19]44。基特勒则向我们展示了被作家们用文字记录下的对留声机、电影和打字机的恐慌情绪,这些都成了现代的我们对未来充满恐慌的真实写照[14]2。新近来袭的ChatGPT类AIGC也不例外,它给人们带来了被“解救”的欢喜,也激发了被取代的恐惧。长远来看,快速迭代的AIGC必然对人类的生活场域与生存境遇产生更加具有颠覆性的影响。在一次又一次的技术变革和冲击下,我们仿佛成了技术焦虑循环中的西西弗斯。或许,我们可以听取刘易斯·芒福德的建议,不必在面对机器体系时如此懦弱,也不必以无用和可悲的方法去逃避机器体系,毕竟机器体系的规律是人发现的,机器体系的实体是人创造的,机器体系的节奏是人根据生活中的管理技艺而预订的[29]279。总之,面对ChatGPT这类更高效、更便捷的技术形态,既不无度放任人工智能的失范应用,也不让过度的忧虑遮蔽了它们所携带的诸多可能性。未来,人工智能是否会具有自主意识与自由意志,这是一个有待验证或见证的问题。可以肯定的是,人类在既往的各种不确定性面前都表现出了“行到水穷处,坐看云起时”的乐观与旷达。