APP下载

ChatGPT的信息技术社会后果及其伦理规制

2023-05-15唐魁玉黄思奇

关键词:人机后果伦理

唐魁玉,黄思奇

(哈尔滨工业大学 人文社科与法学学院,黑龙江 哈尔滨 150001)

一个技术社会事实是,每当技术的发展促使科学家发明出一种全新的“人工物”时,其应用或传播便会给人类的生存方式带来全新的变化并向人类提出新的挑战,其技术社会后果也会迅速成为人们关注和讨论的话题。最近一段时间在国内外“爆火”的被视为 “革命性的聊天机器人”的ChatGPT就是这样一种“魔幻性”的存在。依据某些人工智能学者的观点,当我们谈论ChatGPT时,很大程度上是将其视为一种人工智能生成物和“人形机器人”来看的。换句话说,它是一种“人工智能的主体想象”的果实[1]。我们意识到,随着机器人在单向度时间内的加速增能,其在算力上将越来越逼近乃至超越人的智力水平。

尽管已有一些来自人工智能、传播学、管理学、法学、哲学等领域的学者和实业家对ChatGPT现象做出了自己的探索,但经验告诉我们,还必须跟踪这个新事物的迭代演进过程,不断尝试进行新的视角的探索。本文试图从哲学伦理学的视角出发来深入剖析ChatGPT的信息技术社会后果,在此基础上对其未来伦理规制加以设定或文化阐释,并从后果主义的观点入手,论述在人工智能技术背景下重建网络美好生活体系的意义及途径。

一、ChatGPT的信息技术社会后果分析

(一)ChatGPT作为一种信息技术的“迭代品”

ChatGPT作为一种信息技术或智能技术“迭代品”出现,绝非毫无预兆。早在若干年前就悄然兴起的各种推荐算法技术,为社交机器人和语音助手的出现奠定了基础。ChatGPT的出现与其说是一个信息技术“迭代品”面世的标志性事件,不如说是因人机对话智能技术的长足进步而实现的AI革命。正如彭兰所说:“任何新技术的出现,无论其生命周期的长短,都有着历史的逻辑,反映着技术演变的某些规律。”[2]ChatGPT存在诸多不确定性因素,它的兴起必将造成或明或暗的社会后果。

我们必须清楚地认识这一以人机关系为基础的智能交互图景,更好地把握ChatGPT所引发的信息技术迭代-演进规律,从而真正理解由ChatGPT所重构的智能社会生存的本质,以及伦理关系演变之后的核心社会后果。从美国OpenAI公司推出的令人颇感恐惧的聊天机器人ChatGPT4所表现出的冲击力及引发的争议来看,我们既需要对其进行纯粹理性的批判,又需要对其加以实践理性的思考。作为一种具有“强大信息整合能力、自然语言处理能力和多模态交互能力的智能工具”[3],ChatGPT深度融入人类日常生活是必然趋势。依据美国科学院院士、人工智能专家朱迪亚·珀尔在《因果论:模型、推理和推断》一书中的观点,只要时间信息符合从一点到另一点中展示的条件独立的情形,便可以推断两个事件间存在真实因果关系[4]60。当然,如果排除了两个事件之间的直接因果影响,存在虚假关联是其相关的唯一解释。这就意味着,ChatGPT模型本质上只是一种可以提供因果关系或虚假关联的“算法”,其作为一种全新迭代技术是存在因果关系或后果分析可能性的。

(二)数智时代ChatGPT造成的两种信息技术社会后果

1.数智时代的精神气象与生存状态

如果我们不反对将ChatGPT视为一个人工智能聊天机器人的话,那么,我们大概也不会否认它的确为当代人提供了一种全新的、更人性化的信息获取体验及前卫的应用场景。作为一个超级智能语音助手,它大大地促进了人机良性互动,提高了人们获取信息的便捷性。虽然ChatGPT在完成生成文本、回答问题和对话等复杂任务时有着上佳表现,但其能力毕竟是有限的,绝非一个无所不能的人工智能超级模型[5]19。随着ChatGPT智能技术的无上限提升,它将或早或迟或大或小改变人类的生活方式,甚至影响人类的精神气质和与生存状态。ChatGPT介入虚拟现实环境中,使得人机互动成为时空社会构造的一种新形式。未来ChatGPT及其智能机器会广泛渗透到人们的各种生活场景中,与人进行多维度的或开放或隐秘的日常生活交流[6]。毫不夸张地说,数字智能技术不仅重构了社会生活的基本样貌,还将引发根本性的社会变革。赵一璋和王明钰指出:“算法作为数字社会运行的重要基础之一,具有非中立性。算法权威的存在使人类生活在不同程度上受到算法程序的影响。”[7]ChatGPT作为一种语料丰富的人工智能模型,虽然目前还无法全面理解人类意图和完全模拟人类思维,但已经对人类社会心理、生活方式和句法结构选择造成了潜在的影响。具体来说,在ChatGPT特定的算法逻辑下,某些信息将优先被机器所选择或过滤掉。正如人工智能领域的著名学者大卫·查默斯所说:“如果我们身处模拟环境,那么,确实有一些事物与其表象不一致。我们所相信的某些事物可能是错误的。”[8]136当我们把ChatGPT及其模拟环境中的机器算法行为(如对话、文本生成行为)都视为理所当然或疑窦丛生的时候,它所引发的两种不同的技术社会后果便会显露出来。

2.ChatGPT造成的两种信息技术社会后果

从二元后果论的角度来看,人们对任何新技术都会表现出乐观和悲观两种技术社会效应的评价倾向,对ChatGPT亦如此。在此,笔者将这种信息技术社会后果归为正面或强后果和负面或弱或有限后果两种,并加以简要分析。

一方面, ChatGPT会给信息技术社会带来正向或积极后果。这里所谓的“后果”,与“效应” “效果”的语意相类似。在特定后果主义视野下分析技术-社会(包括生活方式与社会结构)变化[9],从积极的意义来看,ChatGPT既有益,又便利;既可以帮助人们获得信息、灵感,又有助于创业、创作、语音交流和办公;既可以“刨根问底”,又可以出奇制胜。ChatGPT的技术优越性极高,将对人类语法的“句子生成结构”和“转换结构”造成极大的影响[10]36。从此,“语言是一个训练与习惯的问题”的经典语言学观念[11]34,将因机器人语音工具的巨量信息及算法的介入而改变。

另一方面, ChatGPT会给信息技术社会带来负面或消极后果。与前者相比,无论是从知觉现象学还是事件哲学(事实哲学)的角度看,对ChatGPT持悲观、忧虑等负面消极立场的人都似乎要多得多。早在2014年,物理学大师霍金就警告人工智能可能终结人类[12]。包括当今最有影响力的技术实业家之一埃隆·马斯克在内的许多学者都认为,生成式AI存在不可控的问题,难以保证数据质量。更有甚者认为,ChatGPT若不断更新,将加深人类与机器之间的信息鸿沟并加剧人机冲突,甚至会导致人类被机器所异化和控制,使人类科学技术脱离“向善的进步”的历史[13]335。康德在《判断力批判》中指出:“一个世界之存在亦即创造本身的终极目的,是这样一种目的,它不需要任何别的东西作为它的可能性的条件。”[14]250在人本主义者康德那里,人类为了实现自己的终极目的,必须在知性中追问客观的根据。由此可知,如果我们想充分追求客观性和符合人类终极目的结果,就必须沿着实践理性的道路去审视ChatGPT的信息伦理学的中心视点或关键因素,从而更好地把握这项技术社会后果的本质特征。

二、ChatGPT信息技术应用过程中的伦理规制

(一)ChatGPT的信息技术伦理及其对人机关系的影响

在不确定的虚拟现实环境中,ChatGPT作为一种智能化的信息技术,在应用、传播、交流过程中,必须不断地根据所遇到的具体情况来改变行为准则,做出符合理性的、道德的选择。为了更好地实现ChatGPT的生产者、使用者(用户)和消费者间的和谐互动,应尽最大可能地进行人与人、人与机器之间的合理互动,我们不妨将这种ChatGPT智能-信息技术应用过程中的实践理性运行规范称为信息技术伦理。它不仅包含在算法技术的伦理性或道德性中,还体现在ChatGPT的人机交互理性行动中。国家新一代人工智能治理委员会于2021年9月25日发布的《新一代人工智能伦理规范》中提出了6条基本伦理要求,即增进人类福祉、促进公平正义、保护隐私安全、确保可控可信、强化责任担当和提升伦理素质[15],这是我们探讨ChatGPT信息技术伦理规制的社会共识基础。

应该说明的是,ChatGPT信息技术伦理中所蕴含的诚信、公正的道德责任和义务,就其伦理学本质而言,与其他技术的伦理关系特质是相近的。所不同的是,ChatGPT的信息技术伦理是反映在具体的、特定的人-机(工具)环境及技术演变过程中的。它既需要个体进行自我约束,又需要个体发挥社会责任和展现“德性”。这里所谓“德性”,主要是指人的“诚实”“公正”“勇敢”“宽容”“信任”等行为品格。英国伦理学大师西季威克在《伦理学方法》一书中写道:“由于我们把德性看作这样一种特质,我们普遍认为它是一种值得其自身的缘故而追求的东西,并且实际上是一些人视为唯一终极目标的人类的完善的一部分。”[16]217用一句话来说,就是当用户使用ChatGPT(机器)时,应遵循应然道德原则。

接下来我们谈谈ChatGPT信息技术伦理对人机关系的影响问题。人机关系在特定的ChatGPT情境下是如何形成某种技术伦理的?其中包含着哪些交互关系?追溯得远一点,假如我们将科学技术视为一种自然哲学的范畴的话,那么技术理性或技术伦理就是有时间性的。英国哲学家、考古学家柯林武德曾经说过:“在黑格尔看来,时间和空间是自然界的绝对基础和首要的东西。”[17]59因此,近现代自然哲学所提出和探讨的技术哲学中的伦理问题在时空维度上是非常重要的。进一步说,当代信息技术或智能技术所具有的伦理观念及其规范机制中一定少不了时空因素的作用。美国伦理学史家布尔克在论述康德哲学时指出:“康德把人的认知功能分成三块:感性,是人在空间和时间等主观形式上对感觉资料的认知;知性,是对感觉资料的综合功能,以便能够以人类知识范畴的角度来分析它们;理性的功能,超越经验条件并自发地把理解中的事物放置于某些关系中,并形成某些更高的原理。正是通过理性,才把我们对客观事物的知识加以系统化。”[18]213如此说来,ChatGPT作为一种已进入我们的感性和知性范畴内,且为我们想象力所及的技术“构造物”,事实上已成为我们实践理性或伦理分析的对象。换言之,它已不可避免地成了人本主义伦理学、功利主义伦理学、存在主义伦理学和分析主义伦理学等的考量对象。前文所提到的两种信息技术伦理后果的归类分析,便是典型例证。简单地说,ChatGPT的信息技术伦理和人机关系都是建立在特定的时空关系中的。

必须指出的是,我们在理解和认识ChatGPT的信息技术伦理及其人机关系的本质时,应本着“以人为本”和“人-机和谐”的社会伦理原则,切不可过度坚持技术决定论和主观主义、形式主义。只有将这一伦理关系问题置于“本质世界”和“实践理性”的平台上,才能更好地审视ChatGPT现象。依据“人的一切活动最终都是为了人自身的完善和完成的原则”[19]325,我们应处理好人与自然、人与机器的关系,将人与自然及与机器的关系引向“审美和谐”“道德生成”的方向。将ChatGPT的生活景观看成是一个“应然”和“可能”的世界,并扬长避短,是数智时代人机融合的理想型格局[20]。

(二)道德约束下ChatGPT用户主体的伦理规范

在人类的生产(工作)、生活实践活动中,建立任何伦理规制,都必须在受到某种道德约束的前提下通过确立适当而又充满良知精神的伦理规范来进行。我们且不说康德的人本主义伦理学的要义是追求最完满的“至善”,即便是拉康的精神分析伦理学也倾向于围绕着“为善服务”而运作,他将这一点解释为一种“善言”的伦理义务[21]58。只有强调“德性”和“善言”的伦理行动,才具有本体论的意义。下面,我们将按照ChatGPT的工作服务流程和用户主体的实践行动(如生活、游戏、办公等)的主要内容,来尝试对其进行未来伦理规范的归纳及分析。

何谓ChatGPT用户的伦理规范?它是ChatGPT作为聊天机器人或智能搜索工具在实现诸如即时交互、智能语义分析、智能问答、文本生成等功能过程中所形成的相应伦理规范,也是人们在日常生活、工作和游戏中使用ChatGPT时应遵循的行为规范。ChatGPT的用户主体已潜在地实施了种种不规范、不和谐行为,而这些失范的伦理行为正成为影响ChatGPT使用和发展的内在德性障碍。依据以人为本、公正客观、交互行动、和合共融、善待他者、克己修德等传统与现代规范性伦理原则,再结合对ChatGPT生存现象的知觉和理性分析,我们尝试提出如下几种ChatGPT的伦理规范:

1.为人服务的伦理规范,旨在增进人类福祉。在看待人机关系问题时,应坚持以人为本的原则。机器是人造的,必须为人服务,维护人的尊严和人权。发明和使用ChatGPT 的主体是人,而不是机器或机器人。从康德的人本思想到马克思的实践唯物主义,都将对自然和世界之本的追寻置于实践理性及人的生活实践中。马克思曾说过,自然是人化的自然,“被抽象地理解的、自为的、被确定为与人分割开来的自然界,对人来说也是无”[22]335。智能技术再先进,其本质仍是“人化自然”和“人化世界”的人类社会生活、生产。人是在利用ChatGPT为自己工作,只有遵循以人为本、为人服务的工作伦理原则,才能实现正当与善的道德责任使命。伦理原则的实现还需要人类充分发挥主体精神、自主意识和理性批判能力,把握智能算法的复杂性和动态性规律,进而提高解析海量数据的效率及生成相关决策的质量[23]134,并借助ChatGPT将虚拟现实世界的个体合理合规地“联结”起来。因此,只要人类的主体性不丧失,就无须对ChatGPT及其迭代进化感到过度恐慌。

2.公正客观的伦理规范。公正是一切社会契约和社会行动的伦理基础,也是判断主体是否具有尊严和理性能力的标准。它与客观性相结合,就可能降低道德失范的风险。若能在使用ChatGPT服务功能的过程中做到客观公正地处理数据、创生文本,就可以在“知情同意”的前提下避免一些剽窃和侵犯个人隐私等行为的出现,将虚假信息和错误的语义剔除掉,进而纯洁地“生成我们的世界”[24]329。这不仅可以理性地建构一个“生成世界”,还可以促使人类主体在一种极为真实的伦理意义上帮助人们生活。

3.交互作用的伦理规范。这不仅涵盖人-人、人-机关系的可控可信,还包括机-机(即物-物)的和谐共处。作为智能信息技术工具载体的ChatGPT,是依赖虚拟实在空间中各主客体因素(包括人与人、人与物、物与物等关系要素)之间的互动关系而进行的。从信息伦理学的视角看,这样的互动是人工或综合的,因为该互动可以借由功能不断增强的技术的介入而被实际地构造出来[25]54。算法模型的失误和伦理关系问题的出现,极有可能影响即时交互(即聊天机器人与用户之间进行的交互)的效果,因此,“交互伦理”(或“互动伦理”)和“互动本体论”问题就会显现出来,从而使ChatGPT场域“不仅意味着一切的‘是/存在’皆是开放、可变化,而且意味着‘互动/相互作用’本体论地先于‘是/存在’存在”[26]365。人机(物)关系及其相伴而生的“物-物”链的关系,将成为蕴涵着诸多可能性的相互作用的新世界。在ChatGPT这个新的计算机装置物的生活世界中,因机器突然遭遇“他心”(心灵)而产生的人机互动时代的社会认知问题(也包括道德认知问题)变得更具不确定性和复杂性[27]。

4.和合共生的伦理规范。如果把ChatGPT看作一个虚拟现实小世界的平台或载体的话,那么,其内部应是一个和谐、融洽的组织。该组织的服务系统的生产/生活行动的成功与否,不取决于抽象的、无限定的、主体性的、不可归约为制度或语言表征领域的活动,而是取决于社会关系及人机互动的共生关系是否和谐。只有在此人机关系伦理基点上,才能确保对人工智能行为的可控可信。因此,我们不能将自己(如每一位将ChatGPT当成工具,从事诸如写代码、写文案、做海报等繁杂工作的程序员)视为无理性和道德约束感的、一盘散沙的用户个体。我们应是合理性的、有道德底线的行动者。以GPT4.0为例,它可以实现图片生成、内容生成、连续对话、阅读理解、推理判断和程序生成,从实用的角度讲,ChatGPT已经可以代替90%的技术性工作了,但另外的10%是ChatGPT很难触及的基于灵感的创新性的工作。可以预见,无论是前90%还是后10%的工作,都必须通力配合才能完成。即便是机器已经侵入日常生活的大部分领域,人类仍不能成为“机器性奴役”的异化对象[28]92,单纯去充当处理语言和程序的孤立主体。

5.善待他者的伦理规范,这体现了一种具有责任担当的道德精神。如果说追求和合、和谐是为了获得共生的话,那么,我们对ChatGPT所抱有的伦理期待就应该包括善待他者。因而,在ChatGPT进行交互化、语义化、定制化、问答化和媒介深度化服务或体验过程中,都必须善待他人或其他相关利益伙伴,将有益的伦理规范(如“宽容”“诚信”“同情”等)贯彻到全过程道德实践中。心理学家苏珊·布莱克摩尔在《模因机器》一书中谈道:利他主义是人类的无私行为,人们会在很多情况下对他人提供血缘的、超血缘的和作用于心智和大脑的服务,他特别指出“为模因服务的利他主义”[29]190行为可以在智能世界中广泛传播。在这充满了大脑模因的世界中,人类的合作行为会得到进化。通俗地说,就是人们只要有模仿的能力,并乐于模仿利他主义者的行为,就可以在数智时代的智能生活中传递善意和生成善果。

6.克己修德的伦理规范。所谓“克己”就是通过自我约束,获得使道德或德性升华的机会和力量。如果在运用ChatGPT时使用欺骗、侵权和伪造的文本生成技术,那一定是内在约束能力差所导致的。与创意、创新相悖的水文本、低质量信息输出品的量产,不是ChatGPT技术进化想得到的结果,也不符合人主导下的机器人的伦理目标。因此,应不断提升主体人和机器人主体的伦理素养。

遭遇新技术的伦理挑战而不慌张,是一种大气度和大情操。正如古代先哲庄子所言:“达生之情者,不务生之所无以为;达命之情者,不务知之所无奈何。”[30]24在道德约束下自觉而深刻地揭示人与机器(机器人)、天人合一关系的人,才是真正对万物互联时代的网络生活世界规律有大认知、大反思的人。

三、ChatGPT的优化共生及数智美好生活的重建

(一)ChatGPT在中国语境下的优化共生

首先,我们要将ChatGPT置于中国语境之下。任何技术都不可脱离世界性和地方性而自由进化。单从计算机模式或模因的角度看,ChatGPT也不是纯粹自然选择的结果。美国当代杰出的哲学家丹尼尔·丹尼特说过:“自然选择可以在各种各样的虚拟世界中于极短时间内创造出极其有效的新奇事物,但毫无疑问,它们总是比现实世界简单得多,因为它们比现实世界安静得多。虚拟世界中发生的事情,只要设计者指定让它们发生的。”[31]59无论是从机器人效能,还是伦理规制上看,我们都亟须总结经验,以迎接来自不同方面的挑战。

其次,应以国家机器人伦理标准为基础进行优化或设计。根据《中国机器人伦理标准化前瞻(2019)》,未来机器人业的伦理指南和细则制定需围绕五个主要伦理目标,包括人的尊严与人权、责任、透明度、避免滥用和共生繁荣等[32]24。要从中国的国情和核心价值观出发,以多元、自然、正义和繁荣为元向度,构建一个具有中国式现代化精神的优化共生模式或规制。我们可以依照国家相关标准来认识和把握中国的ChatGPT的伦理规制设计,制定ChatGPT技术的全球治理[33]、“智能鸿沟”的国家治理方案,以期获得广泛的社会认同[34]。

(二)ChatGPT的技术演化与后果约制将促进数智美好生活的重建

一方面,我们从后果主义观点出发审视ChatGPT的技术演化结果。后果主义所承认的道德理由是建立在对某些价值的考虑之上的。规则后果主义认为,某种行为是正当的,是指如果这种行为由某种规则所规定,而按照这种规则进行行动的话,就一定会产生最佳效果[35]33。通俗点说,后果主义(包括规则后果主义)的基本看法是:一个行为的伦理地位取决于其后果的价值。从ChatGPT技术的工作原理来看,它讲求搜集信息和生成文本等智能行动的价值后果或效果。从宏观上看,ChatGPT的发明、迭代发展和广泛应用,将部分地定义人类网络文明或人工智能文明,同时也是一个可以产生埃利亚斯“型构”(figuration)作用的生活节点[36]2。从某种程度上看,ChatGPT技术不仅改变了人类交往的时空结构的型构层面[37],而且促进了主客观因素之间的相互联结,有助于提高人的生活品质。

另一方面,我们着重谈谈ChatGPT技术是如何促进数智美好生活的重构的。就单纯的技术应用而言,“人工智能似乎能够普惠人类,并不违反平等原则,因此在伦理学上并无明显特点,但就其革命性的存在论后果来看,人工智能有可能改变或重新定义存在的概念,有可能在存在论水平上彻底改革生命、人类和世界的存在性质”[38]24。“因为每一个人都和社会有牢固的联系,所以他赞成一切能加强社会秩序,确保他安定地享有巨大幸福的那些习惯和原则。”[39]39我们能否体会到智能生活的幸福感、满足感,与某种具身认知或生成认知及伦理规则密切相关,也取决于先进和完善的人工智能系统中的机械身体所赋予的交互能力。哲学家丹尼尔·丹尼特认为:“人们希望人类的生活方式在根本上不同于其他一切生物的生活方式,而这也是事实。”[40]462人类智能文化在演化层面的实践性介入是可行的,也是大有可为的。因此,ChatGPT技术朝向美德主义的进化及发展是既可能又指日可待的。

四、结语

ChatGPT技术所负载的日常生活,在本质上都是实践的。凡是把感知引向理性的努力,都能在行为后果主义和规则后果主义的比较中,获得各自不同的利益。作为一个超级赋能的机器人载体,它在将不可能变为可能、不确定变为确定,以及从令人忧虑到令人认同再到令人感到美好的过程中,需要花费很多时间加以道德调适或伦理规制。具有中国语境的伦理规则一经确立,必将成为万物互联和文本生成时代生活方式变革的社会认知基础。

从技术后果看,这一切将成为人们审视ChatGPT技术的后果和在未来智能社会处理好人机关系的起点和伦理目标。我们有理由相信,当后果适应论思维形成之时,必将减少主体内心所滋生的种种不安。诚如基辛格等人在新著《人工智能时代与人类未来》一书的末尾所说:“人类智能和人工智能正值风云际会,两者将彼此融汇于国家、大洲,甚至全球范围内的各种追求之中。理解这一转变,并为之发展一种指导性道德准则,需要各个阶层,包括科学家和战略家……群策群力、各抒己见并作出共同的承诺。”[41]285按照生成论的观点,文本生成是万物借助ChatGPT这种人工物而打造出的一系列符号化生产过程。它是一种处于“合生”状态之下符合伦理规范的新物品的生产方式[42]192,也是人机融合进化的一种新的生活方式。人类发明了ChatGPT及其算法,算法又反过来异化或支配人类。为了避免这种算法权力的滥用,就必须运用适当的伦理学规则,将“智性的德行”发扬光大[43]42。只有如此,我们才能在人类主体的观照下真正地理解和把握ChatGPT的物化方向。

猜你喜欢

人机后果伦理
《心之死》的趣味与伦理焦虑
人机“翻译员”
“耍帅”的后果
从内到外,看懂无人机
这些行为后果很严重
护生眼中的伦理修养
众荣的后果8则
上朝迟到了 后果很严重
“人机大战”人类智慧遭遇强敌
未来深空探测中的人机联合探测