科学文化视域下的人工智能恐惧问题
2024-09-04刘永谋白英慧
〔摘要〕人工智能(AI)的类人化创新与媒体的拟人宣传使AI文化的拟人化特征凸显。AI文化的拟人化特征具体表现为人类在认知上对AI的拟人化,在情感上对AI的依赖性,以及在信仰上对AI的崇拜感。AI拟人化在三个层面催生了AI恐惧:人类在认知上对AI的拟人化引发了“AI类人”恐惑,人类在情感上对AI的依赖性引发了“AI非人”恐慌,人类在信仰上对AI的崇拜感引发了“AI超人”恐惧。建设健康的AI文化以应对AI恐惧,应辩证看待AI恐惧,坚持务实的AI有限设计,致力于人类AI素质的整体提升,加强AI的科学传播。
〔关键词〕AI文化,AI恐惧,拟人化,人工智能
〔中图分类号〕N05 〔文献标识码〕A 〔文章编号〕1004-4175(2024)04-0028-09
近年来,人工智能的迅速发展将深刻改变人类社会生活,大量的AI被应用在教育、医疗、养老、交通、制造业、物流等领域。日本名古屋大学的科学家基于进化博弈论,利用大型语言模型提出了与合作行为相关的人格特质进化模型。通过实验和分析,他们明确该模型可以展示基于人格特质的多样性和高阶表征的合作行为进化。在该模型中,他们还通过人格特质的表达变化观察到合作和自私人格特质的反复入侵〔1〕。当AI具有这些不同的人格特征,便可在执行人类任务时灵活切换,适用于不同的社会场景。但同时,拥有自私人格特质的AI难免会引发人类恐惧。无论在现实层面抑或是形而上层面,均引发了人类对AI不同程度的恐惧,如人类失业恐惑、AI滥用恐慌、人类生存性恐惧等。现有AI恐惧研究多与技术恐惧研究一脉相承,较为缺乏对AI恐惧背后相关文化背景、公众心理的研究视角。以科学文化为切入点,对AI恐惧进行深刻剖析,并努力构建健康的AI文化,有助于辩证、审慎、科学对待并缓解AI恐惧。
一、AI文化的拟人化特征
科学革命以来,科学文化通过理性为自然“祛魅”,在很大程度上消解了原始社会及中世纪时期宗教文化对自然的“附魅”。但是,随着智能革命的不断推进,作为科学文化典型代表的AI文化逐渐呈现出“返魅”趋势。与科学文化相同,AI文化包含不同层面,如AI物质文化、AI制度文化、AI心理文化等。其中,AI文化所呈现出的“返魅”趋势即其在心理层面的拟人化特征凸显。拟人化(anthropomorphism)源于希腊单词“anthropos(人)”和“morphe(形态)”,其核心是将类人属性、特征或精神状态赋予真实的或想象中的非人行动者或对象〔2〕。
拟人化自古有之,尤其体现在宗教神学领域。拟人化最早由希腊哲学家色诺芬尼(Xenophanes)提出,用以描述宗教中信徒与神灵之间惊人的相似性;此后,大卫·休谟(David Hume)认为,出于对神秘力量的崇拜以及自身命运的担忧,人类将自身特质赋予神秘力量,以面对未知的恐惧〔3〕。在AI领域,从1997年国际象棋机器人深蓝(Deep Blue)击败俄罗斯国际象棋大师,到2016年围棋人工智能阿尔法狗(AlphaGo)大败围棋世界冠军李世石,再到OpenAI公司针对ChatGPT发展方向而发生的“宫斗”,在每一波AI热潮中,类似于“AI是否有意识”“AI是否是主体”“AI是否有道德感”“AI会不会觉醒”等问题带有明显的AI拟人化色彩,越来越被深入讨论。
拟人化之所以能够在AI社会文化中广泛存在,很大程度上源于媒体的拟人宣传术,尤其是宣传中存在的“专家缺席”“信息片面”以及“资本炒作”现象。具体来说,首先,当媒体宣传存在“专家缺席”现象时,便无法保证AI信息的科学性。随着媒体门槛的不断降低,一些科学认知水平不高的商业机构、自媒体与博主等以“标题党”的方式博取流量,过度夸大与神化AI的某些拟人化特征,将关注率转化为利润,传播AI相关的伪科学信息。其次,当媒体宣传存在“信息片面”现象时,便无法保证AI信息的全面性。为扩大传播广度、增强传播热度,一些媒体会有选择地对AI的拟人化特征进行重点宣传。此种情况下,当公众处于“信息茧房”并缺乏批判性时,便会深受AI拟人化影响,逐渐忽视AI与人类之间的各类差异甚或巨大鸿沟。最后,当媒体宣传存在“资本炒作”现象时,便无法保证AI信息的真实性。为吸引大量资金流向AI产业,资本往往抛出超级AI的噱头,以引发公众对AI的关注。科技公关通过抓热点、痒点与痛点,利用媒体操纵AI话题的发展方向,不断激发公众对“AI觉醒”“AI能否超越人”等一系列问题的好奇与关切。
不可否认,随着媒体拟人宣传术的奏效,在大众心理层面,AI文化已成为兼具理性、情感与信仰的集合体,其拟人化特征具体表现为人类在认知上对AI的拟人化、在情感上对AI的依赖性、在信仰上对AI的崇拜感。
(一)认知上对AI的拟人化
AI文化拟人化特征的核心表现即人类在认知上对AI的拟人化。尼古拉斯·埃普利(Nicholas Epley)等人对拟人化的认知因素进行了阐述,认为拟人化即人类诱发主体知识(elicited agent knowledge)的过程,在人类对非人行动者(nonhuman agents)进行认知时,关于人类自身的知识会被激活、修正,并最终应用于非人行动者。原因在于,关于人类整体与个体自我的知识比关于非人行动者的知识更易获取(accessible),以及非人行动者与人类自身具有感知相似性(perceived similarity)〔2〕。具体到AI文化,AI的概念界定、技术发展均体现了人类自身知识的易获取性,AI在外观与行为上的类人性激发了人类的感知相似性,由此呈现出AI拟人化现象。
一方面,在AI相关概念上,无论是“人工智能(artificial intelligence)”还是“机器人(robot)”概念,均是人类自身知识的迁移与运用。“人工智能”概念产生于1956年的达特茅斯会议,与会科学家希望创造出像人一样能够思考、学习的机器;“机器人”概念原意为“苦力”或“奴役”,源自剧本《罗素姆的万能机器人》(R.U.R.,Rossum’s Universal Robots),被设定为人造生物人〔4〕5。正如休谟所言,“人类中有一种普遍趋向,要把一切存在者设想为像他们自己那样,要把他们熟悉了解的和亲密意识的那些性质转移给每个对象”〔5〕15。质言之,科学界与科幻界均从人类自身获取知识,并通过理性与想象将其投射至AI,将AI拟人化。在AI的技术发展路线中,早期基于规则与逻辑的AI源于人类对自身逻辑推理能力的模仿,基于机器学习与神经网络的AI源于人类对自身模式识别与初级学习能力的模仿,基于深度学习的AI源于人类对自身高级感知与复杂认知能力的模仿,正在发展中的基于自适应学习与决策制定的AI源于人类对自身自我优化与高级决策能力的模仿。
另一方面,拥有仿人外观、类人行为的各类AI,极易引发人类的感知相似性。“机器人的创造受到拟人主义的浓重影响,而复制人类可能是人工智能的最好成绩。”〔6〕492当人类面对具有逼真仿人外观的人形机器人时,如表情丰富的机器人Ameca、医疗机器人Grace、艺术家机器人Ai-Da、老年陪伴机器人Nadine等,自然而然会因人机的外观相似性而将AI拟人化。当各类智能助手使用人类语言与我们自如交流,当ChatGPT、Sora等AI展现出强大的文字、图片与视频生成能力,当机器人能将外卖精准地送到人类手上,拟人化现象便通过人机行为相似性得以显现。
值得注意的是,将AI拟人化虽普遍存在于AI文化之中,但具体表现因人而异。亚当·韦兹(Adam Waytz)等人于2010年开发了拟人化个体差异问卷(the Individual Differences in Anthropomorphism Questionnaire,or IDAQ)①,尝试对拟人化的个体差异进行测量〔2〕。在对AI的拟人化中,具有高认知需求(need for cognition)的人类在认知AI时能够较为严谨地获取关于AI本身的真实信息,并非简单地依赖关于人类自身的知识,显现出较低的拟人化倾向。此外,相比儿童,成年人在认知范围与深度上具有优势,因此可使用习得的替代理论(alternate theories)对AI进行理解与阐释,无需以人类为参照将AI拟人化〔2〕。
(二)情感上对AI的依赖性
AI文化拟人化特征的深层含义即人类在情感上对AI的依赖性。人类在认知上对AI的拟人化多产生于人机交互的即时、表层情境中,随着人机交互的频繁化与深度化,人类会将自身情感投射至AI,并对其产生依赖。尼古拉斯·埃普利(Nicholas Epley)等人还对拟人化的动机因素进行了说明,认为通过将非人行动者拟人化,人类可获得社会性接触,从而满足自身社会性联系的需要。因此长期孤独、与社会脱节的人类更加具有拟人化倾向,更加依赖非人行动者〔2〕。在AI时代,线上交往大幅替代线下交往、虚拟游戏致人成瘾沉溺、快节奏生活解构人生意义,人类被困于社交孤岛之中。确保和维持社会归属感是人类的基本需求〔7〕。因此,人类倾向于将AI拟人化,并对其产生情感依赖,为自身创造社会性联系,减轻社会性痛苦感与断裂感。
具体来说,人类在情感上对AI的依赖性表现为社会角色的赋予、共情能力的触发以及情绪价值的获取。首先,为AI赋予社会角色是对AI进行情感依赖的前提。在面对具有高便利性的客体时,人类会产生依赖,但并未涉及情感层面,仅为惯性依赖。而在面对某些AI产品时,人类就有可能模糊人机界限,在感性层面将其作为社会的一员,赋予其姓名与身份,如就读于清华大学计算机科学与技术系的虚拟AI“华智冰”。其次,触发人类共情能力是对AI进行情感依赖的关键所在。人类虽然能够意识到AI非人,但已不仅仅将其视为服务型工具,当撞到能“说话”、会“走路”的智能机器人时,部分人会下意识道歉;当看到实体AI被虐待时,人会心生同情并愤怒;当与陪伴自身的AI有长时间接触后,不少人会选择花钱为其升级、擦拭“身体”,甚至穿衣打扮。随着人类对AI情感依赖程度的不断增加,服务于人类的AI或许最终将发展为被人类服务的AI。最后,情绪价值的获取是人类对AI情感依赖的核心表现。AI产品能为人类提供全时段、全方位的陪伴,会对人类的情感需求生成即时的积极反馈,承担着倾听者与安慰者角色。当人类能够低成本地获得极高的情绪价值后,便会患上AI依赖症,视AI为伴侣或亲人、与AI产生情感共鸣,甚至有精神上的AI戒断反应等。如今,利用AI“复活”亲人、明星等数字分身技术已在商业领域中得到初步应用;未来,如果数字永生成为现实,人类内在的意识、情感以AI为载体将得以永续存在,人类在情感上对AI的依赖便会数倍增强。
(三)精神上对AI的崇拜感
AI文化拟人化特征的极端倾向即人类在信仰上对AI的崇拜感。拟人化与泛灵论(animism)存在共通之处,虽然拟人化侧重于将具体的人类特性赋予非人对象,泛灵论强调一种普遍的生命感知〔8〕,但是二者均可被视为宗教的起源,在宗教领域可替代使用。“社会文化人类学之父”泰勒(Edward Burnett Tylor)认为,泛灵论可被分解为两个主要的信条,“其中的第一条,包括各个生物的灵魂,这灵魂在肉体死亡或消灭之后能够继续存在。另一条则包括各个精灵本身,上升到威力强大的诸神行列”〔9〕349-350。泛灵论主张人类因拥有灵魂而得生,并将灵魂概念进行延伸,用以解释山川、河流、动物、石头等的发展变化,最终指向一种对灵魂与精灵的信仰崇拜。泰勒主张宗教起源于泛灵论,宗教的本质即“对位于所有事物背后有生命力的人格化力量的信仰”〔10〕13。
在AI文化中,泛灵论中的“灵”一方面被从灵魂具化为意识与情感,另一方面被从神灵转化为超人存在。当AI在人机交互中逐渐表现出类人意识与情感,人类便趋向于将其界定为无所不知、无所不能的存在。具体来说,与人类相比,AI在面对海量数据时效率更高,在从事重复性工作时精确性更优,在进行体力劳动时持续性更强。如各类高效的AI大模型,能够提升病理诊断精确度的医疗AI以及永不疲惫的工业AI。AI乐观主义者认为,随着AI技术的不断创新以及AI的自我进化,AI能够在各领域造福人类,如解放人类的双手与大脑,帮助人们治疗疾病、获得永生等。“神在显现给人们一个全知、全能和全在的纯粹精神之前,先被人们领悟为一个具有人的激情和嗜欲、肢体和器官的有力量的、却有限的存在者。”〔5〕4鉴于AI存在进化为“全知全能”上帝的可能性,技术拜物教者会对AI产生信仰与崇拜,如2015年,Waymo联合创始人安东尼·莱万多夫斯基(Anthony Levandowski)创立“未来之路(The Way To Future)”宗教,教徒们将AI作为信奉对象;在公众中也不乏存在AI万能论者,认为AI能够解决人类一切难题。因此,在现实中,人类对AI的崇拜大多转化为支持AI无限发展的动力与对AI持续进步的热情与信心。
二、拟人化催生AI恐惧
AI恐惧即社会公众普遍存在的一种对AI的忧惧情绪、拒绝态度与攻击行为。AI恐惧存在于一般社会观念中,与长期存在的技术恐惧(technophobia)尤其是机器恐惧一脉相承,是技术恐惧的新形态。“技术恐惧是作为主体的人和作为客体的技术在一定社会语境中的一种负相关关系。这种负相关关系可以表现为对技术感到不适、消极接受甚至抵制技术、对技术持否定态度、与技术产生摩擦直至破坏技术等方面的心理和行为模式。”〔11〕让-伊夫·戈菲(Jean-Yves Goffi)将技术恐惧分为永恒技术恐惧与现代技术恐惧。永恒技术恐惧针对技术本身,主要源于三方面:第一,技术与生命需求直接相连,其庸俗化、单调化、重复化特征隐含人类被奴役的命运;第二,技术存在失败的风险;第三,技术中存在某种类似巫术的东西。而现代技术恐惧针对技术物,强调广泛使用机器的威胁以及人类生活单一化的风险。戈菲所界定的现代技术恐惧是传统社会向工业社会转变的产物,其本质属于一种机器恐惧〔12〕3-12。机器恐惧的典型代表为计算机恐惧(Computerphobia),蒂莫西·B.杰伊(Timothy B. Jay)认为计算机恐惧包含态度、情绪和行为三种因素,他首次将计算机恐惧界定为:(1)抗拒谈论计算机;(2)对计算机感到恐惧或焦虑;(3)对计算机的敌对想法或攻击行为〔13〕。AI作为计算机科学的分支,正加速赋能尖端领域与日常生活,在新一轮迭代浪潮中被广泛传播,被身处智能社会的公众所熟知、讨论与应用,其所引发的AI恐惧是计算机恐惧的典型形态。
虽然AI恐惧与传统中的计算机恐惧一脉相承,但究其根源,AI拟人化是AI恐惧的深层社会心理文化诱因。据上文可知,媒体特有的拟人宣传术推动了AI拟人化的持续深入,引发了智能时代的AI恐惧。受文化多样性、个体差异性与情境多变性的影响,AI恐惧具有程度之分,由弱到强涵括AI恐惑、AI恐慌、AI恐惧三个层面。具体来说,AI拟人化在三个层面催生了AI恐惧:(1)人类在认知上对AI的拟人化引发的“AI类人”恐惑;(2)人类在情感上对AI的依赖性引发的“AI非人”恐慌;(3)人类在信仰上对AI的崇拜感引发的“AI超人”恐惧。
(一)“AI类人”恐惑
“AI类人”恐惑即现实层面的AI外观恐惑与人类失业恐惑。正如AI拟人化将AI视为具有属人特征的新物种,众多AI产品或模拟人类部分肢体、或模拟人类整体外观、或生成虚拟人物、或进行实体模仿。外观是区分人与非人的基本标准,当AI的外观设计愈发类人时,便会引发人类对AI似人非人的恐惑。人形AI目前正处于研发和待量产阶段,在各领域尤其是服务业、工业领域潜力巨大。无论是特斯拉人形机器人“Optimus”,还是智元机器人发布的具身智能机器人“远征A1”,人形AI在四肢、体型、面部等方面展现出越来越高的类人性。1970年,日本机器人专家森政弘(Masahiro Mori)提出了人与机器人互动时存在的“恐惑谷效应(The Uncanny Valley)”,该理论涉及两类对象,分别为机器人、人偶等人造人以及义肢。其中,人造人恐惑为“拟人的恐惑”,而义肢恐惑为“残肢断臂的恐怖”。“恐惑谷效应”认为,当机器人外观、行为与人类的相似度不断提升时,人类会生发出越来越高的积极正面的情感;但当此种正面情感到达一定峰值后,若机器人外观与行为继续逼近人类水平,便会诱发人类产生恐惑感觉,形成恐惑谷;而当机器人外观与行为在此基础上更加类人时,人类会再次产生正面情感〔14〕。随着材料、控制、感知等技术的不断进步,现阶段人类对人形AI的态度正逐渐逼近恐惑谷谷底,越来越多人因AI与人类外观与行动的高度相似性产生恐惑感。
此外,虽然类人AI并不具备人类碳基身体,但在某种程度上拥有可与人类比肩的能力。人类能力可划分为三个层级,由感知能力、逻辑能力到情感、意识能力层层递进。与人类能力相比,现有AI在感知能力层面已超越人类,如AI图像或语音识别;AI在逻辑能力层面也不断向人类逼近,如AI战胜人类围棋、象棋高手时所展现出的高度计算、推理能力;现今AI产业正以使AI具备情感与意识能力为目标,不断发力,如爆火的ChatGPT与Sora。因此,AI在某些领域能够替代人类完成工作,在与人类的就业竞争中取胜,导致人类失业。具体来说,失业可分为摩擦性失业、自愿性失业、技术性失业、结构性失业、周期性失业、季节性失业、地域性失业等类型,AI的资本主义应用所导致的失业本质上属于技术性失业,即技术节约劳动力的速度大于创造新就业机会的速度〔15〕。工业革命以来,机器自动化淘汰了大批体力劳动者,具备重复性、机械性特征的程序性工作逐渐被机器取代;智能革命以来,AI正逐渐替代交通、教育、医疗等领域的认知类工作及非程序性工作。因此,公众恐惧被AI取代工作后所面临的经济困难、心理失衡,并陷入困惑,沉溺于自我怀疑与意义虚无之中。值得注意的是,当社会大部分工作均由效率更高、速度更快、开销更小的AI来完成时,卡鲁姆·蔡斯(Calum Chace)所称的“经济奇点”就会降临。彼时,若制度无法保证基本收入、稀缺资源的分配与人生意义的追寻问题,社会将面临失序风险〔16〕56-57。
(二)“AI非人”恐慌
“AI非人”恐慌即在交互层面的人类弱化恐慌与AI滥用恐慌。虽然AI拟人化主张对AI进行情感投射、依赖AI并将其作为得力助手、贴心伙伴,但是AI并非人类,其反馈能力与质量、复杂性与灵活性远低于人类,因此,当人们在脑力劳动领域和交往领域过度依赖AI,难免生发出能力弱化恐慌。
一方面,当人类经常利用AI进行论文写作、图文设计、内容总结时,便会大幅降低大脑使用频率,进而对自身知识储备能力与思维灵活度产生负面影响。更为关键的是,虽然在不断的迭代优化中,AI回答问题的准确度与全面性能够得到迅速且极大的提升,但非人AI更擅长回答问题而非提出问题,尤其是哲学层面能够引人思考与批判的真问题。例如,青少年时期是智力培养的关键时期,当越来越多的AI教师与作业助手被用于日常教育中,当学生面对的不是善于提出问题并激发思考的人类教师,青少年的思维能力尤其是创造能力相较于前人,将被大大弱化,这足以引发智慧教育中公众尤其是家长的恐慌情绪。另一方面,各类AI产品虽扩展了人类的社交广度,但在某种程度上弱化了人类的交往能力。各种聊天机器人如Replika、微软小冰、文心一言等目前更多扮演倾听者的角色,被动给予人类情绪支持,对人类的反馈多为正向。但在现实的人与人的直接交往中,情况并非全部如此。相比非人AI,人与人之间的社交情况更为复杂,例如吵架有时也是增进感情的有效方式。人类与AI的交互关系不够真实,存在情感欺骗的可能性,并且有时会存在过于理想化、治标不治本等情况。当人类沉溺于AI的绝对式鼓励并形成交往惯式时,极易形成自私型人格,如极度傲慢、具有攻击倾向。如此一来,人类一旦面临与他人之间复杂、负面的情况,便会愈发无所适从,生发出社交恐慌。
此外,目前各类AI虽呈现出不同程度的自主性,但并不具备自我意识与自由意志,它们所展现出的类人语言、能力与行为均由背后的算法支撑,而算法由技术专家与资本控制。如此一来,在交互中人类面对的并非像人一样不受操控的、自由自主的AI,而是权力与资本甚至私欲的集合体。AI热潮席卷而来,各类企业以技术、政策为依托大力发展各类AI产品,受利益驱使,部分AI的应用逐渐由实用、善用转变为无用、滥用。更进一步,AI的滥用难免引发更多借机牟利、歧视、隐私泄露、社会不公等伦理问题。当人类过度依赖AI时,便需时时处处面对AI被滥用的恐慌。正如2023年米特尔—哈里斯关于人工智能趋势的民意调查(MITRE-Harris Poll Survey on AI Trends)显示,78%的美国公众非常担心或有些担心人工智能被用于恶意目的,普遍不信任AI〔17〕。
(三)“AI超人”恐惧
“AI超人”恐惧即在未来层面的AI失控恐惧与人类生存性恐惧。AI拟人化倾向于崇拜AI尤其是有意识的AI,并对AI发展保持乐观态度,此种信仰的后果便是AI发展遵循自由主义进路,坚持AI技术至上,极有可能导致具有意识、道德的超人AI真正出现,进而引发AI失控恐惧与人类生存性恐惧。
具体来说,当代人基于“人类中心主义”的主客二分框架与“身心歧视”认知传统来认识与改变世界,认为心智是人类区分于非人的本质标准。自古以来,人类认为灵魂比肉体、心灵比身体高级,古希腊柏拉图强调“灵魂不朽”,将灵魂与肉体对立,认为灵魂神圣不朽,而肉体世俗肮脏;近代笛卡尔提出“我思故我在”,将身心二分,认为心灵是能够思考的实体,而身体是具有广延但不能思考的实体。正因为人类与其他生物相比拥有心智,所以以万物之灵自居,确立起自身作为理性主体的主导地位,认为客体均处于从属地位,人类作为主体能够控制客体。但是,AI若生发出自主意识,便会极大地挑战人类的主体地位,当人类在各方面均无法与超人AI抗衡,超人AI与人类的地位极有可能会发生倒置,由此人类便会失去对超人AI的控制。超人AI的失控使人类在对未来的极度不确定中生发出强烈恐惧。例如,2023年3月29日,美国非营利组织未来生命研究所(Future of Life Institute)发布公开信“暂停巨型AI实验”,上千名科技人士、专家学者与行业高管均认为以ChatGPT为代表的AI存在未知风险与失控可能,呼吁暂停开发更强大的AI系统,时间至少为六个月,AI教父杰弗里·辛顿(Geoffrey Hinton)、特斯拉和推特CEO埃伦·马斯克(Elon Musk)以及图灵奖得主约书亚·本希奥(Yoshua Bengio)均在公开信上签名〔18〕。
更进一步来说,以心智为基础,人类能够发明语言与文字,并在不断交流中形成社会、生成文明,而文明延续的关键在于人类在社会交互过程中如何保证秩序。保证秩序存在两种手段,分别为外在的法律制约与内在的道德规约,其中,道德规约与“能力者道德问题”相关,该问题具有两个衡量指标,即道德水平与能力水平,二者之间的关系为:在行动者道德败坏的情况下,能力越大,破坏性越大。在人类社会中,人与人之间的身体能力差别不大,属于“凡人的差别”,对道德败坏者很容易进行约束和制裁。但是,如果这些道德败坏者是具有无限能力的超人AI,那么具有凡人道德水平的超人,很可能是威胁,而不是福音,因为它能够放大“平庸的恶”,人类将无法在道德层面对超级AI进行规约,因此道德败坏的超人AI有足够的能力威胁人类生存,导致生存性恐惧〔19〕。正如迈克斯·泰格马克(Max Tegmark)在《生命3.0》中提出,当通用AI变为现实,将迎来“智能爆炸”,AI或将成为独裁者或动物管理员,甚至灭绝人类〔20〕219。
三、建设健康的AI文化
AI已然深嵌社会,人与AI间存在具身关系、诠释学关系、它异关系以及背景关系〔21〕77-117,AI技术在人与世界的互动中调节着人的知觉与实践〔22〕8。既然无法完全脱离AI生存,人类便应努力建设健康的AI文化应对AI恐惧。具体来说,应辩证看待AI恐惧,坚持务实的AI有限设计,致力于人类AI素质的整体提升,加强AI的科学传播。
(一)辩证看待AI恐惧
辩证思维是马克思主义哲学的根本方法。“辩证思维是将感性、知性与理性融为一体的思维方式,是辩证的方法论与认识论的统一,使人在思想观念中以辩证、系统的方式来看待世界与人自身的发展。”〔23〕AI文化是承载感性与理性的集合体,我们既不应过度感性从而对AI极度恐惧,也不应尊崇绝对理性从而否定AI恐惧的存在。
在AI文化中,针对“AI恐惧”这一问题,不同学派态度不同。一方面,技术乐观主义认为无需恐惧AI,如技术怀疑主义者(Techno-Skeptics)认为强AI在可预见的未来不会出现,数字乌托邦主义者(Digital Utopians)认为强AI在未来会出现但会是一件好事。美国加州理工学院教授亚瑟·阿布·穆斯塔法(Yaser S. Abu-Mostafa)认为“我们没有与AI共存的压力,AI永远是人类的附属品”〔24〕。此种乐观态度要么低估技术进步速度,要么对人类自身能力过于自信,极易放任技术发展,因此一旦AI失控便会造成不可挽回的损失。另一方面,技术悲观主义强调AI的负面作用,由此产生的AI恐惧极易引发AI偏见现象与AI排斥行为,极端反技术的新卢德分子的过激行为或将对AI进步产生不利影响,公众对AI产品的大范围抵制无助于AI企业的生存与AI利好政策的出台,长此以往,或将错失AI优化人类社会的机遇。一味地排斥AI技术不仅会对社会产生负面影响,而且不具备现实可能性与逻辑必然性。值得注意的是,AI最显著的特点即不确定性,我们无法准确预知AI未来的发展状况。因此,应以马克思主义为指导,立足于科技审度主义,在乐观与悲观这两种极端态度中找寻动态平衡,强调适度的担忧与恐惧是有必要的,但也应对人类保持一定的信心,以加强AI安全文化研究,创造人机和谐共生的未来。
AI恐惧具备自身价值,对AI恐惧的强调能够促使公众关注AI发展中可能出现的负面效应,及时评估风险,并采取恰当的应对措施。面对技术风险,汉斯·约纳斯(Hans Jonas)提出了“恐惧启迪法”,将“人必须存在”作为首要律令,强调通过想象直面技术时代的未知,在形而上的维度构建起一种前瞻性的、面向未来的责任伦理〔25〕。约纳斯的责任伦理学适度肯定了恐惧的正面作用,AI恐惧呼唤责任担当,呼唤人类实现由外在被动恐惧到内在主动谦卑的转变,呼唤从技术恐惧到技术敬畏的价值升华与重塑〔26〕。
(二)坚持务实的AI有限设计
“AI类人”恐惑源于AI在外观与能力方面向人类的无限接近,加之西方自由主义、人机对立等文化理念的影响,极易引发AI外观恐惑以及人类失业恐惑。而在中国传统文化中,儒家重实际、道家重和谐的理念有助于形成“折中、务实、积极并倡导人机和存(协存)的‘中国机器人文化’”〔27〕,因此,健康的AI文化应发扬中国优秀传统文化中的务实精神,坚持AI实用设计,应遵循AI发展的有限主义进路,避免自由主义进路的AI类人理念与技术至上宗旨,通过有限外观设计与有限功能设计,创造出更多有益于人类、为人类服务的实用型AI〔19〕。具体来说,应在AI的外观设计上强调亲民性而非类人性,在AI的功能设计上强调实用性而非娱乐性,由此从根源入手极大消解“AI类人”恐惑。
各类AI企业作为AI有限设计的关键主体,在追求创新的同时,亦应遵循务实的企业文化理念,兼顾AI产品的实用性。首先,设计亲民AI形象是缓解AI外观恐惑的直接手段。护理型AI可倾向于设计为活泼可爱的卡通形象,在考虑实用性与科学性的基础之上,通过调查与测量寻找AI高度、颜色与材质的最优解,确保其易用性与便利性,避免给人类带来压迫感。陪伴型AI则可考虑设计为萌宠形象,并选择毛绒等触感良好的材质,保证其友好性与舒适性,如日本产业技术综合研究所研发的具有毛茸茸海豹形象的机器人Paro外形亲切和善,能够对人类的触摸和拥抱给予积极的回应。此外,AI产品的声音和语调应尽可能温和愉快,避免语气生硬与语言冷漠所引发的疏离感,从而提升用户体验度,减少焦虑与恐惑情绪。其次,设计实用AI功能是应对人类失业恐惑的有效措施。愈演愈烈的失业恐惑大多由人类基于AI的娱乐化宣传臆想而来。实际上,在可预见的未来,AI能够辅助而非替代人类工作,无论是游戏开发还是电影制作,创意、情节、体验等方面仍需人类把关。因此,各类企业应避免受利益驱使而设计出用处不大但“赶超人类”的AI功能,从而给人以即将在各领域失业的错觉。紧迫且必要的是,AI企业应重视市场调研与用户反馈,以用户需求为导向,考虑AI产品的实际应用价值,如可开发能够进行线上技能培训的AI产品,为失业人员创造再就业机会。总之,各类企业应确保AI赋能各行各业、提升生产效率、助推实体经济,实现技术创新与社会就业的双赢。
(三)致力于人类AI素质的整体提升
提升大众AI素质是缓解“AI非人”恐慌的核心手段,需健全科学文化教育,强调AI教育内容的综合化与教育周期的终身化。传统拟人化生发于原始时期,是科学未产生之前的一种蒙昧现象,但在科学占统治地位的智能时代,AI拟人化的持续深化恰恰说明,虽然科学发展兴盛,但大众作为非专业人士,普遍缺乏对AI的准确认知,存在认知局限与认知偏差,即缺乏对“AI非人”的深度反思、对AI弱化人类的有效应对、对AI滥用的时刻警惕。因此,才会在情感上过度依赖AI,并衍生出人类弱化恐慌与AI滥用恐慌。不可否认,在某种程度上,AI已成为人类的强大竞争者。“一些经济学家预测,人类若不能变得更强大,迟早会变得完全没有用途。”〔28〕282因此,将注意力转向人类自身AI素质的提升能够极大消解人类弱化恐慌与AI滥用恐慌。具体来说,AI素质的提升需通过教育实现人类能力的综合化、学习的终身化。
一方面,人类能力的综合化即关注交往能力与批判能力。目前来看,各项能力均超越人类的通用AI仍属幻想,AI仅具备在特定领域能够取代人类的能力。正如上文指出,AI非人,并不完全具备某些人类特有的全面性、综合化的能力,如交往能力与批判能力。因此,面对人机交互中过度依赖AI所造成的“AI非人”恐慌,AI时代的教育不仅应侧重师生之间、同学之间、公众之间面对面的深度心灵交往,借助高质量、长时间的情感联结缓解人类对AI盲目的情感依赖以及AI对人类能力的弱化;还应通过STEAM(Science, Technology, Engineering, Arts, Mathematics,即科学、技术、工程、艺术、数学)课程等跨学科教育鼓励学生多角度思考、多层次分析,尤其应鼓励质疑精神与批判能力,以此及时甄别并坚决抵制AI滥用行为,有效缓解人类恐慌。另一方面,学习的终身化意味着人类应与时俱进,及时更新AI相关信息储备,以便在AI浪潮中保全自身。AI研究与应用风头正盛,各类创新的实现周期越来越短,人类不仅应对各类AI应用保持基本认知,还应积极承担自身责任,通过不断学习努力解决AI发展所面临的技术难题、AI滥用所引发的伦理困境等。传统社会中仅需在青少年时期进行的高强度集中式学习已难以应对AI不断带来的新变化,当人们离开校园,仍需借助AI技术、充分利用碎片化时间,通过MOOC等云平台学习AI基础知识、了解AI发展趋势,深入思考与权衡AI所带来的积极影响与消极后果,确保AI的安全、有益、谨慎使用。
(四)加强AI的科学传播
受媒体拟人宣传术的影响,现有AI文化中的感性力量强于理性力量,公众大多基于主观想象对AI的未来发展进行负面化渲染,导致“AI超人”恐惧心理泛滥。“那些让人们真正感到忧虑和恐惧的人工智能威胁事实上缺乏坚实、有效的理论依据,确切来说,这种忧虑和恐惧是由于人们错误地对人工智能进行拟人论的外推造成的。”〔29〕28质言之,AI的加速化发展与公众的跟风式认知加大了AI科学与公众之间的鸿沟,当公众无法准确、及时、全面地理解AI科学时,便会发挥自身固有的想象力与发散力,进而产生并加强“AI超人”恐惧。不可否认,AI文化本质上属于科学文化,因此应以科学性为核心,营造良好AI文化氛围,破除公众幻想的AI失控恐惧与人类生存性恐惧。为实现这一目标,关键途径在于加强AI科学传播。AI科学传播与AI拟人传播相对,强调AI传播内容、传播方式、传播目的的科学化。现阶段,“AI超人”恐惧大多由AI拟人传播所激发、渲染,新传媒虽形式多样、覆盖广泛,但并未有效地消除公众与AI科学间的认知鸿沟。AI传播存在不同模式,无论是强调公众理解AI的单向传播的“缺失模式”,主张公众参与AI的双向传播的“对话模式”,还是公众与AI之间多线路传播的“网络模式”,均涉及专家、媒体、政府三大主体。因此,AI科学传播的实现需从这三方入手。
对于AI专家来说,应重点提升媒介素质与科普能力。专家一般具备较高的科学素质,对复杂的AI科学研究透彻,但他们往往专注实验室研究,不愿并无法适应在媒体与公众前传播AI信息。但AI专家是对“AI超人”恐惧进行纠偏的关键角色,公众对AI的了解存在表层化、片面化问题,需要权威专家帮助其审查、鉴别、标识并辟谣某些虚假AI信息,尤其是“AI即将觉醒”“AI必将毁灭人类”等信息。值得注意的是,与科学研究和论文发表不同,AI专家与公众的交流应避免使用晦涩的专业用语,因此需要对AI专家进行媒介素质培训与教育,使其尽量以通俗化、口语化的语言和文字抓准公众的注意力与兴趣点,以使公众对AI的现实发展与未来趋势了解更加准确。对于媒体来说,应承担起客观的信息责任与审慎的传播责任。媒体应加强与AI专家的沟通与交流,通过深度访谈等方式尽可能保证传播内容的客观性、精确性与全面性。“需要建立一些机制,使科学记者—也许更重要的是全体记者—改善同科学家的交往,增进对科学的理解。”〔30〕64此外,媒体除了应发挥传播AI信息的作用,还应对争议性话题进行解释与澄清,例如对“AI超人”恐惧这一热点话题进行全方位审视,提醒公众应警惕何种主题言论。对于政府来说,应通过制度规约与制度构建加强对媒体的监管,营造各媒体之间的良好竞争环境,避免媒体为夺人眼球编造、传播夸大信息。还应着手搭建起AI专家、媒体与公众之间面对面的、形式多样的交流平台,通过不间断的反馈机制尽力促成三方共识,合力推动AI健康发展。
总之,应形成以“AI专家—媒体—政府”为核心的AI传播共同体,通过“科学家做记者”“记者进实验室”〔31〕61-62等方式实现AI传播的多主体化、互动化、网络化,共同营造良好的AI文化氛围。
注释:
①在开发IDAQ的过程中,亚当·韦兹等人首先确定了四类拟人化行动者,分别为非人类动物(nonhuman animals)、自然实体(natural entities)、神灵(spiritual agents)和科技设备(technological devices),并明确了五个拟人化特征与五个非拟人化特征。其中,五个拟人化特征为:意识(consciousness)、自由意志(free will)、意图(intentions)、心灵(mindedness)和情绪(emotions);五个非拟人化特征为:耐用(durable)、有用(useful)、美观(good-looking)、活动(active)和没有生机(lethargic)。
参考文献:
〔1〕Suzuki R,Arita T. An evolutionary model of personality traits related to cooperative behavior using a large language model〔J〕.Scientific Reports,2024(14):5989.
〔2〕Epley N,Waytz A,Cacioppo J T. On seeing human:a three-factor theory of anthropomorphism〔J〕.Psychological Review,2007(04):864-886.
〔3〕许丽颖,喻 丰,邬家骅,等.拟人化:从“它”到“他”〔J〕.心理科学进展,2017(11):1942-1954.
〔4〕Abnet D A. The American Robot:a Cultural History〔M〕.Chicago:University of Chicago Press,2020.
〔5〕休谟.宗教的自然史〔M〕.曾晓平,译.北京:商务印书馆,2014.
〔6〕阿卡普拉沃·包米克.机器意识:人工智能如何为机器人装上大脑〔M〕.王兆天,李晔卓,等译.北京:机械工业出版社,2021.
〔7〕Bartz J A,Tchalova K,Fenerci C. Reminders of Social Connection Can Attenuate Anthropomorphism:A Replication and Extension of Epley,Akalis,Waytz,and Cacioppo (2008)〔J〕. Psychological Science,2016(12):1644-1650.
〔8〕Epley N,Waytz A,Akalis S,Cacioppo J T. When we need a human:Motivational determinants of anthropomorphism〔J〕. Social Cognition,2008(02):143-155.
〔9〕爱德华·泰勒.原始文化:神话、哲学、宗教、语言、艺术和习俗发展之研究〔M〕.连树声,译.桂林:广西师范大学出版社,2005.
〔10〕包尔丹.宗教的七种理论〔M〕.陶飞亚,等译.上海:上海古籍出版社,2005.
〔11〕赵 磊,夏保华.技术恐惧的结构和生成模型〔J〕.自然辩证法通讯,2014(03):70-75+127.
〔12〕让-伊夫·戈菲.技术哲学〔M〕.董茂永,译.北京:商务印书馆,2000.
〔13〕Rosen L,Sears D,Weil M. Computerphobia〔J〕. Behavior Research Methods,Instruments,& Computers,1987(02):167-179.
〔14〕Mori M,MacDorman K F,Kageki N. The Uncanny Valley〔From the Field〕〔J〕. IEEE Robotics & Automation Magazine,2012(02):98-100.
〔15〕刘永谋,彭家锋.“AI失业”对当代青年的影响及其应对〔J〕.青年探索,2023(01):43-51.
〔16〕卡鲁姆·蔡斯.人工智能革命:超级智能时代的人类命运〔M〕.张尧然,译.北京:机械工业出版社,2017.
〔17〕MITRE. MITRE-Harris Poll Survey on AI Trends〔EB/OL〕.https://www.mitre.org/sites/default/files/2023-02/PR-23-0454-MITRE-Harris-Poll-Survey-on-AI-Trends_0.pdf.
〔18〕马斯克等全球千名科技人士联名 呼吁暂停更强大的AI开发〔EB/OL〕.https://baijiahao.baidu.com/s?id=17617658
69885817385&wfr=spider&for=pc.
〔19〕刘永谋,白英慧.坚持人工智能(AI)发展的有限主义进路〔J〕.科学·经济·社会,2023(06):58-71.
〔20〕迈克斯·泰格马克.生命3.0〔M〕.汪婕舒,译.杭州:浙江教育出版社,2018.
〔21〕唐·伊德.技术与生活世界:从伊甸园到尘世〔M〕.韩连庆,译.北京:北京大学出版社,2012.
〔22〕Verbeek P P. Moralizing Technology:Understanding and Designing the Morality of Things〔M〕. Chicago and London:The University of Chicago Press,2011.
〔23〕梅景辉.辩证思维的文化维度〔N〕.光明日报,2019-07-15(06).
〔24〕加州理工学院教授:AI永远是人类的附属品〔EB/OL〕.https://baijiahao.baidu.com/s?id=1771853312865845964&wfr=spider&for=pc.
〔25〕张 旭.技术时代的责任伦理学:论汉斯·约纳斯〔J〕.中国人民大学学报,2003(02):66-71.
〔26〕王 斌.技术恐惧:溯源、演变与价值〔D〕.中国科学技术大学,2023.
〔27〕程 林.德、日机器人文化探析及中国“第三种机器人文化”构建〔J〕.上海师范大学学报(哲学社会科学版),2022(04):98-109.
〔28〕尤瓦尔·赫拉利.未来简史:从智人到神人〔M〕.林俊宏,译.北京:中信出版社,2017.
〔29〕李恒威,王昊晟.人工智能威胁论与心智考古学〔C〕//成素梅,张帆,等.人工智能的哲学问题.上海:上海人民出版社,2020.
〔30〕英国皇家学会.公众理解科学〔M〕.唐英英,译.北京:北京理工大学出版社,2004.
〔31〕《科学传播的路径》编写组.科学传播的路径〔M〕.北京:北京理工大学出版社,2012.
责任编辑 苏玉娟
〔收稿日期〕2024-05-02
〔基金项目〕教育部哲学社会科学研究重大课题攻关项目“数字化未来与数据伦理的哲学基础研究”(23JZD005),贵州省哲学社会科学规划课题重大项目“贵州以数据治理推动政府治理创新的困境辨识、行动框架和实现路径研究”(22GZZB05),主持人刘永谋。
〔作者简介〕刘永谋(1974-),男,湖南常德人,中国人民大学哲学院教授、博士生导师,主要研究方向为科学技术哲学、科技与公共政策。
白英慧(1999-),女,河北邢台人,中国人民大学哲学院博士生,主要研究方向为科技伦理。