APP下载

ChatGPT热潮下的冷思考:基于心理学算法厌恶与欣赏的视角

2023-07-13戚娅玮李斯盛杨若欣何清华

关键词:拟人化个体人工智能

戚娅玮,李斯盛,杨若欣,何清华

(西南大学 心理学部, 重庆 400715)

2022年11月30日,美国OpenAI公司发布了一款名叫ChatGPT的聊天机器人,自发布以来迅速吸引了全世界人民的目光。OpenAI公司随后迭代出新的模型版本——GPT-4,但各方面对其褒贬不一:有的盛赞其所带来的便捷,有的则担心其对人类社会原有秩序的冲击,这些言论甚至引发了“AI将如何影响人类社会发展”的大讨论。2023年全国两会期间,科技部部长王志刚用“踢足球和梅西”来回应记者提出的ChatGPT问题[1],表明了自己对ChatGPT的态度。本文从个体对ChatGPT等人工智能(AI)产品的矛盾态度出发,基于算法决策的相关理论和文献,论述个体对AI产生算法厌恶、算法欣赏,甚至厌恶与欣赏共存的这一矛盾态度背后的心理机制,并对未来AI如何避免这种矛盾态度提出解决思路。

一、ChatGPT、算法矛盾态度与算法决策

ChatGPT不是一个全新的事物,而是人工智能领域不断迭代的新发展,是AI新时代的代表性产品。ChatGPT,即生成式预训练转换器(Chat Generative Pre-trained Transformer),是一种基于自然语言处理和深度学习技术的语言模型,有着自然语言处理和机器学习的能力,依托自然语言处理的人工智能技术与人类进行互动,能形成智能式认知理解模式[2]。但它的能力与应用范围远远不止人类自然语言的生成。比如,ChatGPT有着强大的信息加工、分析整合和生成能力[3],除文字外,还可以与其他技术相结合(如语音、图像、视频等),生成丰富多样的回答。在实际应用中,可以做到即时的人机交互,帮助个体进一步澄清自己的想法和感受,了解其所处的背景和状况,及时根据个体对于答案的反馈进行学习和调整,不断优化决策过程。从ChatGPT的产生与发展来看,它的引入和发展,标志着自然语言处理和深度学习技术在人机交互领域的重大进展。ChatGPT的出现意味着人工智能可以像人类一样生成自然语言,这种技术的进步使得机器可以更好地理解和处理人类语言的复杂性。随着ChatGPT及其竞品的不断涌现,个体对这些技术所带来的影响和潜在风险也愈加关注。

ChatGPT的核心是算法(Algorithm),而个体对算法的态度尤其是新生算法的态度总是具有矛盾的两面性:算法厌恶、算法欣赏,甚至厌恶与欣赏并存。早在20世纪50年代,Meehl[4]就提出过尽管有更优越的统计模型可供参考,但医生在做医疗决策时还是会更倾向于相信自己的直觉等。进入21世纪以来,AI等先进技术进入集成和应用阶段[5],相关支撑算法的性能日趋提高,但类似的现象仍然存在。Dievorst等[6]进一步指出,即使用户在看到算法预测的表现优于人类预测者后,仍然会倾向于不使用算法,他们把这种现象定义为算法厌恶(Algorithm Aversion)。虽然Dievorst等人也强调,算法厌恶出现的前提条件是算法出现错误或不足;而事实上,也有研究发现即使用户没有看到算法出现错误,他们仍然有可能排斥使用算法[7]。因此,算法厌恶是指个体表现出对算法的消极态度和行为。与算法厌恶相反,算法欣赏(Algorithm Appreciation)则是指个体对算法表现出积极的态度和行为,表现出对算法的高度依赖[3,8]。比如个体频繁通过互联网进行信息检索,这可以看作对搜索算法的欣赏[9]。而对于ChatGPT在当前生成式语言模型中的绝对优势,人们并不是简单的厌恶或者欣赏,而是一种复杂的矛盾心理。我们把矛盾心理定义为对一个物体同时具有积极和消极的方向。“方向”即行为人相对于物体的对齐或位置,其中积极的方向意味着吸引或拉向它,消极的方向意味着排斥或推离它。众多资料表明,当前人们对ChatGPT的态度则更倾向于这种矛盾心理。

算法厌恶与算法欣赏代表个体对于人工智能算法的态度。它们是基于算法决策而产生的,算法决策通常指人类在算法的帮助下做出决策的过程,这里的算法简单到计算器,也可以复杂到以大数据为基础,以机器学习及深度学习算法为核心的人工智能自主决策系统[10](包括自动化决策、增强决策、计算机决策支持系统、计算机推荐系统、辅助决策、专家系统和诊断辅助等[11])。随着人工智能算法的不断进化,人工智能算法早已广泛应用在多个领域:在医疗过程中,医疗辅助决策系统可以帮助医护人员和患者提供医疗、保健或管理方面的建议[12];在金融领域中,算法可以给企业或投资人提供投资理财建议,或者提供财务风险管理建议[13];在消费领域,基于大数据的算法可以向消费者提供个性化的购物建议[14],也可以从消费心理学的角度影响用户消费决策[15]等;在日常生活中,算法可以根据个体数据提出个性化的膳食和健康生活方式建议[16]等。以算法为核心的ChatGPT的应用更为广泛,能为多个行业提供帮助,甚至推动行业的发展。算法能带来毋庸置疑的便利,但也存在着数据偏差、算法偏见、伦理道德、技术依赖等风险。算法逐渐深入人类的生活,面对着算法的有效性和局限性,个体在决策过程中通过对比和选择,逐渐形成了对算法的不同态度。尤其是面对新生事物ChatGPT,个体对其矛盾态度的产生原因需要进一步阐述。

二、ChatGPT的算法厌恶与欣赏及矛盾心理的心理机制

虽然目前研究对出现算法厌恶、欣赏以及矛盾心理的具体原因还没有定论,但已有研究表明算法厌恶受到算法自身性能、任务类型、个体差异等因素的影响[17]。与之类似,算法自身性能、算法使用经验、环境影响、算法客观性与透明度以及一定程度的拟人化是算法欣赏产生的主要原因[18]。总体而言,算法厌恶和算法欣赏是一个连续体的两端,共同受自身性能、任务类型及个体等方面因素的制约,在一些情况下带来对算法的矛盾心理。基于此,本文结合ChatGPT的自身性能、任务要求及个体自身特点等方面进行探讨个体对其产生的算法厌恶和算法欣赏,从而进一步揭示矛盾心理产生的原因。

(一)ChatGPT的自身性能

问世即快速增长的注册用户数据体现出ChatGPT在初期就更多地受到人们的欣赏,这可能与ChatGPT自身的性能有关。Venkatesh等[19]提出技术接受和使用统一理论来解释个体对于技术的接受和使用及其影响因素。该理论认为,绩效期望(即“个人认为使用人工智能有助于提高工作绩效的程度”)会显著影响个体对技术的接受和使用程度。而对ChatGPT一类的人工智能,个体会寄予更高的绩效期望,且会倾向于将相对更困难的任务交给它们来解决。事实上,如前所述,ChatGPT拥有强大的功能,在于拥有先进的算法、强大的算力和海量的数据[3]。ChatGPT所使用的算法是基于转换架构的神经网络模型,该模型的特点是引入自我注意力机制,形成动态、可优化的算法[2],配合算力和数据逐步推进,以便实现并行运算,节省算法学习和训练的时间。在算力方面,ChatGPT每天的算力总消耗约为3 640PF(即假设每秒运算1 000万亿次,需要连续运行3 640天)[12]。在数据方面,ChatGPT的模型参数已经高达1 750亿,结合海量数据和预训练模型,可以实现对语料库的学习、训练和反馈,并逐步熟悉不同国家的语言,满足各种具体场景的需求,让它的语言更加流畅、自然、丰富,更易于被人类所理解。ChatGPT功能强大,应用场景多样,响应时间较快,个体可能会因此对其产生算法欣赏[20]。

然而,伴随着ChatGPT注册用户量的增加,也带来了很多负面或者质疑舆论,基本集中在人工智能是否即将取代人类,以及ChatGPT所带来的学术伦理问题、数据安全问题等。这也有多方面的原因:首先,基于ChatGPT的性能,它本身是一个大规模语言模型,必然存在着大规模语言模型自身的局限,即其可信性无法保证。虽然ChatGPT在很多情况下能够给出看似较好的回复,但很有可能是其在“一本正经地胡说八道”。用户通常认为人工智能应当是更加完美的,对它产生错误的宽容度较低[21],当发现ChatGPT对一些简单问题的回答的准确性较低时,可能会造成对ChatGPT的算法厌恶。其次,ChatGPT所学习的内容具有一定的时效性。ChatGPT不能实时更新知识系统,它的知识系统是2021年9月以前的数据库,没有以后的知识信息,这一局限可能也是导致算法厌恶的原因之一。第三,高额的训练成本是ChatGPT作为大型语言模型的又一局限。数年前,AlphaGo与李世石的一场围棋比赛,引起了人们对于人工智能是否会取代人类的疑问,但是人们所忽略的是AlphaGo超高的耗能。第四,如前文所述,ChatGPT的基础大规模语言模型是基于现实世界的语言数据预训练而成的,因为数据的偏见性,很可能生成有害内容。第五,极为重要的一点是,ChatGPT 为 OpenAI 部署,用户数据都为OpenAI公司所掌握,长期大规模使用可能存在一定的数据泄漏风险。ChatGPT带来的数据安全问题亦会造成人们选择不再继续使用ChatGPT。有研究表明,在体验到不良的结果后,个体就会显著降低对自动化的利用率[22]。因此,ChatGPT如果在个体体验过程中出错,不论其错误的严重程度如何,都会激发明显的负面情绪,而负面情绪带来的消极体验会降低用户的使用倾向[23],带来算法厌恶。

此外,拟人化是算法性能中的一个重要特点。拟人化是将人类特征、动机、意向或心理状态赋予非人对象的过程[24],会显著影响个体对人工智能的厌恶与欣赏。与人性化这一类似的概念不同,人性化的对象可以包括人类本身,而拟人化的对象仅限于非人对象,它是一个更加具体的概念。机器和算法是常见的拟人化对象之一,拟人化能显著增加人工智能的使用和欣赏程度[25]。比如:已有研究表明,个体感知到的拟人化可以提高对诸如ChatGPT一类聊天机器人的对话意愿,这可能是由于拟人化使得个体感知到了聊天机器人的社会存在[3,26]。ChatGPT作为一种基于人类反馈强化学习技术开发的产品,已经具备了一定的拟人化潜力。虽然它并不以视觉面孔的形式向用户展现其形态,但其具有的高水平信息互动性可以在一定程度上弥补这一局限[27]。有研究提示,个体越多地感知到聊天机器人背后的想法,他们与聊天机器人的共同存在和人际关系就越密切[28],尤其是当聊天机器人使用社交线索时,个体与它的亲密联系会变得更加强烈。神经科学的研究也发现,用户对聊天机器人的拟人化不仅取决于对主体外貌、认知智力和情绪智力的感知,也可以在没有实体的智能体中感受到[29],这与大脑背外侧前额叶皮层和颞上回脑区的活动强度与个体的拟人化感知以及后续的行为倾向密切相关[30]。这些发现提示,诸如ChatGPT一类聊天机器人语言中的思维感知和社交线索对于创造积极的聊天机器人体验的重要性。值得注意的是,已有研究发现人工智能拟人化程度越高,其所应负的道德责任越大,并且这种效应是通过拟人化导致的人工智能自由意志提升来实现的[31]。因此,虽然较高的拟人化程度会带来算法欣赏,但过高的拟人化也可能带来算法厌恶,甚至产生“恐怖谷效应”(过于智能的AI会让人觉得恐怖,导致喜好下降)[32]。

(二)不同任务类型ChatGPT的使用

主客观任务类型会对个体的算法厌恶与欣赏产生影响。个体倾向于采用算法辅助客观类型的任务,如在对视觉刺激进行数值估计时,用户更倾向于使用算法[8];但在主观类型的任务中则倾向于不使用算法,因为一般认为算法缺乏直觉和主观判断能力。Castelo等[33]以及Bonnefon和Rahwan都重复了这一发现,认为智能算法缺乏执行主观任务所需的能力,当主观判断更为重要时,用户对算法的依赖程度更低[27]。但有研究指出,即使是在主观任务类型中,也有可能表现出算法欣赏[8]。ChatGPT应用场景广泛,既可以执行诸如程序语言转换、Python代码解释与Bug修复等相对客观的任务,也可以进行生成点评、面试、问答、情绪评分与分析等相对主观的任务,这使个体对其更容易产生矛盾态度。

在涉及道德相关任务时,个体倾向于相信自己的判断,而不是算法。ChatGPT自身也会依据规则厌恶回答道德相关的问题,但在一些特殊情形下,ChatGPT仍有可能产出一些评论道德相关的结果。这有可能会引起个体的算法厌恶。已有研究发现滥用诸如ChatGPT之类的人工智能进行道德决策,会加剧人与人之间的不平等,甚至可能产生更严重的现实威胁[34]。ChatGPT带来学术界广泛讨论的一个问题:学术伦理问题。基于ChatGPT的优点,已有学校开始鼓励学生使用ChatGPT,如香港科技大学。但是,顶级期刊Science、Nature等相继强调人工智能程序不能成为作者[35]。任务类型影响算法厌恶与欣赏的背后机制尚不明朗,我们推测其可能受任务难度的调节。已有研究发现低难度的任务会带来较低的认知负荷,造成认知资源的浪费并引起厌恶感[36],导致算法厌恶。而高难度的任务会带来较高的认知负荷,个体更有可能表现出算法欣赏。同样地,使用ChatGPT解答高难度的任务,可能也是ChatGPT在短期内引起很多人追捧的原因之一。此外,客观类型的任务一般而言难度较高,而主观类型的任务则难度较低,这样的观点部分地得到了有关研究的支持[37],但后续还需更多研究予以验证。

(三)影响ChatGPT厌恶与欣赏的个体因素

目前,虽然没有具体的研究去探讨影响ChatGPT厌恶与欣赏的个体因素,但是基于以往对于算法厌恶和欣赏的个体因素研究可以大致分为两个方面:一方面是个体的人格因素,另一方面是人口统计学因素[17]。于人格因素而言,自尊、自我效能、控制源和神经质等个体的核心自我评价都与算法厌恶有关。个体对外部世界的评价不仅受到对象的特征和个体对这些对象的态度的影响,还受到个体对自己、他人和世界的态度的影响,对ChatGPT的厌恶与欣赏亦难以避免受个体因素的影响。从人口统计学的角度而言,算法的接受程度受个体的年龄、性别和教育水平而异。就目前的传播热度而言,ChatGPT在青年群体中更受欢迎;在学术界的火爆程度也体现出其更受较高知识水平人群的青睐。

综上所述,ChatGPT厌恶/欣赏受到很多因素影响,这些因素的交互造成了人们的矛盾心理,也会发展出不同的使用模式,人们批评它也依旧使用它,积极讨论它但并不使用它等等。我们需要克服对ChatGPT的矛盾心理,使人对其拥有更为平衡的态度,为此提出克服ChatGPT矛盾心理的策略。

三、克服ChatGPT矛盾心理的策略

尤瓦尔·赫拉利在《未来简史》中提到:“智能与意识,究竟哪个才更有价值?”[38]无意识的智能在飞速发展,人类如果不想集体被淘汰,只能积极升级“心智”。而升级所谓“心智”离不开人类对算法的态度。是否需要以及如何克服矛盾心理,在以ChatGPT为代表的新一代人工智能时代显得尤为重要。对于矛盾心理,可以从灵活应对与非灵活应对两个角度出发采取策略:非灵活应对策略主要侧重于避免或逃避矛盾心理的不适,对于ChatGPT而言,采用非灵活应对策略,即不使用ChatGPT,可以避免因其矛盾心理带来的不适;而灵活应对策略则从多方面的、平衡的角度来解决矛盾心理产生的根源。本文从克服算法厌恶,以及克服对ChatGPT的盲目欣赏的角度,提出我国人工智能发展的一些建议。

对于克服算法厌恶的策略,首先,可以在设计环节使用“人在回路(又称为人机闭环系统)”策略,即机器操作员在经过第一次指令输入后,仍有机会进行第二次或不间断的指令更正。Dietvorst等[39]的研究发现,让个体可以调整不完美算法会显著增加对算法的使用概率和信念,适度允许个体调整算法的预测值也会带来更好的性能表现。对于用户来说,要根据算法的判断结果采取行动,就必须感到较强的控制感并有足够的信心来信任算法。因此,人在回路策略能够激发用户的决策自主感,提升应用算法辅助决策的倾向[40]。未来,类似于ChatGPT一类的AI可以开放允许用户修正结果的权限,以达到人机交互中的双赢模式。当然,这也会带来一些挑战,比如人的多元性带来的算法的社会适应性问题等。其次,提高拟人化水平可以减轻算法厌恶。对ChatGPT等聊天机器人而言,需要提高其社交存在水平,因为个体会无意识地将社会规则应用到与人工智能的交互之中。而拟人化水平的提高可以激发用户的社会认知反应。更类人的语言、萌化程度等都会影响人的算法厌恶/欣赏。未来ChatGPT通过呈现与人类相似的面部特征,或者进一步提高其对社会规则的学习能力和水平是非常有必要的。最后,算法意识的提升也有助于减轻算法厌恶。算法意识是指个体是否意识到算法在日常生活中的影响,并且通常与围绕算法的经验、隐私问题、规范价值观和素养密切相关。让用户了解算法,提高算法对用户的透明度是提升算法意识的主要手段,也有助于提升用户对算法性能的绩效感知。未来可以采取多种更加灵活的方式,更广泛地培育大众的算法意识,提升算法应用水平。ChatGPT的诞生给人们带来了巨大的便利,这使得一部分人盲目欣赏算法,过度依赖算法。为此,人们需要克服对于算法的盲目欣赏,正确认识算法存在的问题,尤其是ChatGPT这样具有跨越式成长的机器模型,在为人们带来便利的同时,学术伦理、数据安全等问题接踵而至,这些都需要在未来的发展中进一步解决。

随着ChatGPT的产生,人们看到了实现通用人工智能的曙光,同时也产生了恐慌:一方面希望人工智能发展,另一方面,害怕被人工智能所取代,尤其在教育领域。在这样的潮流下,我们该怎样面对,未来要采取什么措施呢?首先,人工智能的发展对于人类社会的发展而言是科技进步的体现。ChatGPT的出现带动了国内外人工智能尤其是自然语言模型研发的脚步,短短几个月GPT-4已经问世,相比于ChatGPT,它更为智能,在很多方面具有了与人类水平相当的能力。显然,人工智能产品不论是在哪个领域能成为该行业的风向标,就能够占据一定的优势与资源,所以除了OpenAI,目前包括谷歌、Anthropic、百度等都已推出或者正在开发类ChatGPT的对话式通用人工智能系统,以期能够跟上甚至是超越世界技术前沿。其次,科技进步的同时,人类也需要对人类自身有更多的认识才能够更充分地运用和发挥人类的优势。为此,全球已经启用了各种大脑项目,且这些大规模的大脑项目有3个共同的研究重点:大脑图谱、开发新技术和脑部疾病。我国经过6年的准备,于2021年9月启动“中国大脑计划(The China Brain Project,CBP)”,也称为“脑科学和类脑智能技术”,主要目的是探索认知功能的神经机制,旨在促进类脑智能技术的发展和脑功能障碍的诊断和治疗,这个框架被称为“一体两翼”。目前,已启动59个一期项目,预算约32亿元,包括5个研究方向:认知功能原理分析、认知障碍相关障碍、儿童青少年大脑发育、脑源计算与脑机智能、技术平台构建,中国脑计划项目对3个研究重点进行了进一步的扩展。最后,人类也需要善用人工智能。人工智能的发展对教育行业带来的冲击显而易见,自ChatGPT公开发布以来,用其“代写作业、代写论文”的现象频频被报道。纽约教育局宣布:限制在纽约市公立学校的网络上使用ChatGPT。这种学术伦理问题引发了学术界的广泛讨论,甚至开始担忧。ChatGPT强大的知识系统超越了许多教师,那么是否有一天不需要教师的存在?当前,不可否认的是,ChatGPT即使有很多功能,但是其创新能力还有待提高,而创新能力也恰好是人类的优势。未来的教师可以花费更多的精力去培养学生的创新思维能力,而不是一味地提高其应试能力。学生也应更好地将人工智能提供的便利与教师的创新性和创造性相结合,这样未来发展的可能性才会更多。除了重视ChatGPT对教育界的冲击外,我们还应该重视预防“技术成瘾”现象的发生,正如社交网络、网络游戏的兴起所伴随的网络成瘾、游戏成瘾现象的普遍发生,在当前没有明确规范ChatGPT的使用准则且人们在广泛使用的情况下,可能会伴随而来另一种新型成瘾:“GPT成瘾”。因此,当前除了尝试追赶、超越最前沿人工智能技术外,国内外以及各个行业领域还应该迅速制定合理的使用准则、指定使用领域等,以提早预防“技术”成瘾的发生。

总之,人工智能算法已经渗透进世界的方方面面,与算法共生是AI时代个体必须接受的现实,同时要有不被人工智能所取代的自信。无论是ChatGPT还是未来发展起来的更为有用的人工智能工具,都是要为人类科技文明的发展和传承做贡献。在算法有利于我们的生活时,人们需要适应时代和科技的发展,克服对于算法的厌恶;但是另一方面,当算法对个体的生活和社会的发展产生了威胁时,克服算法厌恶的必要性就会降低。因此,保持对算法的平常心是当代人的必修课。

猜你喜欢

拟人化个体人工智能
一词拟人化
拟人化研究综述
关注个体防护装备
2019:人工智能
人工智能与就业
数读人工智能
品牌拟人化理论最新研究进展及启示
下一幕,人工智能!
个体反思机制的缺失与救赎
How Cats See the World