应聘者对AI 面试官抵触心理探析
2024-02-17蔡静如
□文/蔡静如 张 萌
(华南理工大学马克思主义学院 广东·广州)
[提要] 人工智能的快速发展加速招聘行业的数字化转型,但应聘者并未适应,甚至对AI 面试官产生抵触心理。为此,通过探讨应聘者对AI 面试官抵触心理的主要表现、产生原因与应对策略,帮助应聘者减少抵触心理,更好地适应AI 面试。
AI 面试是指利用AI 技术对应聘者进行面试和分析,以筛选和找到合适的候选人,它通常被应用于大型招聘的初筛环节。在AI 面试的过程中,应聘者需要于系统规定时间内,通过录制视频或者语音转文字的方式回答AI 面试官提出的、企业预先设计好的面试问题;待面试结束后,通过对应聘者的回答内容、语音语调、面部表情、肢体语言等进行算法分析,最终从专业能力、技能经验、个体特质、发展潜力等多方面评估应聘者。与传统面试相比,应聘者和AI 面试官的交互方式发生了根本性的变化,由传统的应聘者与人类面试官的人-人互动模式转变为应聘者与AI 面试官的人-机单向异步交互模式。相关研究表明,AI 面试官能有效消除人类面试官的偏见行为,帮助企业节约招聘成本,提高面试效率。但面对AI 面试官,应聘者的心理并未适应。研究发现,与人类面试官相比,AI 面试官会引发应聘者更多的质疑和排斥,使之产生抵触心理。
“抵触”是指与另一方发生冲突,有矛盾。目前学界对抵触心理并没有统一的界定,参考相关研究,将其界定为个体由于生活经历、所受教育或认知特征等因素,对某人或某事物产生不良印象或生理反应后,引发心理上的不满、质疑或抗拒,进而在行为上表现出仇视、对抗或排斥。基于此,应聘者对AI 面试官的抵触心理是指应聘者在传统面试的思维定势下,对于AI面试官这一新事物产生不满、质疑或抗拒等内心体验,进而表现出仇视、对抗或排斥等消极行为。随着人工智能的快速发展,招聘行业的数字化转型已是大势所趋。
一、应聘者对AI 面试官抵触心理主要表现
(一)不满AI 面试官减少应聘者的表现机会。Kchling 等研究发现,人工智能的支持程度与应聘者的表现机会之间呈显著负相关,即人工智能的支持程度越高,应聘者的表现机会越少。Acikgoz 等研究也表明,与传统面试相比,AI 面试更不利于应聘者获得表现机会。由于AI 面试官减少了应聘者的表现机会,应聘者无法全面展现自己的个性和能力,引发应聘者吐槽和不满。
(二)质疑AI 面试官面试结果的公平性。相关研究表明,相比人类面试,应聘者在AI 面试中对公平感的期望更低,他们感知到的程序公平和互动公平也更低。Lee 等研究发现,与人类决策相比,算法决策被认为缺乏公平、信任度低。亚马逊的案例也表明AI 面试结果存在不公平问题,比如AI 面试官在给应聘者进行排名时“重男轻女”,导致男性应聘者的得分普遍高于女性应聘者。因此,应聘者对AI 面试结果的公平性抱有质疑与不信任态度。
(三)不愿参与AI 面试官主导的岗位申请。Wesche 等研究表明,在AI 面试官主导的面试过程中,应聘者申请岗位的意愿显著低于人类面试官主导的传统面试。Langer 等研究发现,与人类面试官主导的传统面试相比,在AI 面试官主导的面试中个别应聘者倾向于撤回岗位申请,导致应聘者自我淘汰。可见,应聘者对AI 面试官主导的岗位申请的参与意愿相对较低。
二、应聘者对AI 面试官抵触心理产生的原因
(一)AI 面试官现有设计不足增加应聘者的焦虑
1、AI 面试官设计特征的非拟人化。AI 面试官设计特征的非拟人化包括外在形象和语言风格设计的非拟人化。首先,AI面试官外在形象设计的非拟人化易引发应聘者焦虑。Carless 等研究表明,面试官的性格特征和个人素质影响应聘者的焦虑水平。相比于人类面试官,AI 面试官大多为不苟言笑的静态职场男性形象,面试过程表情严肃、动作机械,加之头顶上方的倒计时等,均在无形中增加了应聘者的焦虑。其次,AI 面试官的语言风格影响应聘者感知到的压力和焦虑。相比人类面试官的语言蕴含丰富情感并可恰当表达情感,AI 面试官的语言缺乏情感性。相关研究发现,在面试过程中,低情感语言风格的AI 面试官比高情感语言风格的AI 面试官更易增加应聘者的压力和焦虑。
2、AI 面试官问答设置的非个性化。AI 面试官问答设置的非个性化包括缺乏个性化问题设计和囿于单向交互模式。一方面AI 面试官在确保提问一致性的同时,因为缺乏个性化问题设计,无法为应聘者提供展现个体特殊性的机会,让应聘者感到无法充分展现自己;另一方面在AI 面试官主导的面试中,应聘者与AI 面试官的单向交互模式会引发焦虑。社会互动论强调,人的心理和行为受到与他人之间互动程度的影响。在AI 面试官主导的面试中,应聘者感到缺乏个人互动和人际关系处理、缺乏来自面试官的非语言和口头反馈,从而剥夺了应聘者更准确地解释不清楚问题或提出问题的机会,增加了应聘者的沟通焦虑。
(二)AI 面试官现存技术问题降低应聘者的信任度
1、AI 面试官存在算法偏见。算法偏见是指AI 面试官对某一类人群存在偏好或歧视,比如性别歧视、种族歧视等。一位合格的AI 面试官需要在大量的训练数据中进行算法学习,形成人才画像。在面试过程中,AI 面试官通过收集应聘者的数据点并进行分析形成应聘者画像,进而从中选取与人才画像最匹配的候选人。因此,AI 面试官训练数据的客观性在很大程度上决定了AI 面试官的公平性。在亚马逊的案例中,男性应聘者的得分普遍高于女性应聘者,原因在于训练该算法的数据来源于公司中表现最好的一批人,而这批人中大多数是男性。不客观的训练数据创造了不公平的AI 面试官,导致了不公平的面试结果,从而降低了应聘者对AI 面试官的信任度。
2、AI 面试结果缺乏可解释性。AI 面试官给出的面试结果来自于对岗位要求和应聘者信息所进行的数据分析,但这一面试结果是如何得到的,雇主与程序员均难以解释,因为编写AI面试官的人都不知道中间的运算过程,它的计算大大超过人类力所能及的范围;加之AI 面试官无法说服应聘者接受其做出的面试评估和结果,使其无法获得应聘者的信任。亚里士多德在《修辞学》中提出,修辞术具有在任何一个问题上找出可能的说服方式的功能。恰当使用修辞术能够产生说服力,但AI 面试官在使用艺术修辞来阐释面试结果时效果不佳,并且AI 面试官的面试结果并不能自动证明为真,因此说服力无法产生,导致难以获得应聘者的信任。
(三)对AI 面试官技术风险的认知偏差增强应聘者的抗拒和排斥。人类对未来技术的认知分为三个阶段:第一个阶段是敬畏并惊叹新技术的潜能;第二个阶段是害怕和恐惧其带来的风险;第三个阶段是辩证看待新技术,进入设计新技术的发展道路,并在充分利用新技术的同时控制其潜在风险。当下许多人对AI 面试官甚至人工智能的认识处于第二个阶段,人们更加愿意相信人工智能“威胁论”,并且媒体报道和科幻影视剧强化了人工智能“威胁论”。如随着2016 年3 月Alpha Go 打败了围棋世界冠军李世石,人工智能正在赶超人类等言论愈演愈烈,这直接影响了人们对AI 技术的认知。此外,西方学者在研究风险认知的心理测量范式理论框架下发现,未知性和可怕性这两个风险特征影响人们的风险认知。就AI 面试官而言,应聘者对该技术风险既缺乏全面了解,又感到其不可控且具有危害性,进而影响了应聘者对AI 面试官的风险认知。相关研究发现,应聘者对技术风险的认知与该技术的接受程度呈正相关,可见应聘者对AI 面试官的技术风险存在认知偏差时,其倾向于抗拒和排斥AI 面试官。
三、应对策略
(一)设计拟人化AI 面试官,增加个性化问答设置。计算机表现越拟人化,人们的反应就越社会化。要让应聘者像接受人类面试官一样接受AI 面试官,就要打造类真人面试体验,减少应聘者的不适感,缓解应聘者对AI 面试官的抵触心理。首先,在AI 面试官外在形象方面,通过设计动态、宜人、同性别的AI面试官,使其外在形象更加亲切,可减少应聘者的不适感。研究表明,相比静态的AI 面试官,面带微笑、小幅度的手势动作,微微点头等动态特征更能给应聘者以自信和鼓励,脸上带有微笑的面试官比嘴角向下一脸严肃的面试官更能减轻应聘者的焦虑和压力;相比性别相异的AI 面试官,与应聘者性别相同的面试官更值得信赖。其次,在AI 面试官语言风格方面,通过设计高情感语言风格和使用较多礼貌用语的AI 面试官,能有效减缓应聘者的抗拒和排斥。研究发现,相比于语言较简洁、低情感表达的严肃型AI 面试官,语言带有积极情感并多采用礼貌用语的宜人型AI 面试官给应聘者带来的压力和焦虑更少。此外,将AI 面试官的语言设计为“十分感谢您的回答”比设计为“谢谢”更易减缓应聘者的焦虑。
增加AI 面试官的个性化问答设置,为应聘者提供展现特长与能力的机会和场景,可减少应聘者的质疑与排斥。Chuan Qin 等开发的个性化问题推荐系统DuerQuiz,通过挖掘互联网上丰富的招聘数据以及与岗位要求相关的工作技能数据,构建工作技能图谱,在面试问题设置上实现岗位要求和应聘者经历之间的平衡。DuerQuiz 系统在2018 年百度校园招聘中的应用结果表明,DuerQuiz 在面试评估中的甄别能力更强,且DuerQuiz 能够获得满意的用户体验,但该项技术还需继续加强有关个性化问答设置的研究,以使面试过程更加自然流畅,减少应聘者对AI 面试官的不满和抗拒。
(二)提高算法透明性,增强面试结果的可解释性。透明性和可解释性是建立和维持人们对人工智能系统开发者和人工智能系统本身信任的关键,也是人工智能推广运用的前提条件。提高算法透明性,增强面试结果的可解释性可有效减缓应聘者对AI 面试官的质疑和排斥。
针对AI 面试官的算法偏见,可通过消除原始偏见数据集、复检AI 面试结果来改善。首先,算法偏见的原始数据来源于它所模拟的人类行为,因此算法偏见实质上是人类行为偏见,而与人类行为偏见相比,算法偏见更容易被检测和消除,通过消除存在偏见的数据可消除算法偏见,保持算法客观,进而保证面试结果的公平性。其次,面试结束后,人类面试官可通过抽查AI 面试存储数据、复检AI 面试结果以检测其结果的合理性,以此保障面试过程和结果的公平性。
此外,解决人工智能“黑箱”难题,向应聘者提供个性化面试反馈,增强面试结果的可解释性,有利于增加应聘者对AI 面试官的信任度。人工智能作为类人类智能,在做出结论时都必须解释其是如何行为的。面试结束后主动为应聘者提供精准、个性化的面试反馈,包括面试成绩、得分原因和改进建议,并利用说服手段说服应聘者,既有利于应聘者取长补短,也有利于减少应聘者对AI 面试官的不信任与抗拒。
(三)研发新技术,增强应聘者与AI 面试官的交互性。针对应聘者与AI 面试官的单向交互模式所引发的焦虑以及感知到的表现机会减少,新技术AI 对话机器人ChatGPT 有望突破这一局限,提升应聘者与AI 面试官的互动交流体验,增强应聘者展现特长和能力的欲望和行为,进而减少应聘者对AI 面试官的不满和排斥。ChatGPT 由人工智能研究实验室OpenAI 于2022 年11 月30 日推出,上线短短5 天,用户数量突破100万,OpenAI 采用全新的“从人类反馈中强化学习”的训练方式对ChatGPT 进行训练,相比于之前模型的“人工智障式”回答,ChatGPT 可以很好地模拟人类的语言,与用户进行更加自然的互动和交流,理解能力和交互性表现更强,并能根据上下文语境,给出恰当的回答,用户使用体验大幅提升。虽然ChatGPT 还面临诸多挑战,但ChatGPT 回答和处理不同领域问题的能力、与用户进行更加自然的互动是现今AI 面试官所欠缺的,在保障内容可信以及解决该对话模型的成本问题的前提下,将ChatGPT 运用于招聘行业可让应聘者与AI 面试官的互动交流更加自然,从而提升应聘者的使用体验,减少应聘者对AI 面试官的抗拒和排斥。
(四)引导应聘者用科学的思维方法看待AI 面试官。针对应聘者对AI 面试官技术风险的认知偏差,需要政府、学校、媒体和科研机构联合起来、共同努力,通过向人们科普人工智能的相关知识,如人工智能的发展状况、遇到的伦理困境等,引导人们用科学的思维方式去看待包括AI 面试官在内的人工智能的发展。尤其是媒体,应客观、真实、全面地进行报道,不误导群众,不信谣不传谣不造谣。只有各方通力合作,才能有效减缓人们对AI 面试官甚至人工智能的质疑、抗拒和排斥,才能有效地促进和推动包括AI 面试官在内的人工智能技术的发展和运用。