计算机性别刻板印象的分类及成因
2022-06-24蔡星颖杨丽娴
蔡星颖 杨丽娴
摘 要 性别刻板印象是关于不同性别群体的固定观念,因其对社会的性别平等产生消极影响而受到世界关注。以往性别刻板印象的相关研究以人类为主体,随着科技进步,计算机也发展出性别刻板印象且常常被人们忽略。基于此,首先区分了两种不同的计算机性别刻板印象,再分别阐述其已有的研究结果、产生原因以及干预思路。未来的研究可以在分类基础上,进一步探索计算机性别刻板印象的其他领域,验证干预方式的效果,促进现实社会和虚拟世界的性别平等。
关键词 性别刻板印象;计算机;人工智能;STEM性别刻板印象
分类号 B84:C91
DOI: 10.16842/j.cnki.issn2095-5588.2022.05.006
1 引言
“嘿,Siri。”“我在。”请问,此时你脑海里的Siri是男声还是女声?几乎所有人都回答:女声。2021年苹果公司发布的IOS 14.5第六个版本,初始化设置增加了一个新项目,即选择Siri的声音,此前Siri的默认设置一直都是女声。市面上其他的语音助手, 小爱同学、 小度、 Alexa、 Cortana等都默认设置为女声,甚至很多语音助手只有女声(Bergen, 2016) 。除了语音助手,其他人工智能产品虽然没有生命,但依然被贴上性别标签,形成计算机性别刻板印象(Eyssel & Hegel, 2012)。性别刻板印象是关于男性和女性群体的固定观念,这些看法虽然能帮助人们在短时间内解读复杂的社会,却忽视了个体差异,可能对他人产生不正确的认知,从而导致偏见和歧视(Amodio, 2014; Ellemers, 2018)。目前性别刻板印象已被证实不仅存在于现实社会,也存在于虚拟的计算机生命(Greenwald, 2017)。
计算机性别刻板印象根据不同对象可分为两类,一类是人类对计算机产品持有的性别刻板印象,另一类是计算机自身携带的性别刻板印象。虽然计算机、机器人等只是通过数字和算法运行,并不具备真实的生命,但这些产品通常具有拟人化特点。拟人化是指非生命物体被赋予了人类的固有属性或特征(Aggarwal & McGill, 2011),最典型的例子就是机器人,它具备酷似人类的外形,可以增强用户的信任度。虚拟生命具备了人类特征,人们自然也会把人类社会的规则应用在计算机身上。性别是人群的基本划分,由此便发展出性别化的计算机产品,如语音助手默认设置成女声,人们也更习惯女性角色的语音助手。这些都属于人类对计算机所持有的性别刻板印象。而计算机自身携带的性别刻板印象是指,虽然算法本身不具有刻板印象,但发明和使用这些算法的人类持有的刻板印象会在计算结果中展示出来(Zuiderveen-Borgesius, 2018)。例如,用计算机输入法预测下一个字,购物网站推送目标群体可能感兴趣的商品,用户的喜好和习惯被各个软件捕捉后再呈现出来。计算机由于学习了人类给予的信息,掌握了现实社会的数据,也开始表现出大众观念,最终形成了携带性别刻板印象的计算机。
随着科学技术的飞速发展,尤其是智能手机的普及,计算机或智能算法的应用越来越广,对人类社会起着举足轻重的作用,关于计算机性别刻板印象的研究也层出不穷。然而以往研究相对独立和零散,只专注于某一领域的计算机性别刻板印象,因而总结不同领域的计算机性别刻板印象显得刻不容缓。同时,现有研究并没有区分以上两种计算机性别刻板印象,往往将其混为一谈,且对它们的关注程度不一样(Ahn et al., 2022)。这两种与计算机有关的性别刻板印象从产生原因、发生过程到干预方式都不相同,因此有必要进行区分。基于此,本文将从人们对计算机持有的性别刻板印象和计算机自身携带的性别刻板印象分别进行综述,梳理领域内的相关研究,为计算机研发人员和普通用户提供避免计算机性别刻板印象的思路。
2 人类对计算机持有性别刻板印象
虽然计算机是非生命产物,但人类往往依据其外表、内在个性、功能等类比现实中的男性或女性。Eyssel和Hegel (2012)开展了一项机器人性别刻板印象实验,研究人员向被试展示两种机器人的图片,一种是长发机器人,另一种是短发机器人,除了发型之外其他特征保持一致。结果显示,被试一致认为短发机器人比长发机器人更有能力,而长发机器人比短发机器人更热情。Ahn等人(2022)也发现了类似的结果,即人们认为女性声音的机器人更热情,男性声音的机器人更有能力,并且女声机器人推荐享乐产品时得到用户更多的认可,男声机器人推荐实用产品受认可度更高。Callaway和Sima’An (2005)在著作Wired for Speech中提到,即使是对没有生命的机器语音,人们也认为男性化声音给予的信息更权威。在一项关于性功能机器人的元分析中,几乎没有包含女性使用男性机器人的研究(González-González et al., 2020),从而形成提供性服务的机器人偏女性化的刻板印象。机器人的内隐个性特征也影响着人们的认知。在典型的男性化岗位(例如出租车公司),人们更相信带有内隐男性特征的机器人(自信, 强势)而非内隐女性特征的机器人(宽容, 温柔)(Kraus et al., 2018)。因此,人类一旦捕捉到机器人外在或内在的性别特征,他们的性别刻板印象就会被激活,并将其应用在机器人身上。
相比技术精湛的机器人,语音助手普及性更大,是计算机智能产物从实验室走向大众生活的重要体现。现代人已无法离开智能手机,人们使用的语音助手95%是手机的自带功能,而世界各国的语音助手几乎都默认女声(Mark, 2019)。韩国市面上常用的五款语音助手,其默认设置全都为女声,其中三款语音助手介绍自己是女性,另外两款虽然没有明确声明性别,但它们都以漂亮、火辣、 苗条等女性化形容词刻画自身形象(Hwang et al., 2019)。早在1878年9月1日,Emma Nutt被贝尔公司录用,成为世界上第一个女性接线员。人们发现这名女性接线员比原来的男性接线员更温柔、更耐心,公司便开始大量培养女接线员,从此接线员成为了女性的典型职业。不仅是接线员,地铁站、火车站、公园等各公共场所的广播,以及各家各户的智能语音设备和手机语音助手,几乎都是女性声音。可见机器人、語音助手这些虚拟生命在不知不觉间走进人们的日常生活后,人类也悄悄为它们贴上了性别标签。
现实社会中,性别刻板印象会造成人才流失、领域性别单一化等问题,如今人们对计算机也产生了性别刻板印象,这将扩大现实中的性别差异。Hwang等人(2019)通过分析语音助手的回复内容,发现它们从多方面塑造了一个年轻漂亮的女性助理形象。此外,语音助手常把自己置于从属地位,讨好用户,接受自己被性化;面对辱骂,语音助手会道歉,请求原谅,积极建立和用户的亲密关系;面对性骚扰,语音助手也会热情回应,例如模仿亲吻的声音或暗示性行为(Hwang et al., 2019)。语音助手默认女声,使用户很自然地将这个无条件服从的虚拟助理想象成一位女性。然而,生活环境会影响人们的刻板印象(Stapel & Lindenberg, 2011),接触的榜样越多,刻板印象也会越深刻(Asgari et al., 2012)。这意味着,女声语音助手被使用得越多,其表达的女性刻板印象对人们的影响越大, 人们越认为女性应该服从、 取悦他人,从而最终导致女性社会地位下降(Mark, 2019)。
为了减轻社会性别刻板印象,世界各领域积极塑造反刻板印象形象,如女校长、 女政治家、 女领导等(Beaman et al., 2009b; Foos & Gilardi, 2019)。 减轻人类对计算机的性别刻板印象也需要生产反刻板印象的数码产品,例如更改语音助手的声音配备:亚马逊的语音助手Alexa于2021年在美国试行男声语音;2020年,Google Assistant新加入男声语音。虽然越来越多的语音助手近年开始添加男声,但很多默认设置还是女声,如谷歌地图和百度地图等,人们需要找到特定的设置界面才能更改目标声音,操作过于繁琐。其实语音助手并不是真实的生命,它们本不应被归类为男性或女性。研究表明,对于区分性别和性别模糊的声音,用户对它们的信任感是没有差异的,即无性别的语音助手依然可以得到人们的信赖(Tolmeijer et al., 2021)。哥本哈根大学语音学家联合研究人员在2019年推出了世界上首个无性别的语音助手Q(https://www.genderlessvoice.com), 无性别计算机将是科技发展的趋势。
3 计算机自身携带性别刻板印象
计算机发展得益于人类科技的进步,同时也被人类的观念影响(Howard & Kennedy, 2020),因此智能机器在现实应用中往往表现出社会性别刻板印象。
在线智能招聘工具多次被证实具有性别刻板印象(Chu et al., 2022; Loftus & Cochran, 2021)。Wijnhoven和Van Haren (2021)发现大学生利用谷歌搜索(Google Search Engine ,GSE)找工作时,女生查询空缺职位的结果多是女性为主的职业,而男生的查询结果没有性别限制;2014年亚马逊试行自主研发的在线招聘工具最后选出的候选人几乎都是白种男性,若简历中包含“女性”一词,还会被系统减分处理;对于性别模糊的领导角色, 软件自动将其识别为男性, 而把助手角色识别为女性(Greenwald, 2017)。计算机智能招聘的性别刻板印象会加剧职业的性别分化,尤其损害了女性就业和发展(Loftus & Cochran, 2021)。
相比人类,计算机具有更高精度的测量和操作,使其在医疗行业大放光彩,但大多数医疗智能算法的设计都忽略了性别维度的影响,造成了治疗、检测的性别刻板印象。在新冠肺炎疫情大流行环境中,为了调查计算机智能模型对不同性别患者健康状况的预测精度,Chung等人(2021)训练和评估了两个独立的模型——一个只使用男性患者的数据,另一个只使用女性患者的数据。结果表明,不同性别数据训练的模型对另一组患者的预测精度都下降了,也就是说,有性别刻板印象的医疗预测模型准确度偏低。这些模型对少数群体的治疗方式与实际病情不匹配,可能会造成严重的医疗事故。例如,使用性别刻板印象的计算机计算麻醉病人的特定风险评分,被低估的风险可能会导致无法挽回的悲剧(O’Reilly-Shah et al., 2020)。医疗智能算法除了临床应用的性别差异,还演化出医疗赔偿或医疗条件的性别差异。例如,由于流行病学研究表明,妇女患抑郁症的比例较高 (Cirillo et al., 2020),则女性可能会被系统要求缴纳更高的保险金额。
执法部门使用面部识别程序辨认犯罪嫌疑人时,识别肤色较深的女性面部图像明显比识别白人男性面部图像时更容易出错,这将导致警察因性别和种族因素做出误判(Gentzel, 2021);当条件相同的男性和女性申请银行贷款时,由于计算机评价女性能力低于男性(Eyssel & Hegel, 2012),系统将更大概率地选择给男性贷款,或收取女性更高的利息;计算机评价女性是低权力、低影响力的政治参与,而男性是高权力、高影响力的政治参与(Wijnhoven & Van Haren, 2021);还有汽车驾驶、自我管理、信用评分、治安预测等方面的计算机应用,其算法几乎都具有严重的性别刻板印象(Weidner, 2020)。
以往人们普遍认为人做的决定无法避免个体偏见,计算机会更客观。但如今计算机也持有了性别刻板印象,它们的计算结果也不再公平。招聘网站的性别刻板印象将导致岗位局限,尤其是会减少女性工作机会,或推荐她们去以女性为主的工作环境, 这将加大该领域的性别单一化程度; 用人单位利用计算机计算复杂的晋升规则,持有領导性别刻板印象的计算机将给予男性更多的升职机会, 女性成为领导便难上加难 (Greenwald, 2017);金融或信贷的性别刻板印象评价会加剧男女的经济差异,进而影响群体的社会地位。
总之,计算机是人类科技的产物,它们所持有的性别刻板印象会导致现实社会的性别差异越来越大。避免计算机自身携带性别刻板印象的方法是建立公平的算法。目前,世界各国逐步建立相关制度来监督算法的公平性(Zuiderveen-Borgesius, 2018),例如在算法学习训练阶段,技术人员需提供性别平等信息。2019年, 中国开始实施电子商务法, 要求电子商务经营者需要为大众提供不针对个人特征的选择(http://www.npc.gov.cn), 保证对不同性别群体的搜索结果一致。Duck Duck Go(DDG)搜索引擎关注求职人员的搜索内容,再结合专家意见展示空缺职位,因此男性和女性求职者的搜索结果和就业机会没有差异,有利于不同职业的性别平等发展(Wijnhoven & Van Haren, 2021)。计算机依赖算法做决策,而算法是可以被改写的,当技术人员建立性别公平的算法,计算机携带的性别刻板印象也将减弱。
4 计算机性别刻板印象的产生原因
Nass等人(1994)提出计算机社会角色理论(Computers are Social Actors, CASA),即现实的社会关系和社会规则在计算机中也存在。因此,不论是人类对计算机产物持有的性别刻板印象,还是计算机自身携带的性别刻板印象,都与现实社会的性别刻板印象息息相关。
4.1 人类对计算机持有性别刻板印象的原因
人类对计算机持有性别刻板印象的原因主要有两个,一是刻板印象内容模型中关于女性高热情和男性高能力的观念,二是STEM领域的从业者几乎都是男性。
4.1.1 刻板印象内容模型
刻板印象内容模型(Stereotype content)可以较全面地概括社会对不同性别人群的刻板印象:高能力的男性和高热情的女性(Fiske et al., 2002)。Fiske等人(2002)在普林斯顿大学最先开始了刻板印象的系列研究,经过多轮调研,他们发现人们对某个群体的刻板印象往往是从能力和热情两个维度进行评价的。能力维度与目标达成有关,包括有能力、有竞争力、自信、独立、聪明五个特质;热情维度与社交相关,包括热情、宽容、和善、真诚四个特质(佐斌等, 2021)。并且这两个维度常常是互补的,即某群体在其中一个维度上的高评价意味着在另一个维度上的低评价(Fiske, 2018),因此男性被认为是高能力低热情,女性是高热情低能力(Wen et al., 2020; White & Gardner, 2009)。
由于计算机产物多设计成拟人化形象,现实社会中的性别刻板印象也将迁移至计算机。市场对语音助手有高热情需求(Chang et al., 2018),而女性符合高热情的刻板印象(Hentschel et al., 2019; Sczesny et al., 2019),所以语音助手被默认设置成女声。同时,现实中的助理职务多由女性担任,语音助手作为一种虚拟私人助理,其符合传统的刻板印象,可以减少用户的学习成本,有助于产品的普及和使用 (Hwang et al., 2019)。社会普遍认为男性能力更高,给出的建议更权威(Sorokowski et al., 2019),因此人们往往更相信男声机器语音提的建议,或认为权威性高的机器人更男性化(Simon, 2019)。判断长发或女声的机器人更热情,短发或男声的机器人更有能力,都是刻板印象内容模型中对性别群体的不同期望 (Wen et al., 2020; White & Gardner, 2009)。
现实社会对不同性别的刻板印象以热情和能力两个维度为主,人类对计算机产物的性别刻板印象也以高热情女性化计算机、高能力男性化计算机为主。
4.1.2 STEM领域性别单一化
STEM(Science, Technology, Engineering and Mathematics)领域中女性缺乏代表性是人类对计算机产生性别刻板印象的一个现实因素。目前STEM领域性别极度不平衡,尤其是高层管理人员, 几乎都是男性——苹果、 谷歌、 微软等科技公司里女技术员仅占20%左右, 智能计算机的女研究员只有10%到15%(Bamberger, 2014; Charlesworth & Banaji, 2019; Cheryan et al., 2013; Master & Meltzoff, 2020)。一方面,研究表明男性群体相比女性有更深刻的性别刻板印象(Koenig et al., 2011),他们的强烈观念会反映在发明的产品中(Zuiderveen-Borgesius, 2018),因此计算机产物通常具有性别特征,更容易激活人们的性别刻板印象。另一方面,通常人们期待友好、主动的异性关系,在设计过程中,技术人员可能无意识地带入了这种期望。例如,语音助手是时刻陪伴用户的私人助理,对于这种亲密对象,人们可能更期待异性。而语音助手的技术团队几乎都是男性,在设计和试验过程中他们更大概率会选择女性的声音。提供性服务的机器人,项目研发的初衷即是以男性群体的需求为主,产品从发布到市场拓展, 也以男性为主要消费者, 便有了性机器人偏女性化的刻板印象(González-González et al., 2020)。同时,社会存在内群体偏好(Enock et al., 2021),男性研发人员在设计不同智能产品时也偏好本群体的优秀表现,例如将功能强、地位高的计算机设计成男性形象。
总之,STEM领域性别单一化是导致人类对计算机产生性别刻板印象的重要因素。世界各国如今纷纷出台政策、完善制度,鼓励女性积极参与科技领域(Bamberger, 2014; Hoa et al., 2019; Kuhl et al., 2019; Latimer et al., 2019; Ovseiko et al., 2020)。在中国,科教兴国是我们的发展战略, 2021年7月19日,中華人民共和国科技部、全国妇联、教育部等13个部门发布“关于支持女性科技人才在科技创新中发挥更大作用的若干措施”通知,以促进女性就业STEM领域。
4.2 计算机自身携带性别刻板印象的原因
由于计算机只有基于数据库的学习才能在实际中应用,那么其自身携带的性别刻板印象,追根究底是数据库的性别不公造成的。在线招聘工具通常只是被训练成查看简历中的词汇,而不是相关的技能。亚马逊研发的智能招聘系统,以过去十年被采纳的简历为基础训练模型。但过去的候选人大部分是男性,导致招聘系统更青睐男性求职者。因此,仅仅是改变性别或性别化的名字,就能对招聘结果产生巨大影响 (Caliskan et al., 2017)。计算机识别领导角色是男性、助理角色是女性,也是因为在算法训练时学习了大量男领导、女助理的信息 (Greenwald, 2017)。医疗模型训练所用数据库多为以往的病历和健康记录等,但其中有不少不公或侮辱性内容(Himmelstein et al., 2022),演变成医疗计算机的性别刻板印象。
数据库的性别不平等是现实中男女社会地位差异的映射。网上数以亿计的语言材料组成了巨大的语料库,但“Person”或“People”这种概念词并不是中性的,而是优先与男性联系——这是由人类社会中男性占主导地位的刻板印象造成的(Bailey et al., 2022)。虽然计算机拥有巨大的储存空间和高强的学习能力,但算法并不能包罗万象。我们无法知道计算机接收到的信息有多全面,其计算结果是否包含了所有变量。人类在面对有性别差异的语料时,有可能认识到其中的性别偏见或歧视,从而有意识地进行认知调整。但计算机算法只会进一步边缘化少数群体和弱势群体,因为它们还不具备社会道德能力。总之,历史数据存在性别刻板印象,而计算机将比人类更明显地反映出这种历史模式。
为了减少计算机自身携带的性别刻板印象,人类需创建性别平衡的数据集,运用于公平算法开发(Chu et al., 2022)。在训练计算机算法之前, 可以先查看每个数据集中性别群体的占比(Cirillo et al., 2020)。IBM公司2018年發布了人工智能偏见检测工具——AI Fairness 360工具包。该工具包括30个公平性指标,和9个偏差缓解算法。研究人员和开发者可将工具整合至自己的计算机学习模型中,检测性别信息的差异,以减少可能产生的性别刻板印象。已完成训练的智能计算机,可以在产品提交阶段附一份关于性别的道德问题声明,其可能存在的性别刻板印象以及适用场景,便于日后权衡使用(Castelvecchi, 2021)。
5 问题与展望
随着社会进步,性别平等成为全世界的话题。现实社会充斥着种种性别刻板印象、性别不公平,尤其阻碍了女性的发展。计算机技术带来了生活的便利,却少有人发现这些虚拟生命正在悄无声息地传播性别刻板印象。目前越来越多的研究发现计算机性别刻板印象对现实社会中的男女平等产生消极影响(Mark, 2019),且不易察觉。关于计算机性别刻板印象的研究刚刚兴起,相关内容不多,深度不足,导致该领域的研究尚存在许多未解决的问题,未来可从以下三个方面继续探讨。
5.1 明确计算机性别刻板印象的种类
综上可知,计算机性别刻板印象可分为两类:一类是人类对计算机产物持有的性别刻板印象,另一类是计算机自身携带的性别刻板印象。目前相关领域的研究没有对二者进行区分,但两者从对象、产生原因、结果到干预的方式都不相同,因此往后研究有必要先明确计算机性别刻板印象的种类。
前者性别刻板印象的载体是人类。现实社会中人们对不同性别存在各种各样的刻板印象,如认为男人更适合当领导、 工程师, 女人更适合当助理、 护士等(Koenig et al., 2011; Rabie et al., 2020; Smetackova, 2015)。科技发展出的虚拟生命由于存在和人类相似的特征,也成为了性别刻板印象的对象,例如人们认为男机器人更擅长数学,女机器人更擅长语言(Eyssel & Hegel, 2012)。但是,虚拟生命并非真实的生命,抛开现实的性别刻板印象,计算机也不应该被认为具有能力上的性别差异。后者性别刻板印象的载体是计算机,有研究人员称之为AI的性别刻板印象(Greenwald, 2017)。目前AI并不具有真正的智慧,它们只是根据人类给定的算法和公式计算出结果。计算机也未拥有人类的意识,因此其携带的性别刻板印象其实只是人类社会性别刻板印象的一种表现形式。持有性别刻板印象的技术人员发明了携带性别刻板印象的计算机,因此干预时以计算机行业为主要对象。
未来计算机性别刻板印象的研究需在明确刻板印象种类的基础上,进一步考察计算机性别刻板印象的具体内容和干预方式。
5.2 拓宽计算机性别刻板印象的领域
两种不同的计算机性别刻板印象可分别进行领域拓展。其中,人类对计算机的性别刻板印象研究目前集中于拟人化程度较高的机器人、语音助手等产品,其他计算机产物的研究较少。然而科技产物种类繁多,功能迥异,未来人类对计算机的性别刻板印象应该拓展到更多领域。以智能手机为例,各种各样的APP是人们社交、工作、学习的重要工具,不同的APP是否也具有性别刻板印象?人们如何对APP进行性别分类?APP图标颜色是否会对用户的性别刻板印象产生影响?国内常用的支付宝、钉钉、腾讯会议等与工作相关的APP图标多数都是蓝色,美图秀秀、哔哩哔哩、奇迹暖暖等漫画和修图APP多为粉红色。研究表明,早在儿童时期,人们就把蓝色作为男性颜色,粉色作为女性颜色(Navarro et al., 2014),尤其在中国,粉色与女性联系紧密,男性更排斥使用粉色(Li et al., 2020)。手机APP图标颜色的区别是否会影响不同性别群体对软件的使用?技术人员对图标设计和颜色应用的标准是什么?粉色APP是否被认为更女性化,蓝色APP是否更男性化?未来研究可以使用不同颜色的APP考察人们对其功能的态度以及使用意愿。
目前,领域内学者更多关注人们对计算机持有的性别刻板印象,而计算机也会对人类社会表现出性别刻板印象,且它的存在将直接影响人员选拔及资源分配。现在,人们逐渐意识到招聘网站的性别刻板印象影响性别群体的就业,开始鼓励不根据性别做推荐的网站(Wijnhoven & Van Haren, 2021),但是其他领域可能依然使用性别刻板印象的算法并不被发觉。例如微博、小红书等社交平台,新用户注册后系统会根据用户的基本信息推荐关注的内容:它们推荐女性用户关注化妆、服饰、幼儿教育等新闻,推荐男性用户关注科技、军事、国情等信息,甚至会自动为用户关注其推荐内容。一方面,这些内容是依据性别刻板印象而推荐给用户的,不能代表所有群体的想法。另一方面,用户在知晓或不知晓的情况下关注了符合自身性别刻板印象的内容,长此以往会不会影响用户的性别刻板印象?这些都是未来值得研究的方向,不仅能扩充计算机性别刻板印象的研究,还能为干预现实社会的性别刻板印象提供证据。
5.3 探索计算机性别刻板印象的干预方法
计算机性别刻板印象是刻板印象的一个新兴研究方向,当前的研究较为零散、独立,且多关注刻板印象的内容,其干预方法的实际应用研究较少。关于现实社会的刻板印象,目前发展出许多成熟的干预方式,常见的有树立反刻板印象榜样、减轻刻板印象威胁情境、教育人们发展性别观念等(Croft et al., 2021; Hoa et al., 2019; Mathad et al., 2019; Ovseiko et al., 2020)。计算机区别于现实的真实生命,其刻板印象的干预方式也不同。
人类对计算机持有性别刻板印象,干预方式是减轻人们将计算机性别化的倾向,避免计算机性别化发展。一是要意识到计算机并非真实生命,不具备性别属性,人类社会的性别刻板印象不适用于计算机。二是鉴于日常接触会增强人们的刻板印象,计算机产品要避免性别化,例如机器人、语音助手等拟人化产物避免使用性别外形和性别声音。Tolmeijer等人(2021)发现将机器人设置为性别模糊的声音后不仅不会影响用户使用,反而能有效避免人们將机器人与特定性别联系的倾向。 但是, 干预方式不应只停留在产品的外显特征(Ahn et al., 2022; Eyssel & Hegel, 2012),未来研究可加强对计算机内隐性别特征的干预。
计算机自身携带的性别刻板印象,干预思路以建立公平算法为主。例如监督算法的公平性(Zuiderveen-Borgesius, 2018),招聘软件以求职者技能识别为主,计算机决策与专家意见相结合(Wijnhoven & Van Haren, 2021)等。但是,监督工具或专家也无法完全避免计算机产生性别刻板印象。因为这些监督工具的开发者或领域内专家几乎都是男性,性别比例的失衡本身就会产生性别差异的结果(Castelvecchi, 2021)。IBM研究员弗朗西斯卡·罗西(Francesca Rossi)也强调不能依赖偏见检测工具,重点还是在于行业本身的性别平等。因此,干预方式需要更多样化,例如降低大众对计算机的期望,理解计算机的不客观、不准确(Gupta et al., 2021),为招聘人员提供性别刻板印象培训(Hangartner et al., 2021),让AI学习内在规则而非简单的词汇识别(Cirillo et al., 2020),计算机领域内的性别分析 (Tannenbaum et al., 2019)……未来研究可以验证以上干预方式的有效性,并探索新的干预措施。
6 总结
现实社会中性别刻板印象阻碍了性别平等的发展, 性别平等成为全世界的棘手难题(Liu et al., 2019; Moya & Moya-Garofano, 2021);虚拟世界也出现了性别刻板印象,并且计算机没有生命,它们的性别刻板印象更不容易被发觉。但是新近研究不仅展示了虚拟世界也有强烈的性别刻板印象, 还证明了其对现实性别刻板印象的影响(Hwang et al., 2019),这拓宽了当前刻板印象的研究领域。基于此,通过整合国内外相关研究,将计算机性别刻板印象做了分类:人类对计算机持有的性别刻板印象和计算机自身携带的性别刻板印象,分类后使人们对计算机性别刻板印象有了新的认识。还梳理了应对不同刻板印象的干预方式,助益日后该领域的研究,也希望社会和科技人员重视计算机性别刻板印象的消极影响。由于计算机没有人类意识,很多人也不相信它们会危害现实社会。因此,未来需要有更多相关研究,探索计算机性别刻板印象的产生因素、对现实社会的影响以及干预方式,促进虚拟世界和现实社会的性别平等,使计算机更好地造福人类。
参考文献
佐斌, 戴月娥, 温芳芳, 高佳, 谢志杰, 何赛飞 (2021). 人如其食:食物性别刻板印象及对人物评价的影响. 心理学报, 53(3), 259-272.
Aggarwal, P., & McGill, A. L. (2011). When brands seem human, do humans act like brands? Automatic behavioral priming effects of brand anthropomorphism. Journal of Consumer Research, 39(2), 307-323.
Ahn, J., Kim, J., & Sung, Y. (2022). The effect of gender stereotypes on artificial intelligence recommendations. Journal of Business Research, 141, 50-59.
Amaral, L. A. N., Rovira-Asenjo, N., Pietraszkiewicz, A., Sczesny, S., Gumí, T., Guimer, R., & Sales-Pardo, M. (2017). Leader evaluation and team cohesiveness in the process of team development: A matter of gender? PLoS One, 12(10), e0186045.
Amodio, D. M. (2014). The neuroscience of prejudice and stereotyping. Nature Reviews Neuroscience, 15(10), 670-682.
Asgari, S., Dasgupta, N., & Stout, J. G. (2012). When do counterstereotypic in group members inspire versus deflate? The effect of successful professional women on young women’s leadership self-concept. Personality & Social Psychology Bulletin, 38(3), 370-383.
Badura, K. L., Grijalva, E., Newman, D. A., Yan, T. T., & Jeon, G. (2018). Gender and leadership emergence: A meta-analysis and explanatory model. Personnel Psychology, 71(3), 335-367.
Bailey, A. H., Williams, A., & Cimpian, A. (2022). Based on billions of words on the internet, people=men. Science Advance, 8(13), eabm2463.
Bamberger, Y. M. (2014). Encouraging girls into science and technology with Feminine Role Model: Does this work?Journal of Science Education and Technology, 23(4), 549-561.
Beaman, L., Chattopadhyay, R., Duflo, E., Pande, R., & Topalova, P. (2009a). Powerful women: Does exposure reduce bias? The Quarterly Journal of Economics, 124(4), 1497-1540.
Bergen, H. (2016). ‘I’d blush if I could’: Digital assistants, disembodied cyborgs and the problem ofgender. Word and Text, 6, 95-113.
Broverman, I. K., Broverman, D. M., Clarkson, F. E., Rosenkrantz, P. S., & Vogel, S. R. (1970). Sex-role stereotypes and clinical judgments of mental health. Journal of Consulting and Clinical Psychology, 34(1), 1-7.
Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186.
Callaway, C. B., & Sima’An, K. (2005). Wired for speech: How voice activates and advances the human-computer relationship. Computational Linguistics, 32(3), 451-452.
Castelvecchi, D. (2021). Prestigious AI meeting takes steps to improve ethics of research. Nature, 589(7840), 12-13.
Chang, R. C. S., Lu, H. P., & Yang, P. (2018). Stereotypes or golden rules? Exploring likable voice traits of social robots as active aging companions for tech-savvy baby boomers in Taiwan. Computers in Human Behavior, 84, 194-210.
Charlesworth, T. E. S., & Banaji, M. R. (2019). Gender in science, technology, engineering, and mathematics: issues, causes, solutions. Journal of Neuroscience, 39(37), 7228-7243.
Cheryan, S., Plaut, V. C., Handron, C., & Hudson, L. (2013). The stereotypical computer scientist: Gendered media representations as a barrier to inclusion for women. Sex Roles, 69(1-2), 58-71.
Chu, C. H., Nyrup, R., Leslie, K., Shi, J., Bianchi, A., Lyn, A., McNicholl, M., Khan, S., Rahimi, S., & Grenier, A. (2022). Digital ageism: Challenges and opportunities in artificial intelligence for older adults. The Gerontologist, gnab167.
Chung, H., Park, C., Kang, W. S., & Lee, J. (2021). Gender bias in artificial intelligence: Severity prediction at an early stage of COVID-19. Frontiers in Physiology, 12, 778720.
Cirillo, D., Catuara-Solarz, S., Morey, C., Guney, E., Subirats, L., Mellino, S., ... & Mavridis, N. (2020). Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare. NPJ Digital Medicine, 3, 81.
Connor, R. (2017). Warmth and competence: A feminist look at power and negotiation. In C. Travis & J. W. White (eds. ). APA Handbook of the Psychology of Women. Princeton: Princeton University Press.
Croft, A., Atkinson, C., Sandstrom, G., Orbell, S., & Aknin, L. (2021). Loosening the GRIP (Gender Roles Inhibiting Prosociality) to promote gender equality. Personality and Social Psychology Review, 25(1), 66-92.
Eagly, A. H., & Karau, S. J. (1991). Gender and the emergence of leaders: A meta-analysis. Journal of Personality and Social Psychology, 60(5), 685-710.
Eagly, A. H., & Karau, S. J. (2002). Role congruity theory of prejudice toward female leaders. Psychological Review, 109(3), 573-598.
Eckes, T. (2002). Paternalistic and envious gender stereotypes: Testing predictions from the Stereotype Content Model. Sex Roles, 47(3), 99-114.
Ellemers, N. (2018). Gender stereotypes. Annual Review of Psychology, 69, 275-298.
Enock, F., Tipper, S., & Over, H. (2021). Intergroup preference, not dehumanization, explains social biases in emotion attribution. Cognition, 216.
Eyssel, F., & Hegel, F. (2012). (S)he’s got the look: Gender stereotyping of robots 1. Journal of Applied Social Psychology, 42(9).
Fiske, S. T. (2018). Stereotype content: Warmth and competence endure. Current Directions in Psychological Science, 27(2), 67-73.
Fiske, S. T., Cuddy, A. J. C., Glick, P., & Xu, J. (2002). A model of (often mixed) stereotype content: Competence and warmth respectively follow from perceived status and competition. Journal of Personality and Social Psychology, 82(6), 878-902.
Foos, F., & Gilardi, F. (2019). Does exposure to Gender Role Models increase women’s political ambition? A field experiment with politicians. Journal of Experimental Political Science, 7(3), 157-166.
Gentzel, M. (2021). Biased face recognition technology used by government: A problem for liberal democracy. Philosophy & Technology, 34(4), 1639-1663.
González-González, C. S., Gil-Iranzo, R. M., & Paderewski-Rodríguez, P. (2020). Human-robot interaction and sexbots: A systematic literature review. Sensors (Basel), 21(1).
Greenwald, A. G. (2017). An AI stereotype catcher. Science, 356(6334), 133-134.
Gupta, M., Parra, C. M., & Dennehy, D. (2021). Questioning racial and gender bias in AI-based recommendations: Do espoused national cultural values matter?Information Systems Frontiers, 1-17.
Hangartner, D., Kopp, D., & Siegenthaler, M. (2021). Monitoring hiring discrimination through online recruitment platforms. Nature, 589(7843), 572-576.
Hentschel, T., Heilman, M. E., & Peus, C. V. (2019). The multiple dimensions of gender stereotypes: A current look at men’s and women’s characterizations of others and themselves. Frontiers in Psychology, 10(11).
Himmelstein, G., Bates, D., & Zhou, L. (2022). Examination of stigmatizing language in the electronic health record. JAMA Network Open, 5(1), e2144967.
Hoa, N. T., Thuong, N. T. T., Clapham, H. E., Thu, T. T. A., Kestelyn, E., & Thwaites, C. L. (2019). Increasing women’s leadership in science in Ho Chi Minh City. The Lancet, 393(10171), 523-524.
Howard, A., & Kennedy, M. (2020). Robots are not immune to bias and injustice. Science Robotics, 5(48), eabf1364.
Hwang, G., Lee, J., Oh, C. Y., &; Lee, J. (2019). It sounds like a woman: Exploring gender stereotypes in South Korean voice assistants. Extended Abstracts of the 2019 CHI Conference.
Kraus, M., Kraus, J. M., Baumann, M. R. K., & Minker, W. (2018). Effects of gender stereotypes on trust and likability in spoken human-robot interaction. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan. European Language Resources Association (ELRA).
Koenig, A. M., Eagly, A. H., Mitchell, A. A., & Ristikari, T. (2011). Are leader stereotypes masculine? A meta-analysis of three research paradigms. Psychological Bulletin, 137(4), 616-642.
Kubu, C. S. (2018). Who does she think she is? Women, leadership and the ‘B’(ias) word. Clinical Neuropsychologist, 32(2), 235-251.
Kuhl, P. K., Lim, S. S., Guerriero, S., & Damme, D. V. (2019). Developing minds in the digital age: Towards a science of learning for 21st century education,
Paris: OECD Publishing.
Latimer, J., Cerise, S., Ovseiko, P. V., Rathborne, J. M., Billiards, S. S., & El-Adhami, W. (2019). Australia’s strategy to achieve gender equality in STEM. The Lancet, 393(10171), 524-526.
Li, Y., Du, J., Song, Q., Wu, S., & Liu, L. (2020). An ERP study of the temporal course of gender-colorstroop effect. Frontiers in Psychology, 11, 613196.
Liu, E., Iwelunmor, J., Gabagaya, G., Anyasi, H., Leyton, A., Goraleski, K. A., ... & Tucker, J. D. (2019). Women’s global health leadership in LMICs. The Lancet Global Health, 7(9), e1172-e1173.
Loftus, T. J., & Cochran, A. (2021). Artificial intelligence and gender bias in hiring surgeons andbeyond. The American Journal of Surgery, 222(6), 1050.
Mark, R. K., & Han, E. C. (2019). I’d blush if I could. Berlin: EQUALS.
Master, A., & Meltzoff, A. N. (2020). Cultural stereotypes and sense of belonging contribute to gender gaps in STEM. International Journal of Gender, Science and Technology, 12(1), 152-198.
Mathad, J. S., Reif, L. K., Seo, G., Walsh, K. F., Mcnairy, M. L., Lee, M. H., ... & Deschamps, M. M. (2019). Female global health leadership: Data-driven approaches to close the gender gap. The Lancet, 393(10171), 521-523.
Morgenroth, T., Kirby, T. A., Ryan, M. K., & Sudkamper, A. (2020). The who, when, and why of the glass cliff phenomenon: A meta-analysis of appointments to precarious leadership positions. Psychological Bulletin, 146(9), 797-829.
Moya, M., & Moya-Garofano, A. (2021). Evolution of gender stereotypes in Spain: From 1985 to 2018. Psicothema, 33(1), 53-59.
Nass, C., Steuer, J., & Tauber, E. R. (1994). Computers are social actors. Conference on Human Factors in Computing Systems, CHI 1994, Boston, Massachusetts, USA, April 24-28, 1994, Conference Companion. DBLP.
O’Reilly-Shah, V., Gentry, K. R., Walters, A. M., Zivot, J., & Tighe, P. J. (2020). Bias and ethical considerations in machine learning and the automation of perioperative risk assessment. British Journal of Anaesthesia, 125(6), 843-846.
Ovseiko, P. V., Taylor, M., Gilligan, R. E., Birks, J., Elhussein, L., & Rogers, M., et al. (2020). Effect of Athena SWAN funding incentives on women’s research leadership. British Medical Journal, 371, m3975.
Rabie, T., Rossouw, L., & Machobane, B. (2020). Exploring occupational gender-role stereotypes of male nurses: A South African study. International Journal of Nursing Practice, e12890.
Schein, V. E. (1973). The relationship between sex role stereotypes and requisite management characteristics. Journal of Applied Psychology, 57(2), 95-100.
Sczesny, S., Nater, C., & Eagly, A. (2019). Agency and communion: Their implications for gender stereotypes and gender identities. In (pp.103-116). New York: Routledge Press.
Simon, M. (2019, March 11). The genderless digital voice the world needs right now. Wired. Retrieved May 1, 2022, from https://www.wired.com/story/the-genderless-digital-voice-the-world-needs-right-now/
Smetackova, I. (2015). Gender stereotypes, performance and identification with math. Procedia-Social and Behavioral Sciences, 190, 211-219.
Sorokowski, P., Puts, D., Johnson, J., ókiewicz, O., Oleszkiewicz, A., Sorokowska, A., Kowal, M., Borkowska, B., & Pisanski, K. (2019). Voice of authority: Professionals lower their vocal frequencies when giving expert advice. Journal of Nonverbal Behavior, 43(2), 257-269.
Stapel, D. A., & Lindenberg, S. (2011). Coping with chaos: How disordered contexts promote stereotyping and discrimination. Science, 332(6026), 251-253.
Tannenbaum, C., Ellis, R. P., Eyssel, F., Zou, J., & Schiebinger, L. (2019). Sex and gender analysis improves science and engineering. Nature, 575(7781), 137-146.
Tolmeijer, S., Zierau, N., Janson, A., Wahdatehagh, J. S., Leimeister, J. M. M., & Bernstein, A. (2021). Female by default? Exploring the effect of voice assistant gender and pitch on trait and trust attribution. CHI EA’21: Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems.
Weidner, N. U. (2020). Artificial Intelligence, machine learning, and gender bias. In The international encyclopedia of gender, media, and communication (pp.1-5). Nil Uzun Weidner: Rutgers University press.
Wen, F., Zuo, B., Ma, S., Xu, Y., Coley, J. D., & Wang, Y. (2020). Do we see masculine faces as competent and feminine faces as warm? Effects of sexual dimorphism on facial perception. Evolutionary Psychology, 18(4), 1474704920980642.
White, J. B., & Gardner, W. L. (2009). Think women, think warm: Stereotype content activation in women with a salient gender identity, using a modified stroop task. Sex Roles, 60(3), 247-260.
Wijnhoven, F., & Van Haren, J. (2021). Search Engine Gender Bias. Frontiers in Big Data, 4.
Zuiderveen-Borgesius, F. (2018). Discrimination, artificial intelligence, and algorithmic decision-making. Council of Europe, Directorate General of Democracy.
Classifications and Causes of Gender Stereotypes in Computers
CAI Xingying; YANG Lixian
(College of Psychology, Fujian Normal University, Fuzhou 350108, China)
Abstract
Gender stereotypes are fixed ideas about gender groups. They have attracted worldwide attention, because they will produce negative impacts on gender equality in society. In the past, related researches of gender stereotypes focused on human beings. With the advances of science and technology, computers have also emerged gender stereotypes, which are often ignored by people. Based on these, we distinguish two kinds of gender stereotypes in computers and then expound the previous findings, causes, and methods of intervention. Future researches can continue to explore other fields of gender stereotypes in computers, verify the effectiveness of interventions, promote gender equality in real society and the virtual world on the basis of classification.
Key words: gender stereotype; computer; Artificial Intelligence; STEM gender stereotype
通訊作者: 杨丽娴, E-mail: ylixian@126.com