动态面孔表情优势效应的心理机制及神经基础*
2015-02-26尹天子冉光明
张 琪 尹天子,2 冉光明
(1贵州师范大学教育科学学院,贵阳 550001)(2贵州省普通高校基础心理与认知神经科学特色重点实验室,贵阳 550001)(3西南大学心理学部,重庆 400715)
人类面孔是我们日常生活中最常见的视觉刺激,其包含着大量而丰富的社会信息,比如他人的性别、年龄、种族和情绪等(Ran,Chen,Pan,Hu,&Ma,2014)。早期的研究者通常把静态面孔表情作为研究对象,但在现实生活中,人们看到的面孔都处于运动状态。为了弥补这一不足,最近几年,有不少研究者开始对动态面孔表情(dynamic facial expressions)进行研究,动态面孔表情作为人类的一种非言语性信号,在人类的人际交往中发挥了非常重要的作用。学者们通常采用表情识别范式、面孔反转范式以及内隐范式来研究动态面孔表情的识别过程,实验结果发现,较静态面孔表情而言,个体在识别动态面孔表情时表现出较好的识别能力,这种社会性知觉优势被称为动态面孔表情的优势效应(the superiority effect of dynamic facial expressions)(Sarkheil,Goebel,Schneider,&Mathiak,2013;Thornton,Mullins,&Banahan,2011)。对动态面孔表情优势效应心理机制和神经基础的研究具有重要的价值,在临床上可以为情绪知觉障碍患者(比如孤独症儿童)的心理生理康复工作提供理论依据。目前动态面孔表情优势效应在国内的研究还相对较少,以下将概述动态面孔表情优势效应的心理机制和神经基础,然后在此基础上对未来的研究进行展望。
1 动态面孔表情优势效应的心理机制
动态面孔表情优势效应的产生主要涉及以下几种重要的心理加工:构形加工、补偿角色和面孔模仿,这些心理过程在人类知觉动态面孔表情的过程中发挥着重要的作用,因而成为动态面孔表情优势效应心理网络模型中的关键部分。
1.1 增强的构形加工
人类处理面孔信息的方式主要涉及以下两种,一种是构形加工(configural processing),另一种是特征加工(feature-based processing)。构形加工,也叫整体加工,是对面部特征间关系信息进行处理的过程,主要表征面孔的整体性信息,反映面孔格式塔,或者是通用的面孔模板(汪亚珉,黄雅梅,2011)。面孔的构形加工通常被细分为三种亚型:一级构型(对人的眼睛、鼻子等一阶信息进行构型)、整体加工(整合面孔特征)和二级构型(感知面孔各特征间的距离)(Lobmaier,Bolte,Mast,&Dobel,2010;Sandford &Burton,2014)。
为了探讨构形加工是否受到面孔运动的影响,Ambadar,Schooler和Cohn(2005)让68名白人大学生被试观看正立和倒置的动态/静态面孔表情,并要求他们判断这些面孔表情所传递的情绪内容,最后用一个五点量表来考察这些被试对自己情绪判断的自信程度。实验结果显示:与知觉静态面孔表情相比,被试在识别动态面孔表情时没有表现出较大的面孔倒置效应(the face-inversion effect,FIE)1面孔倒置效应是指人们对倒置面孔的识别成绩显著低于对正立面孔的识别,且与非面孔物体的倒置效应相比,面孔的倒置效应更大(Yin,1969;汪海玲,傅世敏,2011)。。依据面孔倒置效应的整体加工理论(Wagner,Cohen,&Karen,2012;汪亚珉,黄雅梅,2011),个体在加工正立面孔时,面孔的结构信息很重要,但当面孔被倒置呈现时,这种整体性信息表征就会受到破坏。基于这一理论,面孔倒置效应的大小,可以被认为是一项反映面孔整体性加工的行为学指标,即倒置效应越大,正立面孔的整体性加工就会更强。因此,Ambadar等人(2005)的研究发现被试在知觉动态面孔表情时并未显示出更大的倒置效应表明面孔运动可能不会促进构形加工。
值得注意的是,Ambadar等人(2005)的研究未能观察到面孔运动对构形加工的增强效应,其原因可能在于他们的实验采用的是一种外显的表情判断任务。有研究发现个体在外显的任务中拥有较多的处理面孔信息的认知资源,这使得面孔运动的优势效应很难发挥作用(Frühholz,Jellinghaus,&Herrmann,2011)。为了弥补上述研究的不足,Thornton等人(2011)采用了经典的内隐实验范式。在该实验中,研究者给被试呈现静态和动态的正立/倒置面孔表情图片,被试的任务是判断这些面孔的性别。实验结果发现被试在知觉动态面孔表情时表现出较大的面孔倒置效应,这表明面孔运动促使知觉者采用了一种更为整体的编码方式。依据Thornton等人的观点,人类是知觉面孔的专家,通常会采用一种整体的方式去知觉他人的面孔,而运动可以使得这种完型(整体加工)更加的牢固、不易分解。总之,面孔运动增强了面孔的构形加工水平。但这一结论还需要更多实验证据的支持。比如,可以考察面孔运动与面孔异族效应之间的关系。异族效应是指个体在识别其他种族的面孔时表现出较差的识别成绩,该效应的一种理论解释是个体在知觉异族面孔时采用了一种非整体的加工方式(Ran,Zhang,Chen,&Pan,2014)。如果有研究发现面孔运动可以降低面孔的异族效应,就可以说明面孔运动使得个体采用一种整体的加工方式去知觉异族面孔,从而为上述研究结论提供新的证据。
1.2 动态补偿角色
除加强面孔表情的构形加工,面孔运动还具有补偿作用。Kätsyri和Sams(2008)让两组随机分配的成人被试都观看抽象(电脑合成面孔)和自然(来自于情绪面孔图片库的面孔)的面孔表情刺激,且两组被试的任务相同,即先对面孔表情刺激的情绪类型(愤怒、厌恶、恐惧、高兴、悲伤和惊奇)进行判定,然后在等级量表中评价这些刺激的自然性,而唯一不同的是其中一组被试观看静态呈现的刺激,而另一组则观看动态的刺激。实验结果显示当被试观看抽象面孔材料时,他们表现出明显的动态面孔表情优势效应,而当这些被试在观看自然面孔时,却并未表现出对动态表情刺激的知觉偏好,即知觉静态和动态的面孔表情的能力无显著差异,这表明面孔运动所产生的促进作用在相关信息不完整或不足的情况下更容易被观察到,即一种补偿作用(Kätsyri &Sams,2008)。
为了进一步探讨面孔运动的补偿作用,Cunningham和 Wallraven(2009)在实验中使用了三类不同分辨率的动态面孔表情刺激,即完整的全脸面孔(animated full-surface faces)、线框面孔(wireframe faces)和点-线面孔(point-light faces),实验结果发现相比静态面孔表情刺激,三种类型的动态面孔表情刺激都引起了被试更好的识别表现,但这种动态知觉优势在被试识别空间分辨率最低的点-线面孔时最大。最近的一项实验研究也发现了类似的现象,当实验者给被试呈现一些空间和结构信息都非常完整的动态面孔表情材料时,被试却明显地显示出减弱的动态面孔表情优势效应(Fiorentini &Viviani,2011)。与以往的研究有所不同,Fiorentini和Viviani(2011)的研究结论从另一个侧面证实了面孔运动的这种补偿作用。
综上所述,面孔运动具有一种特异性的补偿作用。具体而言,就是当面孔的一些静态知觉信息(比如结构、空间或者其他信息)相对不足或者是不存在时,面孔运动会引起更大的动态面孔表情优势效应(Fiorentini &Viviani,2011;Krumhuber,Kappas,&Manstead,2013)。这一现象可能是由于人类不断适应社会环境、不断进化的结果(Krumhuber et al.,2013)。面孔运动的这种动态补偿作用在临床工作中具有非常重要的应用价值,比如它能够为面孔识别能力受损患者的康复工作提供理论依据,其原因是这些患者通常表现为对静态知觉信息的识别损伤。依据面孔运动补偿作用的观点,当面孔识别障碍病人不能运用静态的知觉信息去识别他人的面孔时,即静态知觉信息不存在时,面孔运动在某种程度上可以弥补这种知觉缺陷。经过长期且有针对性的行为训练,这些患者可以构建新的识别他人面孔的认知机制,最终达到康复治疗的目的。
1.3 提高的面孔模仿能力
面孔模仿(facial mimicry)是指个体对他人面孔信息的一种有意识或无意识的模拟,从而使得自己的面部所传递的信息与他人保持一致(Sato,Fujimura,&Suzuki,2008)。相比静态面孔表情,动态面孔表情会诱使个体产生一种更强的、更频繁的面孔模仿。在Maringer,Krumhuber,Fischer和Niedenthal(2011)的研究中,实验组被试观看动态的视频剪辑,这些视频中会出现一些真/假微笑的面孔表情,被试的任务是模仿视频中的微笑,并评估这些微笑的真实程度;而控制组被试则观看静态的微笑面孔表情,这些被试需要完成与实验组被试相同的实验任务。最后的结果显示实验组中的被试可以准确地区分动态视频剪辑中的真假微笑,而控制组中的被试却很难对面孔微笑的真假性进行判定,这说明面孔运动可以促进个体的面孔模仿能力,从而使得个体对于面孔表情的知觉更加敏感(Maringer et al.,2011)。有研究者认为,面孔表情运动所传达的动态信息能够诱发个体的外在特异性行为反应和内在的动机,这会激发个体对他人的面孔表情进行模仿,而面部模仿所引起的具身化肌肉运动可以有效地将情绪感受以内在体验的方式反馈给知觉者,这种感受到的情绪体验会影响个体的情绪知觉敏感性,最终促进个体的表情加工(Krumhuber et al.,2013)。
最近,Sato,Fujimura,Kochiyama和Suzuki(2013)对面孔运动与面孔模仿之间的关系进行了深入的探讨,他们让被试观看一系列动态和静态的面孔表情,并运用面部肌电扫描技术(electromyography,EMG)同步记录被试的皱眉肌和颧大肌运动,其实验结果发现这些面部肌肉的活动在被试知觉动态面孔表情时运动程度显著增强,该结果表明动态面孔表情的呈现确实促进了知觉者的面孔模仿。以往的研究发现动态面孔表情刺激会激活人类的镜像神经元系统,而该系统在面孔模仿中发挥了十分重要的作用(Sato &Yoshikawa,2007a)。Korb,With,Niedenthal,Kaiser和Grandjean(2014)的研究也采用了面部肌电扫描技术,并进一步证实了动态面孔表情刺激对个体面孔模仿的影响。
上述研究也有不足之处,即从未明确地区分面孔肌肉运动与情绪动态化。Sims,van Reekum,Johnstone和Chakrabarti(2012)认为人类的面部是由不同形状的肌肉单元组成,这些肌肉的运动可以有效地促进知觉者的面孔模仿能力,从而为知觉者提供相关的情绪反馈信息,最终促进了对表情的识别。与面部肌肉运动有所不同,情绪动态化重点关注不同类型表情间的变化,比如,由高兴表情变化到生气表情或者由中性表情变化到高兴表情。Palumbo和Jellema(2013)认为情绪间的这种变化可能不会促进知觉者的面孔模仿能力,其原因是不同类型表情之间的变化会引起一种内隐的情绪预期效应,例如,当被试知觉到他人的面部表情由生气表情变化到中性时,被试倾向于认为他人此时的情绪是高兴的而不是生气的,这种主观性的情绪预期会干扰知觉者真实的面孔模仿。因此,探究上述两种运动与面孔模仿能力之间的关系将有助于进一步明晰动态面孔表情优势效应的内在机制。
2 动态面孔表情优势效应的神经基础
动态面孔表情优势效应与多种心理过程有关,这方面的研究虽然取得了丰硕的成果,但对该效应内部作用机制的理解不应该是单一的,还需要对其神经基础进行探讨。在动态面孔表情优势效应的神经网络中,存在一个核心的神经网络,即颞-枕相关脑区的连接,由该神经网络向外延伸的相关脑区被称之为扩展的神经网络。其中核心的神经网络主要负责早期的知觉编码和刺激的运动加工,而延伸网络与个体的面孔模仿、刺激的动态表征等有关。
2.1 核心的神经网络
核心的神经网络,即颞-枕相关脑区的连接,简称颞枕联合区。颞叶(temporal lobe)位于大脑的外侧裂下部,主要包括梭状回面孔区(fusiform face area)、颞上沟(superior temporal sulcus )、双侧颞中回(middle temporal gyrus bilaterally)、颞下回(inferior temporal gyrus)等脑区。而枕叶(occipital lobe)则涉及枕下回(the inferior occipital gyrus)、枕中回(middle occipital gyrus)等。以上脑区共同构成了动态面孔表情优势效应神经网络的关键部分。
为了研究动态面孔表情优势效应的核心脑区,Sato,Kochiyama,Yoshikawa,Naito和Matsumura(2004)在实验中采用了空间分辨率较高的 fMRI技术(功能磁共振成像,functional magnetic resonance imaging),其结果发现动态面孔表情引起了枕下回、双侧颞中回、颞上沟等脑区更强烈的激活。但这一研究并未探究各个脑区之间的关系。最近,随着 fMRI技术的不断成熟和发展,一些能够有效探讨各脑区间连接的数据处理方法在认知神经科学研究领域得到广泛应用。比如,Foley,Rippon,Ngoc Jade,Longe和Senior(2012)在被试进行表情判断任务时,同步采集了相关的脑成像数据,然后运用连通性分析技术考察了各脑区之间连接性的强度,结果发现当被试观看动态面孔表情时,枕下回与颞上沟之间的连接性显著增强。以往的研究发现枕下回负责视觉刺激的早期加工,它将外部的信息传送给颞下回,而颞下回对运动敏感,因此它们之间连接性的强弱与动态面孔表情识别有关(Haxby,Hoffman,&Gobbini,2000)。
对精神疾病患者的研究也证实了颞-枕核心神经网络在人类知觉动态面孔表情过程中发挥的重要作用。比如,在Decety,Skelly,Yoder和Kiehl(2014)的实验中,首先依据黑尔精神病性量表(Hare Psychopathy Checklist-Revised,PCL-R) 的得分将80名监狱劳教人员分成高、中、低三组,然后让他们观看不同情绪类型的动态面孔表情图片,并运用fMRI进行同步大脑扫描。实验结果发现,与精神病性得分低的被试相比,高分组被试在知觉动态面孔表情时大脑的颞-枕相关脑区(比如枕下回、梭状回和颞上沟)表现出较低的激活,暗示这些脑区在个体识别动态面孔表情的过程中发挥了重要作用(Decety et al.,2014)。精神病人在知觉动态面孔表情时的这种脑区的异常表现主要是因为他们的情绪加工能力以及处理运动信息的能力受到严重的损伤(Decety et al.,2014;Hadjikhani et al.,2014)。Sato 等(2004)和 Foley 等(2012)的研究以正常被试为研究对象,从正面直接验证了颞-枕相关核心脑区与动态面孔表情优势效应之间的关系,而 Decety等(2014)则以精神病人为被试,间接地证实了这一研究问题。
2.2 扩展的神经网络
颞-枕核心脑区是动态面孔表情优势效应最为关键的神经网络,在个体识别动态面孔表情的过程中发挥着重要的作用。随着动态面孔表情相关研究成果的不断丰富,颞-枕核心网络被发现正沿着两个方向扩展,一是向颞-枕核心脑区之外的广大皮层相关脑区扩展,二是向皮层下的脑区扩展,前者涉及额下回(inferior frontal gyrus)、顶下小叶(inferior parietal lobule)等,而后者主要与杏仁核(amygdala)有关。
2.2.1 颞-枕核心脑区之外的皮层脑区
有研究者指出在面孔加工的神经系统中,非视觉区域扩展子系统中的某些皮层脑区(比如额下回)与面孔运动有关(Foley et al.,2012),暗示这些脑区可能是动态面孔表情优势效应扩展神经网络的组成部分。这一观点得到了Sato,Toichi,Uono和 Kochiyama(2012)的一项以孤独症患者(autism spectrum disorders,ASD)为被试的实验支持,研究者让孤独症患者和健康被试观看动态和静态的面孔表情,结果发现孤独症患者在知觉动态面孔表情时,其大脑的额下回表现出较低的激活,该结果暗示额下回与动态面孔表情有关。Sato等(2012)人认为孤独症患者表现出较低的额下回脑区的激活,其原因是这些患者没有形成良好的面孔模仿能力,而较强的面孔模仿能力与个体知觉动态面孔表情有关。
最近的研究者认为大脑顶叶可能在编码动态面孔表情的过程中发挥着重要的作用(Sarkheil et al.,2013)。为了证实这一推论,在Sarkheil等(2013)的 fMRI实验中,研究者让被试观看不同情绪强度的动态和静态面孔表情,并执行情绪强度判定任务,结果显示被试在观看动态面孔表情时,其顶下小叶(inferior parietal lobule)的激活程度显著提高,这表明顶下小叶会影响人类对他人动态面孔表情的识别。顶下小叶是一个与高级命令有关的脑区,该脑区对外在刺激的动态表征(dynamic representation,动态表征是指动态信息或刺激的运动轨迹在人类大脑中的内部再现)十分敏感,因而动态面孔表情能够诱发较强的顶下小叶激活(Sarkheil et al.,2013)。
上述研究表明,动态面孔表情优势效应的神经网络不仅与颞-枕核心脑区有关,而且还延伸到核心脑区之外的相关皮层脑区,比如额下回、顶下小叶等。这些延伸的皮层脑区在动态面孔表情优势效应的神经网络中同样发挥着非常重要的作用,它们主要参与人类大脑对动态面孔表情所传递信息的深层次和精细加工(Ulloa,Puce,Hugueville,&George,2014;Sato et al.,2012)。
2.2.2 扩展到皮层下相关脑区
动态面孔表情优势效应的神经网络除沿着大脑的皮层区域扩展,还可以延伸到皮层下的相关脑区,比如杏仁核。在最近的一项 fMRI实验中,研究者给被试呈现动态和静态的面孔表情,这些人脸的眼睛注视方向分为两种,一种是直视被试,另一种是忽视(不注视)被试,实验结果发现动态-直视的面孔表情更能引起被试杏仁核脑区的激活(Sato,Kochiyama,Uono,&Yoshikawa,2010)。Sato和 Yoshikawa(2007b)认为,相比静态面孔表情,动态面孔表情更为真实,这种具有生态优势效应的动态视觉刺激有利于目光注视(一种社会性注意线索)发挥线索提示效应,这使得被试投入更多的注意资源去识别他人的面孔表情。在情绪研究领域,杏仁核的激活程度反映了人类的情绪加工,因此动态-直视的面孔表情可以诱发较强的杏仁核激活(Whalen,1998)。
为了更明确地考察杏仁核与动态面孔表情知觉之间的关系,Sato,Kochiyama和 Yoshikawa(2010) 简化了实验设计,所有被试只需要完成一个简单的表情评定任务,对采集到的脑成像数据分析后发现,正/负性动态面孔表情诱发的杏仁核激活水平都显著高于静态面孔表情,该结论充分地说明杏仁核是一个与动态面孔表情识别有关的重要脑区。神经解剖学方面的一些研究者认为杏仁核的解剖结构决定了它在知觉动态面孔表情过程中所应该发挥的作用(Kim et al.,2011;Tumkaya et al.,2014)。具体而言,在人类大脑的高级视觉区(如颞上沟)存在一些对动态刺激十分敏感的细胞群,这些细胞群有效地将收集到的动态信息投射到杏仁核,因此可以观察到动态面孔表情诱发了被试较强的杏仁核激活(Kim et al.,2011)。综上所述,动态面孔表情优势效应的神经网络包括核心网络和扩展网络,并且他们各自发挥着不同的作用。但是,对于该神经网络的理解不应只局限目前所发现的这些脑区,将来的研究还需进一步关注其他相关的脑区,比如脑岛(insula)、小脑(cerebellum)等(Alves,2013)。
3 总结与展望
动态面孔表情优势效应的心理机制和神经机制是其作用机制的两个方面,对它们的研究可以更全面地明晰动态与静态面孔表情之间的知觉差异,其中心理机制包括构形加工、补偿角色和面孔模仿能力,而神经基础则涉及核心的神经网络和扩展的神经网络。但该领域的研究仍有不足,需要进一步完善,未来研究可以从以下几个方面展开。
3.1 完善延伸的神经网络
尽管以往的研究发现动态面孔表情优势效应的延伸网络与一些重要的脑区有关(比如额下回、顶下小叶和杏仁核),但这些发现并不能清晰地阐明动态面孔表情优势效应的延伸神经网络(Sarkheil et al.,2013)。正如 Sarkheil等人(2013)所描述的那样,动态面孔表情优势效应的延伸神经网络可以扩展到核心网络之外的广大脑区,不应局限于目前研究所发现的这些脑区,即其他皮层区域以及皮层下组织都有可能是这一延伸神经网络中的重要组成部分。对这一延伸神经网络的不断扩展,将有助于完善动态面孔表情优势效应的神经网络以及深入了解其内部机制。因此,在今后的研究中,一方面要探讨其他皮层组织与动态面孔表情识别之间的关系,如中央后回、旁中央小叶、前扣带回和楔前叶等皮层组织(Sarkheil et al.,2013);而另一方面,应重点关注皮层下的脑区,比如小脑(Alves,2013)。
此外,以往的研究在探讨延伸神经网络时主要采用的是 fMRI技术,虽然该技术可以很好地构建以解剖结构为基础的神经网络,但受限于较低的时间分辨率,目前的研究无法探究特定加工阶段的延伸神经网络(Kim et al.,2011)。个体对动态面孔表情的加工毕竟是一个复杂的心理过程,这一过程可以被区分成不同的加工阶段(Recio,Schacht,&Sommer,2014),在各个阶段,延伸神经网络的具体认知功能以及涉及的相关脑区都会存在差异。今后的研究可以采用同步 EEG-fMRI技术(雷旭,刘欢,李红,2013),该技术具有较高的时空分辨率,可以精细地对不同加工阶段的延伸神经网络进行考察。在实际操作中,该技术保证了多模态研究过程中被试状态的统一性,同步采集可以保证实验环境、被试的情绪等高度一致(雷旭等,2013)。
3.2 拓展动态面孔表情优势效应的心理机制
以往研究表明,动态面孔表情优势效应的心理机制主要包括:构型加工、补偿角色和面孔模仿(Maringer et al.,2011;Thornton et al.,2011),但上述心理过程并非完全孤立,它们之间可能会存在某种联系,今后的研究应该关注该问题。其次,对动态面孔表情优势效应心理机制的研究不应局限于以上认知过程,最近有研究者在调查孤独症被试时发现他们在知觉动态面孔表情的最后一张图像时表现出了夸大的情绪感受性,这一知觉偏差被称之为动态面孔表情的表征动量(representational momentum,RM)(Uono,Sato,&Toichi,2014)。动态面孔表情的这种表征动量在探测他人面孔的情绪以及预测他人的行为变化方面发挥着关键的作用,暗示这种表征机制很有可能是动态面孔表情优势效应心理机制的重要组成部分,在今后的研究中需要对该机制进行深入而系统的探讨。最后,还应探究脑与心理机制的关系,有研究者认为脑与心理过程可能存在一种对应的关系,脑是心理的物质载体(Dong,Zhang,&Zhou,2005)。Sato等(2012)的研究可以为这一观点提供支持,他们指出孤独症患者在识别动态面孔表情时表现出较低的额下回脑区激活,其原因是这些患者没有形成健全的面孔模仿能力。
3.3 加强动态面孔表情优势效应的发展性研究
动态面孔表情优势效应的相关研究已经取得了丰硕的成果,但这些研究都只对某一特定年龄阶段的被试进行调查(主要是成人被试),并未考虑该效应的发展变化特点。尽管有研究者开始尝试探讨动态面孔表情优势效应的发展性,比如Missana,Grigutsch和Grossmann(2014)的研究以8个月大的婴儿和成年人作为研究对象,但这方面的研究非常有限,几乎没有研究者提供关于这种发展轨迹的具体信息。出现这一现象的原因主要有以下两个方面:其一,婴幼儿处在儿童发展初期,目前相对缺乏有效评估他们面孔识别能力的工具。 其二,成人被试样本量大,方便采集,而婴幼儿年龄小,不方便采集。动态面孔表情优势效应的发展性研究可以为研究者提供一种新的研究思路。因此,今后的工作应加强对该效应的发展性研究,具体可以采用以下三种方法:(1)可运用横向研究的方法探寻儿童与成人被试在识别动态面孔表情时的差异,(2)可运用纵向追踪的个案研究,对某一群体的被试进行长期的追踪研究,(3)可采用聚合交叉的研究方法将上述两种方法相结合(Missana et al.,2014)。
3.4 重点考察面孔表情的刚性运动
面孔的运动分为刚性和非刚性两种。刚性运动(rigid facial motion)是指头部转动,它是相对身体而运动,如点头、摇头,而非刚性运动(nonrigid facial motion)是面部上各个器官的运动,如眨眼、撇嘴等(Foley,2012)。以往的研究在探讨动态面孔表情优势效应时主要围绕非刚性面孔运动所诱发的心理和神经活动,而很少关注面孔运动的刚性特征(Cunningham &Wallraven,2009;Sarkheil et al.,2013)。最近,有研究者指出刚性和非刚性面孔运动都会影响个体对他人表情的知觉(Bülthoff,Cunningham,&Wallraven,2011),这说明探讨面孔的刚性运动有助于丰富动态面孔表情优势效应的相关研究。今后的研究应该同时考察面孔运动的刚性和非刚性特征。在实验中,一种实验条件下呈现只有头部转动的刚性运动表情刺激,而另一种实验条件下则呈现只伴有面孔肌肉运动的非刚性运动表情刺激,然后对上述两种实验材料所诱发的心理过程进行比较,从而考察这两种面孔运动在人类知觉他人表情的过程中各自发挥的作用,这将有助于明晰动态面孔表情优势效应内在的发生机制,即这种优势效应是源于刚性还是非刚性运动,或者是两者共同作用的结果。
3.5 运用虚拟现实技术考察动态面孔表情的优势效应
尽管人类是识别面孔的专家,但他们对面孔表情的识别会受到环境的影响。以往的实验在研究面孔表情时,通常是在电脑的黑色屏幕中呈现静态表情刺激,而当研究社会和情感事件时,这种在黑色屏幕中呈现的刺激不可能重新创造出社会交互作用的各个方面,即使是动态表情刺激,也会因缺乏情景浸入(情景浸入是指知觉者认为自己就处在周围的环境中)而产生一种非真实感(Simões,Amaral,Carvalho,&Castelo-Branco,2014)。为了解决这一问题,Simões等人(2014)在其研究中提出可以尝试利用虚拟现实技术来改善动态面孔表情研究的生态效度,这种浸入式的刺激呈现方式能提高场景的现实性,从而使得实验中的动态面孔表情更接近我们在社会互动中所观察到的面孔表情。这种虚拟现实技术是由一个 3D的投影设备和一个精密定位的追踪器组成,被试被要求带上 3D眼镜和定位追踪的红外线发射器,其目的是让他们产生一种浸入式的感觉(Klein et al.,2013;Merchant et al.,2012)。此外,虚拟现实技术可以帮助研究者设计出不同的虚拟社会环境,这有助于考察复杂的社会环境对个体识别动态面孔表情的影响。 综上所述,今后的研究应该注重采用虚拟现实技术来研究动态面孔表情的优势效应。
雷旭,刘欢,李红.(2013).睡眠的同步 EEG-fMRI 研究述评.心理科学进展,21,448–457.
汪海玲,傅世敏.(2011).面孔倒置效应的研究与理论述评.心理科学进展,19,1588–1594.
汪亚珉,黄雅梅.(2011).面孔识别中的构形加工与特征加工.心理科学进展,19,1126–1137.
Alves,N.T.(2013).Recognition of static and dynamic facial expressions:A study review.Estudos de Psicologia,18,125–130.
Ambadar,Z.,Schooler,J.W.,&Cohn,J.F.(2005).Deciphering the enigmatic face-the importance of facial dynamics in interpreting subtle facial expressions.Psychological Science,16,403–410.
Bülthoff,H.H.,Cunningham,D.W.,&Wallraven,C.(2011).Dynamic aspects of face processing in humans.In S.Z.Li&A.K.Jain(Eds.),Handbook of face recognition(pp.575–596).London,The United Kingdom:Springer-Verlag.
Cunningham,D.W.,&Wallraven,C.(2009).The interaction between motion and form in expression recognition.In B.Bodenheimer &C.O’Sullivan(Eds.),Proceedings of the 6th Symposium on Applied Perception in Graphics and Visualization(APGV2009)(pp.41–44).New York:APGV.
Decety,J.,Skelly,L.,Yoder,K.J.,&Kiehl,K.A.(2014).Neural processing of dynamic emotional facial expressions in psychopaths.Social Neuroscience,9,36–49.
Dong,Q.,Zhang,H.C.,&Zhou,X.L.(2005).Mathematical cognition:Brain and cognitive research and its implications for education.Journal of Beijing Normal University(Social Science Edition),(3),40–46.
Fiorentini,C.,&Viviani,P.(2011).Is there a dynamic advantage for facial expressions?Journal of Vision,11,17.
Foley,E.(2012).A multimodal investigation of dynamic face perception using functional magnetic resonance imaging and magnetoencephalography(Unpublished doctorial dissertation).Aston University,Birmingham,USA.
Foley,E.,Rippon,G.,Ngoc Jade,T.,Longe,O.,&Senior,C.(2012).Dynamic facial expressions evoke distinct activation in the face perception network:A connectivity analysis study.Journal of Cognitive Neuroscience,24,507–520.
Frühholz,S.,Jellinghaus,A.,&Herrmann,M.(2011).Time course of implicit processing and explicit processing of emotional faces and emotional words.Biological Psychology,87,265–274.
Hadjikhani,N.,Zürcher,N.,Rogier,O.,Hippolyte,L.,Lemonnier,E.,Ruest,T.,....Gillberg,C.(2014).Emotional contagion for pain is intact in autism spectrum disorders.Translational Psychiatry,4,e343.
Haxby,J.V.,Hoffman,E.A.,&Gobbini,M.I.(2000).The distributed human neural system for face perception.Trends in Cognitive Sciences,4,223–233.
Kätsyri,J.,&Sams,M.(2008).The effect of dynamics on identifying basic emotions from synthetic and natural faces.International Journal of Human-Computer Studies,66,233–242.
Kim,M.J.,Loucks,R.A.,Palmer,A.L.,Brown,A.C.,Solomon,K.M.,Marchante,A.N.,&Whalen,P.J..(2011).The structural and functional connectivity of the amygdala:From normal emotion to pathological anxiety.Behavioural Brain Research,223,403–410.
Klein,J.,Reuling,D.,Grimm,J.,Pfau,A.,Lefloch,D.,Lambers,M.,&Kolb,A.(2013).User interface for volume rendering in virtual reality environments.InProceedings on Uncertainty in Artificial Intelligence.Faculty of Science and Technology Institute for Vision and Graphics(IVG) Computer Graphics andMultimedia Systems Groop,1–11.
Korb,S.,With,S.,Niedenthal,P.,Kaiser,S.,&Grandjean,D.(2014).The perception and mimicry of facial movements predict judgments of smile authenticity.Plos One,9,e99194.
Krumhuber,E.G.,Kappas,A.,&Manstead,A.S.R.(2013).Effects of dynamic aspects of facial expressions:A review.Emotion Review,5,41–46.
Lobmaier,J.S.,Bolte,J.,Mast,F.W.,&Dobel,C.(2010).Configural and featural processing in humans with congenital prosopagnosia.Advances in Cognitive Psychology,6,23–34.
Maringer,M.,Krumhuber,E.G.,Fischer,A.H.,&Niedenthal,P.M.(2011).Beyond smile dynamics:Mimicry and beliefs in judgments of smiles.Emotion,11,181–187.
Merchant,Z.,Goetz,E.T.,Keeney-Kennicutt,W.,Kwok,O.M.,Cifuentes,L.,&Davis,T.J.(2012).The learner characteristics,features of desktop 3D virtual reality environments,and college chemistry instruction:A structural equation modeling analysis.Computers &Education,59,551–568.
Missana,M.,Grigutsch,M.,&Grossmann,T.(2014).Developmental and individual differences in the neural processing of dynamic expressions of pain and anger.Plos One,9,e93728.
Palumbo,L.,&Jellema,T.(2013).Beyond face value:Does involuntary emotional anticipation shape the perception of dynamic facial expressions?PloS One,8,e56003.
Ran,G.M.,Chen,X.,Pan,Y.G.,Hu,T.Q.,&Ma,J.(2014).Effects of anticipation on perception of facial expressions.Perceptual &Motor Skills,118,195–209.
Ran,G.M.,Zhang,Q.,Chen,X.,&Pan,Y.G.(2014).The effects of prediction on the perception for own-race and other-race faces.Plos One,9,e114011.
Recio,G.,Schacht,A.,&Sommer,W.(2014).Recognizing dynamic facial expressions of emotion:Specificity and intensity effects in event-related brain potentials.Biological Psychology,96,111–125.
Sandford,A.,&Burton,A.M.(2014).Tolerance for distorted faces:Challenges to a configural processing account of familiar face recognition.Cognition,132,262–268.
Sarkheil,P.,Goebel,R.,Schneider,F.,&Mathiak,K.(2013).Emotion unfolded by motion:A role for parietal lobe in decoding dynamic facial expressions.Social Cognitive and Affective Neuroscience,8,950–957.
Sato,W.,Fujimura,T.,Kochiyama,T.,&Suzuki,N.(2013).Relationships among facial mimicry,emotional experience,and emotion recognition.Plos One,8,e57889.
Sato,W.,Fujimura,T.,&Suzuki,N.(2008).Enhanced facial EMG activity in response to dynamic facial expressions.International Journal of Psychophysiology,70,70–74.
Sato,W.,Kochiyama,T.,Uono,S.,&Yoshikawa,S.(2010).Amygdala integrates emotional expression and gaze direction in response to dynamic facial expressions.NeuroImage,50,1658–1665.
Sato,W.,Kochiyama,T.,&Yoshikawa,S.(2010).Amygdala activity in response to forward versus backward dynamic facial expressions.Brain Research,1315,92–99.
Sato,W.,Kochiyama,T.,Yoshikawa,S.,Naito,E.,&Matsumura,M.(2004).Enhanced neural activity in response to dynamic facial expressions of emotion:An fMRI study.Cognitive Brain Research,20,81–91.
Sato,W.,Toichi,M.,Uono,S.,&Kochiyama,T.(2012).Impaired social brain network for processing dynamic facial expressions in autism spectrum disorders.BMC Neuroscience,13,99,doi:10.1186/1471-2202-13-99
Sato,W.,&Yoshikawa,S.(2007a).Enhanced experience of emotional arousal in response to dynamic facial expressions.Journal of Nonverbal Behavior,31,119–135.
Sato,W.,&Yoshikawa,S.(2007b).Spontaneous facial mimicry in response to dynamic facial expressions.Cognition,104,1–18.
Simões,M.,Amaral,C.,Carvalho,P.,&Castelo-Branco,M.(2014).Specific EEG/ERP responses to dynamic facial expressions in virtual reality environments.In Z.Y Tian(Ed.),Proceedings of the International Conference on Health Informatics(pp.331–334).Vilamoura:Springer.
Sims,T.B.,van Reekum,C.M.,Johnstone,T.,&Chakrabarti,B.(2012).How reward modulates mimicry:EMG evidence of greater facial mimicry of more rewarding happy faces.Psychophysiology,49,998–1004.
Thornton,I.M.,Mullins,E.,&Banahan,K.(2011).Motion can amplify the face-inversion effect.Psihologija,44,5–22.
Tumkaya,S.,Karadag,F.,Jellema,T.,Oguzhanoglu,N.K.,Ozdel,O.,Atesci,F.C.,&Varma,G..(2014).Involuntary social cue integration in patients with obsessive compulsive disorder.Comprehensive Psychiatry,55,137–144.
Ulloa,J.L.,Puce,A.,Hugueville,L.,&George,N.(2014).Sustained neural activity to gaze and emotion perception in dynamic social scenes.Social Cognitive and Affective Neuroscience,9,350–357.
Uono,S.,Sato,W.,&Toichi,M.(2014).Reduced representational momentum for subtle dynamic facial expressions in individuals with autism spectrum disorders.Research in Autism Spectrum Disorders,8,1090–1099.
Yin,R.K.(1969).Looking at upside-down faces.Journal of Experimental Psychology,81,141–145.
Wagner,K.,Cohen,S.,&Karen,D.(2012).Influences of familiarity on the face-inversion and other-race effects.Journal of Vision,12,627.
Whalen,P.J.(1998).Fear,vigilance,and ambiguity:Initial neuroimaging studies of the human amygdala.Current Directions in Psychological Science,7,177–188.