面孔宽高比的自动加工*
2023-11-11汪海玲陈恩光连玉净李晶晶王丽薇
汪海玲 陈恩光 连玉净 李晶晶 王丽薇
面孔宽高比的自动加工*
汪海玲 陈恩光 连玉净 李晶晶 王丽薇
(山东师范大学心理学院, 济南 250358)
研究发现, 高低面孔宽高比(facial width-to-height ratio, fWHR)在表征某男性个体实际攻击性或预测他人评价该男性个体的攻击性行为水平上存在差异, 高fWHR较低fWHR个体不仅有更强的攻击性, 也被他人评价为有更高的攻击倾向。但是, 其中的神经机制尚不清楚, 尤其是非注意条件下二者的加工机制。因而, 本研究以视觉失匹配负波(visual mismatch negativity, vMMN)为指标, 考察非注意条件下高低fWHR加工的神经机制。实验1给被试呈现中性情绪面孔, 要求被试完成注视点大小探测任务。结果发现, 高fWHR在200~500 ms, 而低fWHR在200~250 ms和300~350 ms诱发vMMN, 在300~350 ms高fWHR比低fWHR诱发的vMMN更大。实验2呈现愤怒和恐惧面孔, 结果发现, 愤怒情绪高fWHR在200~250 ms和300~400 ms诱发了vMMN, 而恐惧情绪低fWHR在左半球250~400 ms诱发vMMN。对比实验1和实验2发现, 愤怒情绪较中性情绪降低了高fWHR的vMMN。这些结果表明, 与个体感知攻击性水平密切相关的fWHR的自动加工可能受情绪信息的影响, 愤怒情绪促进高fWHR自动加工, 而恐惧情绪促进低fWHR自动加工; 但可能受情绪自动加工的影响使得愤怒情绪较中性情绪减弱了高fWHR的自动加工程度。
面孔, 宽高比, 情绪, 视觉失匹配负波(vMMN), 自动加工
1 引言
面孔宽高比(facial width-to-height ratio, fWHR)指的是面孔宽与高的比值; 宽指的是面孔左右颧骨最外侧之间的距离, 高指的是眉心和上唇最高点之间距离(Geniole & McCormick, 2015; Haselhuhn et al., 2015)。已有研究多聚焦于面孔宽高比对个体心理状态和社会行为感知的影响(郑治国等, 2017)。研究发现, 面孔宽高比存在性别差异, 男性个体的fWHR较女性个体更大(Weston et al., 2007; Wong et al., 2011), 同时, 女性面孔宽高比与社会行为之间的关系未能得到显著结果(Goetz et al., 2013; Haselhuhn & Wong, 2011); 因而, 关于面孔宽高比的研究多采用男性面孔。大量研究表明, 男性面孔宽高比是预测他人评价该个体不良社会行为水平的可靠指标(Geniole et al., 2015; Haselhuhn et al., 2015)。相比于拥有低fWHR的男性而言, 拥有高fWHR的男性被认为更容易让人感觉受到威胁(Hehman, Leitner, & Gaertner, 2013), 更不可被信任(Costa et al., 2017), 当团体内部成员间存在竞争时也被评价为缺乏合作精神等(Stirrat et al., 2012)。
上述研究的理论基础主要来源于Carré和McCormick (2008)发现的fWHR与攻击性行为间的相关关系, fWHR越高个体表现出来的实际攻击性也越强; 同时, 研究者进一步发现相比于拥有低fWHR的男性而言, 拥有高fWHR的男性也被评价为更具有行为上的攻击性(Carré et al., 2009), 这也被之后的一系列研究所证实(Costa et al., 2017; Geniole et al., 2012; Geniole et al., 2015; Lefevre et al., 2014)。研究者认为, 上述结果可能与雄性激素睾酮这一生理指标有关(Lefevre et al., 2013)。研究发现睾酮与个体表现出来的实际攻击行为有显著正相关关系(Carré et al., 2011), 同时, 高低fWHR也被认为是睾酮浓度水平高低非常可靠的外显指标(Hehman, Leitner, Deegan & Gaertner, 2013; Lefevre et al., 2013)。也就是说, 睾酮分泌量增加可能既增大了个体的fWHR也增强了其实际攻击性行为水平, 因而, 睾酮可能是fWHR和个体实际攻击性水平共变的生理基础。与此同时, 研究者发现个体实际攻击性水平与被感知的攻击性水平存在较高相关性(Carré et al., 2009), 因而睾酮也可能使得高fWHR个体被感知的攻击性水平也较高。但是, 这个解释尚不能明晰高低fWHR信息自身加工上的差异, 尤其是二者时间进程上加工的神经机制。
此外, 研究者认为上述研究结果还可能源于面孔宽高比和面孔情绪间的密切关系。研究发现, 当向被试呈现一张中性情绪面孔时, 被试更倾向于认为高fWHR要表达的是愤怒情绪, 而低fWHR要表达的是恐惧情绪; 而当向被试呈现一张带有愤怒、恐惧或高兴的情绪面孔时, 被试能快速准确地识别高fWHR的愤怒情绪和低fWHR的恐惧和高兴情绪(Deska et al., 2018)。这表明, 面孔宽高比能表达情绪信息且不受面孔自身情绪的影响。最近的一项研究也证实了这一点, 随着面孔宽高比的增加被试对愤怒情绪强度的感知也增加, 而对恐惧情绪强度的感知减弱(Merlhiot et al., 2021)。与此同时, Merlhiot等人(2021)通过测量同一个体不同情绪下的面孔宽高比发现, 个体表现出来的面孔情绪也会影响其实际面孔宽高比的大小; 具体表现为, 与中性情绪相比, 愤怒和恐惧情绪分别使得眉心下移和上移, 上唇上移和下移, 进而分别减少和增加了面孔宽高比中的高度, 而不影响宽高比中的宽度, 因而, 愤怒情绪使得面孔宽高比增加, 而恐惧情绪使得面孔宽高比降低。此外, 愤怒表情意味着表达该表情的个体将要出现攻击性行为, 而恐惧表情意味着表达该表情的个体感知到环境中潜在的威胁信息(Adams et al., 2003), 这可能使得被试感知愤怒表情表达的直接威胁性比恐惧情绪大, 进而得到高低fWHR分别与愤怒和恐惧情绪密切相关。总之, 这些研究表明, 借助面孔宽高比所呈现出的愤怒和恐惧情绪信息可能是面孔宽高比与攻击性行为密切相关的重要线索(Carré et al., 2009)。
虽然研究者从不同视角探讨了面孔宽高比与个体被感知的攻击性行为水平间的关系, 但是, 关于面孔宽高比自身的加工机制知之甚少, 尤其是其自动加工机制, 这对于理解个体快速识别威胁性信号有重要的社会价值。众所周知, 我们的大脑可以快速自动地完成对外界信息的加工, 尤其是对个体生存具有重要意义的社会信息(Haselton & Funder, 2006; Kovarski et al., 2017)。在具有高时间分辨率特点的事件相关电位(event related potential, ERP)技术中能反映大脑前注意自动加工的指标是视觉失匹配负波(visual mismatch negativity, vMMN), 它是指在oddball实验范式中偶然出现的任务无关刺激和经常出现的任务无关刺激在大脑后顶枕区诱发的ERP差异波, 具体表现为偶然出现的刺激较经常出现的刺激诱发的波幅更负(Stefanics et al., 2014)。大量研究发现, 从简单的颜色(Czigler et al., 2002)、线条朝向(Fu et al., 2003)等到复杂的具有重要社会意义的面孔情绪(Stefanics et al., 2012)、性别(Kecskés-Kovács et al., 2013)、年龄(Csizmadia et al., 2021)等视觉刺激均能诱发vMMN。这表明, 我们的大脑不仅可以快速完成对简单视觉刺激的探测, 而且可以对复杂视觉刺激进行自动加工。但是, 面孔宽高比作为表征某个体实际攻击性或预测他人评价该个体攻击性行为倾向的可靠指标, 其自动加工机制如何尚不清楚。因此, 本研究将以vMMN为指标研究面孔宽高比的自动加工机制, 试图为面孔宽高比表征某个体实际攻击性或预测他人评价该个体攻击性行为提供证据和新的视角。
此外, 本研究关注了早期P1和N170成分对面孔宽高比的敏感性。虽然P1对刺激物理属性比较敏感, 但是最近的研究发现, P1能反映面孔知觉信息变化, 面孔二阶构形信息(面孔特征间的距离信息, 如双眼间距和嘴鼻距)较特征信息诱发较大的P1(Wang et al., 2015, 2016, 2020; Wang & Fu, 2018)。同时, 研究发现对面孔刺激较敏感的N170主要反映面孔结构编码并且对面孔构形信息变化较敏感(Eimer, 2011)。由于高低面孔宽高比都属于面孔构形信息, 因而我们预测高低宽高比在P1和N170波幅上都不存在差异。但是, 研究发现N170能区分中性和其他具体情绪面孔(Luo et al., 2010), 并且对面孔眼睛部位信息较敏感(Itier et al., 2006), 眼睛又是识别愤怒和恐惧情绪的较重要部位(Smith et al., 2005), 因而, N170对面孔宽高比的敏感性是否随不同情绪发生变化尚不清楚。再者, 尽管N170成分的时空分布与面孔情绪诱发的早期vMMN相似, 但是研究者认为早期vMMN反映的是视觉不应性, 晚期vMMN (200 ms之后)才反映信息的自动加工(Kimura et al., 2009)。因此, 我们有必要分析N170对不同概率面孔宽高比刺激的敏感性。
总之, 本研究主要以vMMN为指标研究面孔宽高比在前注意加工阶段的神经机制, 同时结合ERP技术高时间分辨率的特点以期揭示高低面孔宽高比的自动加工机制在时序上的变化。实验1采用中性情绪面孔考察没有特定情绪时高低fWHR的自动加工。前人研究发现, 对识别和加工个体身份、种族和情绪等信息起重要作用的面孔二阶构形信息在枕颞叶区可以诱发vMMN (Wang et al., 2022)。据此, 我们预期隶属于面孔构形信息的高、低面孔宽高比信息都会诱发vMMN。但是, 从进化的角度来看, 快速探测到具有威胁性的高攻击性刺激信号对个体生存有重要价值(Haselton & Funder, 2006)。因此, 根据已有研究, 相比于低fWHR, 个体对高fWHR的攻击性感知较高(Carré et al., 2009), 我们进一步预期, 与低fWHR诱发的vMMN相比, 高fWHR诱发的vMMN波幅较大, 时程较长。同时, 结合研究发现的中性情绪高低宽高比面孔在预测他人评价该个体攻击上的差异可能源于其分别被倾向于识别为愤怒和恐惧情绪(Deska et al., 2018), 以及愤怒较恐惧情绪更可能表达直接威胁性信息(Adams et al., 2003), 也可以得到上述实验1的预期结果。实验2采用愤怒和恐惧情绪面孔为解释情绪在fWHR与攻击性行为间关系的作用提供证据。根据已有研究, 高低fWHR分别与愤怒和恐惧情绪密切相关(Deska et al., 2018; Merlhiot et al., 2021), 如果实验1的解释成立, 即具体情绪在面孔宽高比预测他人评价某个体攻击性水平中起作用, 那么我们预期愤怒情绪促进高fWHR的自动加工, 而恐惧情绪促进低fWHR的自动加工。最后, 通过对比实验1和实验2可以考察面孔情绪线索明确性对高低fWHR自动加工程度的影响。
2 实验1:中性情绪fWHR的自动加工
2.1 方法
2.1.1 被试
根据G*Power (Faul et al., 2007)计算, 对于本实验采用的2 (fWHR: 高 vs. 低) × 2 (刺激类型: 标准 vs. 偏差)的被试内实验设计至少需要33名被试(η2 p = 0.06, 检验力: 80%, α = 0.01; Wang et al., 2022)才能得到高低宽高比面孔诱发vMMN的差异。最终招募41名被试(女生19名, 21.05 ± 1.70岁), 所有被试身体健康, 视力正常或矫正后正常, 实验前均签署知情同意书。本实验已得到山东师范大学心理学院伦理研究委员会的批准。
2.1.2 实验材料
本实验所用面孔刺激选自中国面孔情绪图片库(Chinese Facial Affective Picture System, CAFPS, 龚栩等, 2011), 并使用Image J (National Institutes of Health open-source software)软件测量113张男性中性情绪(即图片库中平静情绪)面孔的fWHR——左右颧骨之间的距离(宽度)以及眉心和上唇最高点之间的距离(高度; Carré & McCormick, 2008; Weston et al., 2007), 宽度除以高度得到所有面孔fWHR的平均值和标准差(比值: 1.620 ± 0.080)。根据已有研究(Carré et al., 2013), 高于平均值一个标准差为高fWHR, 低于平均值一个标准差为低fWHR。最终得到3张高fWHR (fWHR: 1.744、1.745、1.781)和3张低fWHR (fWHR: 1.436、1.520、1.520)面孔(图1), 高fWHR值显著高于低fWHR,(4) = 8.669,= 0.001, Cohen’s= 0.962。根据图片库提供的信息, 本实验所使用中性情绪面孔高、低fWHR的情绪认同度分别为80.073% ± 5.362% vs. 76.087% ± 8.490%, 情绪强度的评分分别为5.775 ± 0.075 vs. 5.608 ± 0.138 (1为最弱, 9为最强); 高、低fWHR的情绪认同度和强度值都不存在显著差异(s ≥ 0.466), 这表明, 高低宽高比面孔情绪强度和认同度的差异在一定程度上得到控制, 较少或不影响我们对实验主要结果宽高比机制的分析。我们通过Photoshop CC 14.0 (Adobe Systems)软件对面孔进行处理, 调整其大小为6.6° × 7.7° (170 × 198像素)。
图1 实验刺激图片示例。中性情绪面孔用于实验1, 愤怒和恐惧情绪面孔用于实验2。
2.1.3 实验程序
实验1采用与已有研究相似的反向oddball实验范式(Stefanics et al., 2012; Wang et al., 2014; Wang et al., 2022), 在该范式中同一个刺激在不同block中既是偏差刺激也是标准刺激, 这样可以允许我们考察相同物理刺激诱发的vMMN, 从而减少低级物理刺激属性对ERP成分的影响。正式实验由2个block组成, 每个block共有300个试次, 其中标准刺激240个试次(80%), “+”大小为24号; 偏差刺激30个试次(10%), “+”大小为24号; 目标刺激30个试次(10%), “+”大小为32号, 但是其所呈现的面孔为标准刺激面孔。所有刺激在每个block中随机呈现, block顺序在被试间进行平衡。在一个block中高fWHR作为偏差刺激, 低fWHR作为标准刺激和目标刺激, 因而, 每张高、低fWHR刺激分别呈现10次和90次; 在另一个block中低fWHR作为偏差刺激, 高fWHR作为标准刺激和目标刺激,因而, 每张高、低fWHR刺激分别呈现90次和10次。
每个试次开始时先呈现200 ms注视点“+”, 之后呈现高或低fWHR刺激300 ms, 然后呈现450 ms的反应屏, 最后呈现600~800 ms随机间隔。注视点始终呈现在屏幕中, 被试需要探测面孔刺激呈现时“+”的变化, 当它变大(即由“24”号变为“32”号)时按F或J键。被试的按键反应从刺激呈现屏开始计算, 按键顺序在被试间进行平衡。所有的刺激使用E-Prime 2.0 (Pittsburgh, PA, USA)呈现在19英寸DELL显示器上(分辨率: 1024 × 768像素; 刷新率: 60 Hz), 屏幕中心与被试的距离为60 cm。
2.2 脑电记录与处理
脑电记录使用美国Neuroscan公司生产的EEG系统。被试佩戴64导脑电帽, 以左眼眶额上、下部的两电极记录垂直眼电(VEOG), 以两眼外侧1.5 cm处的两电极记录水平眼电(HEOG)。采集数据时, 信号阻率小于10 kΩ, 采样率为500 Hz, 滤波为0.05~ 100 Hz, 物理参考电极位于CZ和CPZ之间。原始数据由基于MATLAB (R2015a, The MathWorks, Natick, MA)的插件letswave7 (https://letswave.cn)进行预处理, 使用band-pass滤波方式过滤出了0.1~ 30 Hz频率的信号, 采用全脑电极平均的方式进行参考重设, 使用独立成分分析算法识别并去除眼动成分。面孔刺激出现前200 ms至出现后600 ms (−200~600 ms)进行分段, 分段后根据 ± 75 μV的信号范围对所有分段的数据进行了伪迹去除。高fWHR偏差刺激、高fWHR标准刺激、低fWHR偏差刺激和低fWHR标准刺激的试次数分别是23.44 ± 3.96、208.34 ± 37.66、24.29 ± 3.73、218.78 ± 35.44。
基于已有研究(Kecskés-Kovács et al., 2013)和本实验脑电地形图, 选择后部P3/4、PO5/6和PO7/8电极, 对P1 (90~120 ms)、N170 (130~200 ms)成分的波幅(峰基线值, 即相应时间段内波幅最高点和最低点分别到基线X轴的垂直距离)和峰潜伏期(相应时间段内波幅最高点和最低点出现的时间点)及vMMN成分所在时间窗口内的平均波幅进行了2 (fWHR: 低、高) × 2 (刺激类型: 偏差刺激、标准刺激) × 3 (电极: P3/P4、PO5/PO6、PO7/PO8) × 2 (半球: 左半球、右半球)的重复测量方差分析。本研究采用SPSS Statistics 21.0 (Armonk, NY: IBM Corp)进行统计分析, 非球形性时使用Greenhouse-Geisser校正值, 利用Bonferroni校正来解释多重比较和事后分析。
对vMMN成分进行传统常规分析方法前, 我们采用基于从聚的置换检验(cluster-based permutation test)进行探索性分析来确定vMMN成分时域分析时间窗口并控制多重比较问题。ERP传统分析方法侧重于分析特定时间窗口内记录的单个电极或一小组电极上的数据, 基于从聚的置换检验通过构建一个假定两个实验条件没有差异的零分布与实际观测进行对比(Maris & Oostenveld, 2007), 允许对ERP振幅在所有电极和所有时间样本上进行比较(Sassenhagen & Draschkow, 2019)。虽然本实验是两因素实验设计, 但是我们对感兴趣的两个实验条件进行了配对样本检验, 具体对比如下:(1)高fWHR条件下标准刺激和偏差刺激的差异; (2)低fWHR条件下标准刺激和偏差刺激的差异; (3)以标准刺激和偏差刺激反应之差作为vMMN指标, 高fWHR和低fWHR条件下的vMMN差异。原因在于, 研究者认为基于从聚的置换检验不能保证方差分析的有效性(Groppe et al., 2011), 同时已有采用基于从聚的置换检验的研究也是进行的配对样本检验分析(Vormbrock et al., 2023; Zochowska et al., 2021)。本研究选取刺激呈现后的0~600 ms作为置换检验时间窗口对所有电极点的反应进行分析, 使用配对样本检验比较感兴趣两个条件在所有电极点以及时间上的差异, 差异在0.05水平上显著且在时间和空间位置上邻近的数据点将会被认定为从聚。之后计算每个从聚内所有电极−时间点的值之和作为从聚水平统计量, 使用蒙特卡罗法(Monte Carlo method)进行显著性检验(α = 0.05), 随机抽样2000次。
2.3 结果
2.3.1 行为结果
对正确率和反应时分别进行配对样本检验结果显示, 对高宽高比目标(98.79% ± 0.25%)和低宽高比目标(98.96% ± 0.13%)反应的正确率不存在显著差异(= 0.366); 低宽高比目标刺激(544 ± 7 ms)的反应时显著快于高宽高比目标刺激(563 ± 7 ms),(40) = −5.851,< 0.001, Cohen’s= 0.816, 95% CI = [−28.158, −12.454]。
2.3.2 ERP结果
P1
波幅结果显示, 半球主效应显著,(1, 40) = 4.109,0.049, η2 p = 0.093; fWHR主效应不显著(= 0.825)。潜伏期结果显示, 刺激类型主效应显著,(1, 40) = 20.569,0.001, η2 p = 0.340。fWHR × 刺激类型 × 电极 × 半球的交互作用显著,(2, 80) = 6.189,0.005, η2 p = 0.134, 在PO5/6和PO7/8电极上高fWHR偏差刺激诱发的P1早于标准刺激(PO5: 113 ± 1 vs. 117 ± 1 ms,= 0.024, 95% CI = [−0.006, −0.000], PO6: 113 ± 1 vs. 115 ± 1 ms,0.041, 95% CI = [−0.004, −0.001]; PO7: 110 ± 2 vs. 116 ± 1 ms,= 0.001, 95% CI = [−0.009, −0.003], PO8: 112 ± 1 vs. 115 ± 1 ms,= 0.017, 95% CI = [−0.004, −0.000]), 在PO8电极上低fWHR偏差刺激诱发更早的P1 (110 ± 2 vs. 114 ± 1 ms,= 0.011, 95% CI = [−0.007, −0.001])。
N170
波幅结果显示, 刺激类型的主效应显著,(1, 40) = 11.128,0.002, η2 p = 0.206, 偏差刺激比标准刺激诱发更负的N170 (−1.419 ± 0.372 vs. −0.972 ± 0.551 μV, 95% CI = [−0.717, −0.177])。fWHR × 刺激类型交互作用显著,(1, 40) = 17.125,0.001, η2 p = 0.285, 高fWHR的偏差刺激较标准刺激诱发更负的N170 (−1.717 ± 0.589 vs. −0.571 ±0.534 μV,0.001, 95% CI = [−1.588, −0.703]), 低fWHR的偏差刺激与标准刺激诱发波幅差异不显著(= 0.242)。潜伏期结果显示, 刺激类型×半球交互作用显著,(1, 40) = 5.037,0.027, η2 p = 0.117, 右半球标准刺激比偏差刺激诱发更早的N170 (168 ± 3 vs. 170 ± 3 ms,= 0.048, 95% CI = [−0.004, −0.000])。
vMMN
基于从聚的置换检验结果显示, 高低fWHR标准刺激与偏差刺激的差异在时间和空间上广泛分布。高fWHR条件下标准刺激与偏差刺激的差异在我们感兴趣的枕颞叶区(除P1, P2, PZ)表现为, 在刺激呈现后228~600 ms间偏差刺激较标准刺激诱发的波幅更负。相反, 低fWHR条件下标准刺激和偏差刺激的差异在刺激呈现后300~600 ms的枕颞叶区域(P1, P3, PZ, PO3, PO4, PO5, PO7, PO8, POZ)表现为偏差刺激较标准刺激诱发的波幅更正。重要的是, 对比高、低fWHR诱发的vMMN发现, 枕颞叶区域(P1, P3, P4, P5, P6, P7, P8, PO3, PO4, PO5, PO6, PO7, PO8, POZ)在刺激呈现后254~600 ms内差异显著, 高fWHR诱发的vMMN显著大于低fWHR (图2)。结合上述基于从聚的置换检验结果以及已有研究中对vMMN成分的分析(200~440 ms, Wang et al., 2022), 本研究选取200~500 ms作为时间窗口对vMMN成分进行重复测量方差分析。
200~500 ms结果显示, 刺激类型主效应显著,(1, 40) = 52.173,0.001, η2 p = 0.566, 偏差刺激诱发的波幅较标准刺激更负(2.576 ± 0.471 vs. 3.323 ± 0.449 μV, 95% CI = [−0.955, −0.538]), 表明该时间段存在vMMN成分。此外, fWHR × 刺激类型交互作用显著,(1, 40) = 21.588,0.001, η2 p = 0.351; fWHR × 刺激类型 × 电极交互作用显著,(2, 80) = 7.493,0.004, η2 p = 0.158, 进一步分析发现, 在P3/4、PO5/6和PO7/8电极上, 高fWHR偏差刺激较标准刺激诱发的波幅更负(s < 0.001, P3/4: 2.463 ± 0.386 vs. 3.282 ± 0.395 μV, 95% CI = [−1.178, −0.460], PO5/6: 2.617 ± 0.614 vs. 4.382 ± 0.585 μV, 95% CI = [−2.276, −1.255], PO7/8: 1.506 ± 0.545 vs. 3.463 ± 0.548 μV, 95% CI = [−2.495, −1.420]), 低fWHR的偏差刺激与标准刺激诱发波幅差异不显著(s ≥ 0.456)。这表明, 高fWHR能够诱发vMMN, 进行自动加工。
图2 实验1基于从聚的置换检验结果。高fWHR和低fWHR诱发的vMMN存在显著差异的从聚p值地形图。
已有研究发现面孔构形信息的自动加工存在时序上的变化(Wang et al., 2022), 本实验基于从聚的置换检验结果也显示高低fWHR诱发的vMMN存在时间窗的差异, 高fWHR在感兴趣电极点(P3/4; PO5/6; PO7/8)上诱发的vMMN表现为刺激呈现228 ms后连续出现, 低fWHR在感兴趣电极点(P3, PO5, PO7/8)上的vMMN以16~124 ms (平均值为50.44 ms)的时间片段断续出现。因此, 为了更清楚地考察不同时间段内高、低宽高比面孔诱发的vMMN, 接下来我们对vMMN以50 ms为时间窗口进行分段统计分析(图3), 以便更清楚地研究其时间进程, 类似的时间窗划分在已有面孔vMMN (Kreegipuu et al., 2013; Wang et al., 2014; Wang et al., 2022)研究中也被使用过。如果能得到刺激类型与其他自变量间显著的交互作用, 尤其是fWHR × 刺激类型间显著的交互作用, 并且简单效应分析能得到高、低fWHR都能诱发vMMN (偏差刺激诱发的波幅较标准刺激更负), 那么我们将以vMMN (偏差刺激诱发的波幅减去标准刺激诱发的波幅)为指标做进一步分析, 考察高、低fWHR自动加工程度的差异。
200~250 ms结果显示, 刺激类型主效应显著,(1, 40) = 23.502,0.001, η2 p = 0.370, 偏差刺激诱发的波幅较标准刺激更负(4.117 ± 0.591 vs. 4.685 ± 0.582 μV, 95% CI = [−0.804, −0.331])。此外, 刺激类型×半球交互作用显著,(1, 40) = 4.537,0.039,η2 p = 0.102, 左右半球上均表现为偏差刺激较标准刺激诱发的波幅更负(s ≤ 0.003, 左半球: 3.749 ± 0.622 vs. 4.137 ± 0.621 μV, 95% CI = [−0.633, −0.143], 右半球: 4.485 ± 0.664 vs. 5.233 ± 0.654 μV, 95% CI = [−1.079, −0.416])。以vMMN为指标进行分析发现, 右半球诱发的vMMN更大(= 0.039, 95% CI = [−0.700, −0.018])。
图3 实验1 ERP结果波形图(A)和300~350 ms的地形图(B)。差异波指的是由偏差刺激减去标准刺激诱发的ERP波形。(A)阴影部分指的是偏差刺激诱发波幅较标准刺激更负, 即存在vMMN的时间窗; (B)黄色圆点指的是偏差刺激诱发波幅较标准刺激更负的电极点(P3/4、PO5/6和PO7/8)。
250~300 ms结果显示, 刺激类型主效应显著,(1, 40) = 55.353,0.001, η2 p = 0.581, 偏差刺激诱发的波幅较标准刺激更负(3.513 ± 0.552 vs. 4.496 ± 0.531 μV, 95% CI = [−1.250, −0.716])。重要的是, fWHR × 刺激类型交互作用显著,(1, 40) = 11.149,0.002, η2 p = 0.218, 高fWHR偏差刺激诱发的波幅较标准刺激更负(3.273 ± 0.562 vs. 4.869 ± 0.553 μV,< 0.001, 95% CI = [−2.043, −1.150]), 低fWHR的偏差刺激与标准刺激诱发波幅差异不显著(0.119)。此外, 刺激类型×半球交互作用显著,(1, 40) = 4.733,0.036, η2 p = 0.106, 左右半球上均表现为偏差刺激较标准刺激诱发的波幅更负(s ≤ 0.001, 左半球: 3.126 ± 0.561 vs. 3.919 ± 0.530 μV, 95% CI = [−1.113, −0.474], 右半球: 3.900 ± 0.670 vs. 5.073 ± 0.655 μV, 95% CI = [−1.494, −0.852])。以vMMN为指标进行分析发现, 右半球诱发的vMMN更大(= 0.036, 95% CI = [−0.733, −0.027])。
300~350 ms结果显示, 刺激类型主效应显著,(1, 40) = 72.457,0.001, η2 p = 0.644, 偏差刺激诱发的波幅较标准刺激更负(2.368 ± 0.511 vs. 3.313 ± 0.490 μV, 95% CI = [−1.168, −0.720])。重要的是, fWHR × 刺激类型交互作用显著,(1, 40) = 16.713,0.001, η2 p = 0.295, 高fWHR偏差刺激较标准刺激诱发的波幅更负(2.026 ± 0.532 vs. 3.725 ± 0.510 μV,< 0.001, 95% CI = [−2.114, −1.284]), 低fWHR的偏差刺激与标准刺激诱发波幅差异不显著(0.405)。此外, fWHR × 刺激类型×半球的交互作用显著,(1, 40) = 6.436,0.015, η2 p = 0.139, 在左半球高fWHR偏差刺激较标准刺激诱发的波幅更负(1.820 ± 0.544 vs. 3.490 ± 0.535 μV,< 0.001, 95% CI = [−2.115, −1.224]), 右半球高、低fWHR偏差刺激较标准刺激诱发的波幅更负(s ≤ 0.009, 高fWHR: 2.231 ± 0.628 vs. 3.959 ± 0.591 μV, 95% CI = [−2.217, −1.240], 低fWHR: 2.563 ± 0.648 vs. 3.256 ± 0.588 μV, 95% CI = [−1.207, −0.179])。以vMMN为指标进行分析发现, 高fWHR比低fWHR在右半球上诱发更大的vMMN (−1.728 ± 0.242 vs. −0.693 ± 0.254 μV,= 0.010, 95% CI = [−1.804, −0.266])。
350~400 ms结果显示, 刺激类型主效应显著,(1, 40) = 21.817,0.001, η2 p = 0.353, 偏差刺激诱发的波幅较标准刺激更负(2.654 ± 0.454 vs. 3.236 ± 0.418 μV, 95% CI = [−0.834, −0.330])。重要的是, fWHR × 刺激类型交互作用显著,(1, 40) = 32.146,0.001, η2 p = 0.446, 高fWHR偏差刺激诱发的波幅较标准刺激更负(2.104 ± 0.483 vs. 3.692 ± 0.443 μV,< 0.001, 95% CI = [−2.064, −1.113]), 而低fWHR标准刺激诱发的波幅较偏差刺激更负(2.780 ± 0.419 vs. 3.205 ± 0.470 μV,= 0.037, 95% CI = [−0.823, −0.027])。此外, 刺激类型×半球交互作用显著,(1, 40) = 8.960,0.005, η2 p = 0.183, 左右半球上均表现为偏差刺激较标准刺激诱发的波幅更负(s ≤ 0.023, 左半球: 2.921 ± 0.469 vs. 3.245 ± 0.441 μV, 95% CI = [−0.602, −0.048], 右半球: 2.387 ± 0.548 vs. 3.226 ± 0.483 μV, 95% CI = [−1.171, −0.507])。以vMMN为指标进行分析发现, 右半球诱发的vMMN更大(= 0.005, 95% CI = [−0.862, −0.167])。
400~450 ms结果显示, 刺激类型主效应显著,(1, 40) = 31.429,0.001, η2 p = 0.440, 偏差刺激诱发的波幅较标准刺激更负(1.764 ± 0.449 vs. 2.453 ± 0.421 μV, 95% CI = [−0.913, −0.426])。fWHR × 刺激类型交互作用显著,(1, 40) = 30.727,0.001, η2 p = 0.434, 高fWHR偏差刺激诱发的波幅较标准刺激更负(1.163 ± 0.463 vs. 2.936 ± 0.431 μV,< 0.001, 95% CI = [−2.231, −1.316]), 低fWHR的偏差刺激与标准刺激诱发波幅差异不显著(0.077)。
450~500 ms结果显示, 刺激类型主效应显著,(1, 40) = 34.891,0.001, η2 p = 0.466, 偏差刺激诱发的波幅较标准刺激更负(0.991 ± 0.452 vs. 1.722 ± 0.422 μV, 95% CI = [−0.981, −0.481])。fWHR × 刺激类型交互作用显著,(1, 40) = 36.899,0.001, η2 p = 0.480, 高fWHR偏差刺激诱发的波幅较标准刺激更负(0.331 ± 0.449 vs. 2.231 ± 0.434 μV,< 0.001, 95% CI = [−1.889, −0.752]), 而低fWHR标准刺激诱发的波幅较偏差刺激更负(1.212 ± 0.431 vs. 1.651 ± 0.497 μV,< 0.001, 95% CI = [−1.392, −0.646])。
综上, 对200~500 ms平均波幅的分析发现, fWHR能诱发vMMN。具体表现为, 高fWHR在整个时间窗口上均诱发了vMMN, 低fWHR仅在200~250 ms和300~350 ms时间窗口上诱发了vMMN。虽然低fWHR在350~400 ms和450~500 ms时间段也能得到偏差刺激与标准刺激间的显著差异, 但是, 这时表现出的差异是标准刺激比偏差刺激更负。根据已有研究, vMMN指的是偏差刺激比标准刺激诱发的波幅更负的结果, 而标准刺激比偏差刺激更负的结果则被称作vMMP (visual Mismatch Positivity; Sulykos & Czigler, 2011), 因而, 低fWHR在350~ 400 ms和450~500 ms诱发的不是vMMN。值得注意的是, 以vMMN为指标的分析发现, 在300~350 ms高fWHR比低fWHR诱发更大的vMMN。总之, 本实验结果表明, 与低fWHR相比, 高fWHR的自动加工时间较长, 强度更大。
3 实验2:恐惧和愤怒情绪fWHR的自动加工
3.1 方法
3.1.1 被试
根据G*Power (Faul et al., 2007)计算, 实验2至少需要22名被试(η2 p = 0.06, 检验力: 80%, α = 0.01)才能得到2 (情绪: 愤怒 vs. 恐惧) × 2 (fWHR: 高 vs. 低) × 2 (刺激类型: 标准 vs. 偏差)重复测量方差分析的交互作用。最终25名被试(女生13名, 20.56 ± 1.635岁)进行了实验, 所有被试身体健康, 视力正常或矫正后正常, 在实验前均签署知情同意书。本实验已得到山东师范大学心理学院伦理研究委员会的批准。
3.1.2 实验材料
从CAFPS图片库选取男性恐惧情绪和愤怒情绪面孔各37张。与实验1相同, 使用ImageJ测量得到男性恐惧情绪面孔fWHR的平均值和标准差(1.760 ± 0.152)、愤怒情绪面孔fWHR的平均值和标准差(1.690 ± 0.153), 选取高于平均值一个标准差为高fWHR, 低于平均值一个标准差为低fWHR, 最终得到6张高fWHR愤怒情绪面孔(fWHR: 1.949 ± 0.147)、6张高fWHR恐惧情绪面孔(fWHR: 2.000 ± 0.135)、6张低fWHR愤怒情绪面孔(fWHR: 1.505 ± 0.058)及6张低fWHR恐惧情绪面孔(fWHR: 1.558 ± 0.067; 图1); 愤怒和恐惧情绪高fWHR值都显著大于低fWHR, 愤怒:(10) = 6.262,< 0.001, Cohen’s= 0.874; 恐惧:(10) = 6.568,< 0.001, Cohen’s= 0.885。根据图片库提供的信息, 本实验所使用愤怒情绪面孔高、低fWHR的情绪认同度分别为81.313% ± 12.218% vs. 75.597% ± 15.152%, 情绪强度的评分分别为6.305 ± 1.658 vs. 6.153 ± 1.285; 恐惧情绪面孔高、低fWHR的情绪认同度分别为73.232% ± 7.498% vs. 72.317% ± 9.425%, 情绪强度的评分分别为6.003 ± 0.762 vs. 6.354 ± 1.189。我们对愤怒和恐惧情绪高低fWHR的情绪认同度和强度值分别进行2 (fWHR: 高、低) × 2 (面孔情绪: 愤怒、恐惧)统计分析, 结果未发现任何显著差异(s≥ 0.359); 这表明, 愤怒和恐惧情绪高低宽高比面孔的情绪强度和认同度的差异在一定程度上得到控制, 较少或不影响我们对实验主要结果宽高比机制的分析。
3.1.3 实验程序
与实验1相同, 实验2采用反向oddball实验范式, 共包含4个block, 愤怒情绪和恐惧情绪分别由两个block组成。每个block有600个试次, 其中标准刺激420个试次(70%), “+”大小为24号; 偏差刺激120个试次(20%), “+”大小为24号; 目标刺激60个试次(10%), “+”大小为32号, 但是其所呈现的面孔与标准刺激一致。其他与实验1相同。对于愤怒情绪, 一个block是高fWHR愤怒情绪面孔作为偏差刺激, 低fWHR愤怒情绪面孔作为标准刺激和目标刺激, 因而, 每张高、低fWHR刺激分别呈现20次和80次; 另一个block是低fWHR愤怒情绪面孔作为偏差刺激, 高fWHR愤怒情绪面孔作为标准刺激和目标刺激, 因而, 每张高、低fWHR刺激分别呈现80次和20次; 恐惧情绪同理。
3.2 脑电记录与处理
脑电记录与分析方法和实验1相同。其中, 高fWHR愤怒情绪面孔偏差刺激、低fWHR愤怒情绪面孔标准刺激、低fWHR愤怒情绪面孔偏差刺激、高fWHR愤怒情绪面孔标准刺激的试次数分别是110.44 ± 18.29、390.08 ± 61.45、106.16 ± 17.76、366.40 ± 64.78; 高fWHR恐惧情绪面孔偏差刺激、低fWHR恐惧情绪面孔标准刺激、低fWHR恐惧情绪面孔偏差刺激、高fWHR恐惧情绪面孔标准刺激的试次数分别是107.72 ± 16.87、379.76 ± 54.76、112.32 ± 13.15、392.52 ± 47.23。本实验对P1 (90~ 120 ms)、N170 (130~200 ms)成分的波幅(峰基线值)和峰潜伏期及vMMN成分所在时间段的平均波幅进行2 (fWHR: 低、高) × 2 (刺激类型: 偏差刺激、标准刺激) × 2 (面孔情绪: 愤怒、恐惧) × 3 (电极: P3/P4、PO5/PO6、PO7/PO8) × 2 (半球: 左半球、右半球)的重复测量方差分析。非球形性时使用Greenhouse-Geisser校正值, 利用Bonferroni校正来解释多重比较和事后分析。基于从聚的置换检验进行的配对样本检验分析如下: (1)标准刺激和偏差刺激的差异; (2)高fWHR条件下, 愤怒和恐惧情绪下vMMN的差异; (3)低fWHR条件下, 愤怒和恐惧情绪下vMMN的差异。
3.3 结果
3.3.1 行为结果
愤怒情绪高fWHR、愤怒情绪低fWHR、恐惧情绪高fWHR和恐惧情绪低fWHR目标面孔的正确率分别为99.19% ± 0.17%、99.38% ± 0.11%、99.32% ± 0.13%、99.36% ± 0.12%; 反应时分别为580 ± 12 ms、582 ± 12 ms、570 ± 12 ms、567 ± 12 ms。对正确率和反应时分别进行2 (fWHR: 低、高) × 2 (面孔情绪: 愤怒、恐惧)重复测量方差分析发现, 正确率上不存在任何显著效应(s ≥ 0.092); 反应时上发现情绪主效应显著,(1, 24) = 10.437,= 0.004, η2 p = 0.303, 愤怒情绪目标面孔的反应时显著长于恐惧情绪(581 ± 12 vs. 568 ± 12 ms, 95% CI = [4.593, 20.840]), 其他效应均不显著(s ≥ 0.485)。
3.3.2 脑电结果
P1
波幅结果显示, 刺激类型主效应显著,(1, 24) = 7.006,0.014, η2 p = 0.226, 偏差刺激比标准刺激诱发更正的P1 (3.698 ± 0.236 vs. 3.572 ± 0.217 μV, 95% CI = [0.028, 0.225]); fWHR主效应不显著(= 0.188)。情绪 × fWHR的交互作用显著,(1, 24) = 5.892,0.023, η2 p = 0.197, 情绪 × fWHR × 半球的交互作用显著,(1, 24) = 5.781,0.024, η2 p = 0.194; 在左半球, 高fWHR恐惧面孔比愤怒面孔诱发更大P1 (3.295 ± 0.240 vs. 3.002 ± 0.210 μV,= 0.004, 95% CI = [0.102, 0.485])。
潜伏期结果显示, 情绪主效应显著,(1, 24) = 6.820,0.015, η2 p = 0.221, 情绪和半球的交互作用显著,(1, 24) = 5.041,0.034, η2 p = 0.174, 在右半球发现愤怒情绪面孔比恐惧情绪诱发更早的P1 (114 ± 1 vs. 116 ± 1 ms,0.007, 95% CI = [−0.002, −0.000])。
N170
波幅结果显示, 情绪 × fWHR × 半球的交互作用显著,(1, 24) = 5.646,0.026, η2 p = 0.190, 在右半球, 愤怒情绪高fWHR比低fWHR诱发更负N170 (−3.355 ± 0.703 vs. −3.057 ± 0.697 μV,= 0.008, 95% CI = [−0.444, −0.229]), 其他条件差异不显著(s ≥ 0.161)。
潜伏期结果显示, 情绪主效应显著,(1, 24) = 9.276,0.006, η2 p = 0.279, 愤怒情绪比恐惧情绪诱发更早的N170 (180 ± 2 vs. 182 ± 2 ms, 95% CI = [−0.003, −0.001])。fWHR主效应显著,(1, 24) = 26.999,0.001, η2 p = 0.529, 高fWHR比低fWHR诱发更早的N170 (180 ± 2 vs. 182 ± 2 ms, 95% CI = [−0.003, −0.001])。此外, 情绪 × fWHR交互作用显著,(1, 24) = 5.122,0.033, η2 p = 0.176, 情绪 × fWHR × 电极交互作用显著,(2, 48) = 4.904,0.018, η2 p = 0.170; 进一步分析发现, 在PO5/6电极上, 愤怒和恐惧情绪均表现为高fWHR比低fWHR诱发更早N170 (愤怒: 180 ± 2 vs. 184 ± 2 ms,= 0.002, 95% CI = [−0.006, −0.002], 恐惧: 183 ± 2 vs. 184 ± 2 ms,= 0.004, 95% CI = [−0.003, −0.001]), 在PO7/8电极上表现为愤怒情绪高fWHR比低fWHR诱发更早N170 (178 ± 2 vs. 182 ± 2 ms,< 0.001, 95% CI = [−0.005, −0.002])。
vMMN
基于从聚的置换检验结果显示, 在额叶、中央区和顶叶区域(AF4, F2, F4, F6, FC1, FC2, FC4, CZ, C1, C2, C4, C6, CPZ, CP1, CP2, CP4, CP6, PZ, P1, P2, POZ), 面孔刺激呈现后194~430 ms标准刺激诱发的波幅较偏差刺激更负。基于从聚的置换检验未发现高、低fWHR在不同情绪间诱发vMMN的差异。虽然实验2的置换检验未在本研究所感兴趣的电极点上(P3/4, PO5/6, PO7/8)发现vMMN, 但是考虑到实验2与实验1的逻辑关系, 以及对实验1和实验2结果进行对比的需要, 本实验选用与实验1相同的时间窗和电极点对vMMN成分平均波幅进行重复测量方差分析。
200~500 ms结果显示, 刺激类型主效应显著,(1, 24) = 7.422,0.012, η2 p = 0.236, 偏差刺激诱发的波幅较标准刺激更负(1.186 ± 0.424 vs. 1.328 ± 0.392 μV, 95% CI = [−0.249, −0.034]), 表明该时间段存在vMMN成分。fWHR主效应显著,(1, 24) = 70.097,0.001, η2 p = 0.745, 高fWHR诱发的波幅比低fWHR更正(1.402 ± 0.408 vs. 1.112 ± 0.407 μV, 95% CI = [0.218, 0.361])。此外, 情绪 × fWHR × 半球交互作用显著,(1, 24) = 6.287,0.019, η2 p = 0.208, 各半球上愤怒情绪高fWHR比低fWHR诱发更正波幅(s ≤ 0.046, 左半球: 1.130 ± 0.368 vs. 0.754 ± 0.358 μV, 95% CI = [0.259, 0.493], 右半球: 1.461 ± 0.529 vs. 1.315 ± 0.507 μV, 95% CI = [0.003, 0.288]), 各半球上恐惧情绪高fWHR比低fWHR诱发更正波幅(s ≤ 0.001, 左半球: 1.179 ± 0.331 vs. 0.883 ± 0.349 μV, 95% CI = [0.133, 0.459], 右半球: 1.839 ± 0.502 vs. 1.496 ± 0.514 μV, 95% CI = [0.192, 0.493])。
图4 实验2 ERP结果波形图。A: 愤怒情绪面孔, B: 恐惧情绪面孔。差异波指的是由偏差刺激减去标准刺激诱发的ERP波形; 阴影部分指的是偏差刺激诱发的波幅较标准刺激更负, 即存在vMMN的时间窗。
为了更清楚地考察不同时间段内愤怒和恐惧情绪高、低宽高比面孔诱发的vMMN, 与实验1一致, 接下来我们以50 ms为时间窗口进行分段统计分析(图4)。能反映本实验预期的结果是情绪× fWHR × 刺激类型出现显著的交互作用, 如果简单效应分析能得到愤怒和恐惧情绪高、低fWHR能诱发vMMN (偏差刺激诱发的波幅较标准刺激更负), 那么我们将以vMMN (偏差刺激诱发的波幅减去标准刺激诱发的波幅)为指标做进一步分析, 考察愤怒和恐惧情绪高、低fWHR自动加工程度的差异。
200~250 ms结果显示, 刺激类型主效应显著,(1, 24) = 5.909,0.023, η2 p = 0.198, 偏差刺激诱发的波幅较标准刺激更负(1.417 ± 0.462 vs. 1.555 ± 0.433 μV, 95% CI = [−0.256, −0.021])。fWHR主效应显著,(1, 24) = 118.363,0.001, η2 p = 0.831; 重要的是, 情绪 × fWHR × 刺激× 电极× 半球交互作用显著,(2, 48) = 3.832,0.032, η2 p = 0.138, 在P4/PO8电极上愤怒情绪高fWHR偏差刺激诱发的波幅较标准刺激更负(P4: 2.291 ± 0.547 vs. 2.694 ± 0.542 μV,0.039, 95% CI = [−0.784, −0.022]; PO8: 1.298 ± 0.669 vs. 1.966 ± 0.664 μV,0.011, 95% CI = [−1.166, −0.169]), 其他条件差异不显著(s ≥ 0.119)。
250~300 ms结果显示, 刺激类型主效应显著,(1, 24) = 12.851,0.001, η2 p = 0.349, 偏差刺激诱发的波幅较标准刺激更负(2.041 ± 0.551 vs. 2.237 ± 0.530 μV, 95% CI = [−0.309, −0.083])。fWHR主效应显著,(1, 24) = 89.960,0.001, η2 p = 0.789; 重要的是, 情绪 × fWHR × 刺激× 电极× 半球交互作用显著,(2, 48) = 3.488,0.044, η2 p = 0.127, 在PO6电极上愤怒情绪低fWHR偏差刺激诱发的波幅较标准刺激更负(2.467 ± 0.808 vs. 2.957 ± 0.820 μV,0.040, 95% CI = [−0.955, −0.024]), 在PO5电极上恐惧情绪低fWHR偏差刺激诱发的波幅较标准刺激更负(1.484 ± 0.600 vs. 1.911 ± 0.551 μV,0.026, 95% CI = [−0.797, −0.056])。
300~350 ms结果显示, 刺激类型主效应显著,(1, 24) = 8.056,0.009, η2 p = 0.251, 偏差刺激诱发的波幅较标准刺激更负(1.101 ± 0.489 vs. 1.291 ± 0.463 μV, 95% CI = [−0.329, −0.052])。fWHR主效应显著,(1, 24) = 86.854,0.001, η2 p = 0.783; 重要的是, 情绪 × fWHR × 刺激× 电极× 半球交互作用显著,(2, 48) = 4.101,0.025, η2 p = 0.146, 在P3/PO5/PO8电极上愤怒情绪高fWHR偏差刺激诱发的波幅较标准刺激更负(P3: 1.068 ± 0.361 vs. 1.492 ± 0.291 μV,0.009, 95% CI = [−0.731, −0.116]; PO5: 0.689 ± 0.580 vs. 1.097 ± 0.525 μV,0.044, 95% CI = [−0.804, −0.012]; PO8: 0.775 ± 0.636 vs. 1.348 ± 0.702 μV,0.049, 95% CI = [−1.143, −0.002]), 在PO5电极上恐惧情绪低fWHR偏差刺激诱发的波幅较标准刺激更负(0.239 ± 0.538 vs. 0.820 ± 0.510 μV,0.022, 95% CI = [−1.069, −0.092])。以vMMN (PO5)为指标的分析发现, 愤怒情绪高fWHR诱发的vMMN与恐惧情绪低fWHR诱发的vMMN无差异,(24) = 0.649,= 0.522, 95% CI = [−0.376, 0.722]。
350~400 ms结果显示, 刺激类型主效应显著,(1, 24) = 6.866,0.015, η2 p = 0.222, 偏差刺激诱发的波幅较标准刺激更负(0.965 ± 0.411 vs. 1.121 ± 0.380 μV, 95% CI = [−0.279, −0.033])。fWHR主效应显著,(1, 24) = 15.172,0.001, η2 p = 0.387。虽然情绪 × fWHR × 刺激× 电极× 半球交互作用不显著,(2, 48) = 2.515,0.098, η2 p = 0.095, 但是效应量达到中等, 并且主效应发现该时间段存在vMMN, 为了明确愤怒和恐惧情绪高、低宽高比面孔诱发的vMMN, 进一步分析发现, 在P3和PO8电极上愤怒情绪高fWHR偏差刺激诱发的波幅较标准刺激更负(P3: 0.613 ± 0.307 vs. 0.979 ± 0.229 μV,0.031, 95% CI = [−0.696, −0.036]; PO8: 0.730 ± 0.553 vs. 1.343 ± 0.587 μV,0.035, 95% CI = [−1.180, −0.047]), 在PO5电极上恐惧情绪低fWHR偏差刺激诱发的波幅较标准刺激更负(0.657 ± 0.435 vs. 1.109 ± 0.390 μV,0.035, 95% CI = [−0.870, −0.035])。
400~450 ms结果显示, fWHR主效应显著,(1, 24) = 4.318,0.049, η2 p = 0.152; fWHR × 半球的交互作用显著,(1, 24) = 6.225,0.020, η2 p = 0.206, 左半球上高fWHR诱发的波幅比低fWHR更正(1.153 ± 0.341 vs. 0.950 ± 0.339 μV,0.004, 95% CI = [0.071, 0.334])。刺激类型×电极的交互作用显著,(2, 48) = 5.981,0.016, η2 p = 0.199, 仅在PO7/8电极上表现为偏差刺激诱发的波幅较标准刺激更负(1.049 ± 0.446 vs. 1.282 ± 0.388 μV,0.044, 95% CI = [−0.460, −0.007]), 其他条件差异不显著(s ≥ 0.199)。
450~500 ms结果显示, fWHR主效应显著,(1, 24) = 9.170,0.006, η2 p = 0.276, 高fWHR诱发的波幅比低fWHR更正(0.682 ± 0.361 vs. 0.543 ± 0.536 μV, 95% CI = [0.044, 0.234])。
总之, 在200~450 ms时间窗口内fWHR都能诱发vMMN成分。具体表现为, 愤怒情绪高fWHR在200~250 ms和300~400 ms能诱发vMMN, 而恐惧情绪低fWHR在左半球(PO5) 250~400 ms能诱发vMMN; 愤怒情绪高fWHR和恐惧情绪低fWHR在相同时间段和电极上诱发的vMMN不存在显著差异。此外, 愤怒情绪低fWHR在右半球(PO6) 250~ 300 ms能诱发vMMN。这说明, 愤怒情绪主要促进高宽高比面孔的自动加工, 而恐惧情绪促进低宽高比面孔的自动加工; 但是, 二者对宽高比自动加工的促进程度不存在差异。需要注意的是, 本实验在对200~500 ms整个时间窗口分析时发现fWHR在此时间段能诱发vMMN成分, 未发现与本实验研究目的对应的结果, 即情绪 × fWHR × 刺激类型显著的交互作用, 而仅在分时间窗分析时发现了与上述交互作用有关的结果。这说明, 非中性情绪面孔高低宽高比信息的自动加工可能存在时间窗的差别。其原因可能与情绪的加工有关, 情绪自动加工的元分析发现, 非中性情绪面孔在200~400 ms能诱发vMMN, 但是, 不同情绪自动加工的时间窗又存在差别(曾宪卿等, 2021), 这可能在一定程度上影响了作为知觉信息fWHR的自动加工, 因而, 本实验整体分析时未得到上述交互作用。
4 实验1 vs. 实验2
虽然有研究发现, 与中性情绪面孔相比, 个体表现出的愤怒情绪会增加其面孔宽高比, 恐惧情绪会降低其面孔宽高比(Merlhiot et al., 2021), 但是, 对本研究实验1和实验2使用的不同情绪面孔宽高比的值进行2 (fWHR: 低、高) × 3 (面孔情绪: 中性、愤怒、恐惧)的统计分析并未发现情绪对fWHR值的影响,(2, 4) = 1.119,0.411。这与Merlhiot等人(2021)的实验结果不一致, 其原因可能与本研究两个实验使用的是不同身份面孔有关。同时, 这在一定程度上增加了接下来对本研究两个实验间vMMN比较的有效性, 中性与愤怒情绪高宽高比以及中性与恐惧情绪低宽高比自动加工程度的差异较少或不受不同情绪宽高比差异的影响。对两个实验行为结果进行2 (fWHR: 低、高) × 3 (面孔情绪: 中性、愤怒、恐惧)的统计分析仅在反应时上发现fWHR × 情绪的交互作用显著,(2, 88) = 5.864,= 0.004, η2 p = 0.118, 进一步分析发现, 对于高fWHR目标, 中性情绪的反应时显著快于愤怒情绪(= 0.020), 其他情绪之间的差异均不显著(≥ 0.307)。此外, 对两个实验面孔情绪强度和认同度的值分别进行2 (fWHR: 低、高) × 3 (面孔情绪: 中性、愤怒、恐惧)的统计分析也并未发现任何显著差异(s≥ 0.232)。
为了进一步探讨面孔情绪线索明确性对高低fWHR自动加工程度的影响, 我们对比了高fWHR中性和愤怒情绪面孔以及低fWHR中性和恐惧情绪面孔诱发的vMMN。结果发现, 对于高fWHR, 中性情绪和愤怒情绪均在200~250 ms的P4电极, 300~350 ms的P3/PO5/PO8电极, 350~400 ms的P3/PO8电极上诱发vMMN (表1)。进一步对这些时间点和电极上诱发的vMMN进行独立样本检验发现, 在300~350 ms的PO5/PO8和350~400 ms的PO8电极上, 中性比愤怒情绪面孔诱发更大的vMMN (300~350 ms的PO5:(64) = −3.654,= 0.001, Cohen’s= 0.272, 95% CI = [−2.180, −0.639]; 300~350 ms的PO8:(64) = −3.455,= 0.001, Cohen’s= 0.289, 95% CI = [−2.581, −0.690]; 350~400 ms的PO8:(64) = −3.279,= 0.002, Cohen’s= 0.305, 95% CI = [−2.538, −0.617])。对于低fWHR, 中性情绪和恐惧情绪诱发的vMMN在时间点和电极上未发现重叠(表2), 因而没有做进一步的分析。总之, 这表明, 面孔情绪线索明确性影响高fWHR自动加工程度; 相比于中性情绪, 愤怒情绪减弱高fWHR的自动加工程度。
表1 中性和愤怒情绪高fWHR诱发的vMMN
注: 表中数值为各条件下偏差刺激较标准刺激诱发的波幅更负的值。
表2 中性和恐惧情绪低fWHR诱发的vMMN
注: 表中数值为各条件下偏差刺激较标准刺激诱发的波幅更负的值。
5 讨论
本研究通过考察高低面孔宽高比诱发的vMMN为高低面孔宽高比在前注意加工阶段表征某个体实际攻击性或预测他人评价该个体攻击性上的差异提供新的视角。实验1采用中性情绪面孔考察高低面孔宽高比诱发的vMMN, 结果发现, 高fWHR在200~500 ms诱发了vMMN, 低fWHR仅在200~250 ms和300~350 ms诱发了vMMN。更为重要的是, 高fWHR比低fWHR在300~350 ms诱发更大的vMMN。这表明, 大脑在前注意加工阶段能区分出高低面孔宽高比, 并且对高fWHR的自动加工程度更大。为了进一步考察面孔情绪线索明确时高低fWHR的自动加工, 实验2呈现带有愤怒和恐惧情绪的面孔, 结果发现, 愤怒情绪高fWHR在200~250 ms和300~400 ms以及愤怒情绪低fWHR在右半球250~300 ms能诱发vMMN, 而恐惧情绪低fWHR在左半球250~400 ms能诱发vMMN。这表明, 愤怒和恐惧情绪分别促进了高、低fWHR的自动加工, 并且愤怒情绪高fWHR的自动加工早于恐惧情绪低fWHR的自动加工。对比实验1和实验2的结果发现, 愤怒情绪较中性情绪减弱了高fWHR的自动加工程度。
已有研究发现, 面孔构形信息可以进行自动加工(Wang et al., 2022)。与此一致, 本研究发现隶属于面孔构形信息的fWHR也能诱发vMMN, 进行自动加工。更重要的是, 本研究实验1进一步发现高低fWHR的自动加工不仅在时间窗上不同, 而且在自动加工程度上也存在差异。具体表现为, 当面孔为中性情绪时, 相比低fWHR, 高fWHR自动加工的时间窗较长, 并且在300~350 ms自动加工程度更大, 这与我们的预期一致。这一结果可能与fWHR被感知的攻击性水平有关, 已有研究发现, 相比于低fWHR, 个体对高fWHR的攻击性感知较高(Carré et al., 2009), 因而, 与潜在威胁更密切的高fWHR的自动加工程度较大, 时间较长。
此外, 这一结果可能还与fWHR所表征的情绪线索有关。情绪研究发现, P1和N170分别对愤怒和恐惧情绪较敏感(Batty & Taylor, 2003), 这表明, 愤怒和恐惧可能在加工时间进程上存在差异。最近的一项关于情绪面孔诱发vMMN的元分析研究显示, 虽然鲜有研究同时关注或对比愤怒和恐惧情绪诱发的vMMN (曾宪卿等, 2021), 但是, 对比不同的研究发现, 愤怒和恐惧诱发的vMMN分别出现在100~500 ms (Kovarski et al., 2017)和180~220 ms (Chen et al., 2020)。这表明, 愤怒和恐惧面孔在加工时间进程上存在差异, 愤怒情绪的自动加工时程长于恐惧。与此同时, 面孔宽高比的行为研究发现, 中性情绪高fWHR更多被感知为愤怒情绪, 而低fWHR更多被感知为恐惧情绪(Deska et al., 2018; Merlhiot et al., 2021)。因而, 高低fWHR分别表征的愤怒和恐惧情绪可能导致了我们实验1得到的结果, 高fWHR比低fWHR的自动加工时程较长。
再者, 高低fWHR诱发vMMN的差异可能与愤怒和恐惧情绪表达不同类型的威胁性社会信号有关。愤怒表情意味着表达该表情的个体将要出现攻击性行为, 而恐惧表情意味着表达该表情的个体感知到环境中潜在的威胁信息(Adams et al., 2003), 因而, 相比于恐惧表情, 被试感知愤怒表情表达的直接威胁性可能较大, 其自动加工程度和时程也可能大于恐惧情绪。这与已有研究发现的情绪面孔不仅仅是通过基础的视觉特征或其简单组合来诱发vMMN, 而是通过情绪类别信息诱发vMMN相吻合(Li et al., 2012; Stefanics et al., 2012)。与fWHR所被感知的情绪线索解释一致, 我们实验2进一步发现, 当面孔呈现愤怒和恐惧情绪时, 二者分别促进了高、低fWHR的自动加工。这表明, 情绪信息可能在前注意加工阶段面孔宽高比表征某个体实际攻击性或预测他人评价该个体攻击性水平中起重要作用。与此同时, 由于愤怒表情表达的直接威胁性较大, 因而愤怒情绪低fWHR在一定程度上也能诱发vMMN, 进行自动加工。
根据已有研究提到的面孔情绪在fWHR预测他人评价某个体攻击性水平中的作用(Carré et al., 2009), 我们预期愤怒情绪高fWHR的自动加工程度高于中性情绪高fWHR的自动加工。但是, 我们通过对比实验1和实验2发现, 中性情绪较愤怒情绪增强了高fWHR晚期(300~400 ms)的自动加工程度。这可能与面孔情绪自身的自动加工有关, 虽然面孔是任务无关的面孔刺激, 但是, 被试在完成简单的探测任务时面孔刺激呈现在视野中央, 注意在一定程度上可能会被面孔所吸引。尤其是相对于中性情绪而言, 其他具体情绪作为一种更重要的社会互动信号更可能会自动捕获被试的注意, 进行自动加工(曾宪卿等, 2021)。研究发现, 愤怒和恐惧情绪的自动加工不仅开始时间较早而且持续时间较长(Chen et al., 2020; Kovarski et al., 2017)。同时, 我们实验2的行为结果发现, 当呈现愤怒面孔时, 被试对注视点大小探测的反应时较长; 实验1和实验2的行为结果对比也发现, 对于高fWHR目标, 被试对愤怒情绪面孔的反应时慢于中性情绪。这说明, 表征直接威胁性较大的愤怒面孔可能更多吸引了被试的注意, 这在一定程度上可能减弱了作为知觉信息面孔宽高比的自动加工程度。另一方面, 上述结果可能还与本研究对不同情绪面孔宽高比的控制有关。已有研究发现, 与中性情绪面孔相比, 个体表现出的愤怒情绪会增加其面孔宽高比(Merlhiot et al., 2021), 进而可能会提高其被感知的攻击性水平。但是, 本研究通过对比实验1和实验2面孔宽高比的值发现, 中性与愤怒情绪高宽高比的值不存在显著差异, 这在一定程度上可能减弱了个体对愤怒情绪面孔攻击性的感知, 进而也可能减弱其自动加工的程度。与Geniole等人(2015)观点一致, 这表明, 面孔宽高比在预测他人评价某个体攻击性时是否与面孔情绪有关仍有待进一步研究。
另外, 实验1发现的中性情绪高低fWHR自动加工程度的差异表现在较晚的300~350 ms, 这可能与情绪信息的加工时间进程机制有关, 有研究发现, 枕颞叶区较晚的P3(350~500 ms)和N300(250~ 350 ms)成分能区分出具体面孔情绪(Luo et al., 2010)。与实验1结果相反, 虽然实验2发现在PO5电极上愤怒高fWHR和恐惧低fWHR在300~350 ms都能诱发vMMN, 但是此时间段二者诱发的vMMN大小不存在差异。这可能也与具体情绪捕获一定的注意减弱面孔宽高比自动加工程度有关。尽管研究者对面孔刺激敏感的N170成分上得到的偏差刺激较标准刺激诱发波幅更负的结果反映的是心理不应期还是刺激的自动加工存在争议(Kimura et al., 2009), 但是, 本研究实验1在N170成分上发现高fWHR偏差刺激较标准刺激诱发波幅更负, 而实验2在N170成分上并未发现与此相似的结果。这在一定程度上也表明, 愤怒和恐惧情绪fWHR的自动加工可能由于受情绪自动加工的影响而小于中性情绪fWHR的自动加工。此外, 有研究者可能会质疑面孔宽高比刺激物理属性上的差异对vMMN的影响, 因而, 本研究分析了早期对刺激物理属性较敏感的P1成分, 实验1和实验2都没有在P1成分上发现高低fWHR间的差异, 这也与我们的预期一致, 同属于面孔构形信息的高低宽高比在P1成分上不存在差异。N170对宽高比的敏感性因情绪而异, 仅在愤怒情绪上发现N170对高fWHR较敏感, 这可能也与此条件预测他人评价该个体面孔的攻击性较高有关。本研究实验1还显示fWHR的自动加工在多个时间段存在右半球优势, 这与已有研究发现的中性情绪面孔构形加工存在右半球偏侧化效应一致(Wang & Fu, 2018)。
需要注意的是, 实验1和实验2基于从聚的置换检验中都发现标准刺激和偏差刺激的差异分布在更广的时间和空间上, 这在一定程度上补充和拓展了我们ERP分析的结果。实验1置换检验分析的结果与ERP结果较一致, 高fWHR不仅能在更广的时间和空间上诱发vMMN, 而且其诱发的vMMN大于低fWHR, 这在枕颞叶、额叶和中央电极区都有体现。高fWHR在额叶以及中央区域能进行自动加工, 这可能与上述区域参与攻击性反应加工有关 (Peterson et al., 2008)。但是, 实验2置换检验的结果不同于ERP结果, 未发现愤怒和恐惧情绪在促进高低fWHR自动加工中的作用。这可能与两种方法的侧重点有关, ERP分析侧重于对单个电极或者电极组上特定时间窗内的脑电信号进行分析, 基于从聚的置换检验则是对脑电信号在所有电极和所有时间样本上进行比较(Sassenhagen & Draschkow, 2019)。实验2 ERP分析得出的交互作用结果出现的电极点比较分散, 而基于从聚的置换检验不太可能检测到定位于少数电极以及时间点的非常集中的效应(Groppe et al., 2011)。此外, 在对基于从聚的置换检验结果进行解释时, Sassenhagen和Draschkow (2019)认为某从聚的显著性仅仅代表其从聚水平统计量在此类统计中的分布位置, 而不能使用该统计结果去推论效应在空间、时间或者频率上的定位, 并且该方法导致结果中效应潜伏期的偏差。基于从聚的置换检验的优越性在于确定效应存在而非定位效应具体时间以及位置(Groppe et al., 2011), 同时参考已有研究对置换检验的分析, 本研究将其作为对ERP结果的探索性分析。
最后, 本研究尚有一定的局限。虽然已有面孔vMMN的研究常常把任务无关的面孔至于视野中央(Kecskés-Kovács et al., 2013; Kovarski et al., 2017), 但是, 如上所述, 这种操作方法可能不能保证面孔刺激完全处于非注意状态, 尤其是实验2中的呈现的愤怒和恐惧情绪面孔可能会自动吸引个体的注意影响fWHR的自动加工, 因而, 将来的研究可以考虑把面孔刺激呈现在视野周围以增加面孔非注意的可能性。其次, 参考已有研究(Carré & McCormick, 2008; Carré et al., 2009; Carré et al., 2010; Stirrat et al., 2012), 本研究只采用了男性面孔, 尚未考察女性面孔宽高比自动加工的机制; 因而, 本研究的结论是否适用于女性面孔尚不明确。最后, 关于两个实验中刺激比例的问题。根据GPower计算, 两个实验的被试数量有较大的差别, 实验2的被试数量较实验1少, 为了能在实验2中得到偏差刺激诱发的较稳定的波形, 因而, 我们调整了实验2各刺激类型的比例, 增加了偏差刺激的比例, 由实验1的10%调整到实验2的20%。我们实验中使用的这两种刺激比例的分配情况在已面孔vMMN研究中经常用到(Kecskés-Kovács et al., 2013; Stefanics et al., 2012; Wang et al., 2022), 并且尚未有研究说明不同刺激的比例会影响vMMN (Stefanics et al., 2014, a review for vMMN), 但是, 使用同一刺激比例可能更能增加实验间比较的说服力。
6 结论
本研究不仅发现面孔宽高比信息能进行自动加工, 而且发现高fWHR比低fWHR的自动加工时程更长, 程度更大。这可能与其在表征某个体实际攻击性或预测他人评价该个体面孔攻击性时分别被感知为愤怒和恐惧情绪有关, 我们进一步发现, 愤怒和恐惧情绪分别促进了高低fWHR的自动加工, 但是, 愤怒情绪较中性情绪减弱了高fWHR的自动加工程度。总之, 本研究结果表明情绪可能在面孔宽高比的前注意加工阶段起重要作用。
Adams, R. B., Gordon, H. L., Baird, A. A., Ambady, N., & Kleck, R. E. (2003). Effects of gaze on amygdala sensitivity to anger and fear faces.,(5625), 1536−1536. https://doi.org/10.1126/science.1082244
Batty, M., & Taylor, M. J. (2003). Early processing of the six basic facial emotional expressions.,(3), 613−620. https://doi.org/10.1016/S0926- 6410(03)00174-5
Carré, J. M., & McCormick, C. M. (2008). In your face: Facial metrics predict aggressive behaviour in the laboratory and in varsity and professional hockey players.,(1651), 2651−2656. https://doi.org/10.1098/rspb.2008.0873
Carré, J. M., McCormick, C. M., & Hariri, A. R. (2011). The social neuroendocrinology of human aggression.,(7), 935−944. https://doi.org/ 10.1016/j.psyneuen.2011.02.001
Carré, J. M., McCormick, C. M., & Mondloch, C. J. (2009). Facial structure is a reliable cue of aggressive behavior.,(10), 1194−1198. https://doi.org/ 10.1111/j.1467-9280.2009.02423.x
Carré, J. M., Morrissey, M. D., Mondloch, C. J., & McCormick, C. M. (2010). Estimating aggression from emotionally neutral faces: Which facial cues are diagnostic?,(3), 356−377. https://doi.org/10.1068/p6543
Carré, J. M., Murphy, K. R., & Hariri, A. R. (2013). What lies beneath the face of aggression?,(2), 224−229. https://doi.org/ 10.1093/scan/nsr096
Chen, B., Sun, P., & Fu, S. (2020). Consciousness modulates the automatic change detection of masked emotional faces: Evidence from visual mismatch negativity.,, 107459. https://doi.org/10.1016/ j.neuropsychologia.2020.107459
Costa, M., Lio, G., Gomez, A., & Sirigu, A. (2017). How components of facial width to height ratio differently contribute to the perception of social traits.,(2), e0172739. https://doi.org/10.1371/journal.pone.0172739
Csizmadia, P., Petro, B., Kojouharova, P., Gaal, Z. A., Scheiling, K., Nagy, B., & Czigler, I. (2021). Older adults automatically detect age of older adults’ photographs: A visual mismatch negativity study.,, 707702. https://doi.org/10.3389/fnhum. 2021.707702
Czigler, I., Balazs, L., & Winkler, I. (2002). Memory-based detection of task-irrelevant visual changes.,(6), 869−873. https://doi.org/10.1111/1469-8986.3960869
Deska, J. C., Lloyd, E. P., & Hugenberg, K. (2018). The face of fear and anger: Facial width-to-height ratio biases recognition of angry and fearful expressions.,(3), 453−464. https://doi.org/10.1037/emo0000328
Eimer, M. (2011). The face-sensitive N170 component of the event-related brain potential. In: Calder A. J. et al. (Eds).(pp. 329−344). Oxford University Press.
Faul, F., Erdfelder, E., Lang, A. G., & Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences.,(2), 175−191. https://doi.org/ 10.3758/BF03193146
Fu, S. M., Fan, S. L., & Chen, L. (2003). Event-related potentials reveal involuntary processing of orientation changes in the visual modality.,(5), 770−775. https://doi.org/10.1111/1469-8986.00077
Geniole, S. N., Denson, T. F., Dixson, B. J., Carré, J. M., & McCormick, C. M. (2015). Evidence from meta-analyses of the facial width-to-height ratio as an evolved cue of threat.,(7), e0132726. https://doi.org/10.1371/ journal.pone.0132726
Geniole, S. N., Keyes, A. E., Mondloch, C. J., Carré, J. M., & McCormick, C. M. (2012). Facing Aggression: Cues Differ for Female versus Male Faces.,(1), e30366. https://doi.org/10.1371/journal.pone.0030366
Geniole, S. N., & McCormick, C. M. (2015). Facing our ancestors: Judgements of aggression are consistent and related to the facial width-to-height ratio in men irrespective of beards.,(4), 279−285. https://doi.org/10.1016/j.evolhumbehav.2014.12.005
Goetz, S. M. M., Shattuck, K. S., Miller, R. M., Campbell, J. A., Lozoya, E., Weisfeld, G. E., & Carré, J. M. (2013). Social status moderates the relationship between facial structure and aggression.,(11), 2329−2334. https://doi.org/10.1177/0956797613493294
Gong, X., Huang, Y. X., Wang, Y., & Luo, Y. J. (2011). Revision of the Chinese facial affective picture system.(1), 40−46.
[龚栩, 黄宇霞, 王妍, 罗跃嘉. (2011). 中国面孔表情图片系统的修订.(1), 40−46.]
Groppe, D. M., Urbach, T. P., & Kutas, M. (2011). Mass univariate analysis of event-related brain potentials/fields I: A critical tutorial review.,(12), 1711−1725. https://doi.org/10.1111/j.1469-8986.2011.01273.x
Haselhuhn, M. P., Ormiston, M. E., & Wong, E. M. (2015). Men’s facial width-to-height ratio predicts aggression: A meta-analysis.,(4), e0122637. https://doi.org/10.1371/journal.pone.0122637
Haselhuhn, M. P., & Wong, E. M. (2011). Bad to the bone: Facial structure predicts unethical behaviour.,(1728), 571−576. https://doi.org/10.1098/rspb.2011.1193
Haselton, M. G., & Funder, D. C. (2006). The evolution of accuracy and bias in social judgment. In: Schaller M. et al. (Eds.).(pp. 15−37). Psychosocial Press.
Hehman, E., Leitner, J. B., Deegan, M. P., & Gaertner, S. L. (2013). Facial structure is indicative of explicit support for prejudicial beliefs.,(3), 289−296. https://doi.org/10.1177/0956797612451467
Hehman, E., Leitner, J. B., & Gaertner, S. L. (2013). Enhancing static facial features increases intimidation.,(4), 747−754. https://doi.org/10.1016/j.jesp.2013.02.015
Itier, R. J., Latinus, M., & Taylor, M. J. (2006). Face, eye and object early processing: What is the face specificity?(2), 667−676. https://doi.org/10.1016/ j.neuroimage.2005.07.041
Kecskés-Kovács, K., Sulykos, I., & Czigler, I. (2013). Is it a face of a woman or a man? Visual mismatch negativity is sensitive to gender category.,, 532. https://doi.org/10.3389/fnhum.2013.00532
Kimura, M., Katayama, J., Ohira, H., & Schroeger, E. (2009). Visual mismatch negativity: New evidence from the equiprobable paradigm.,(2), 402−409. https://doi.org/10.1111/j.1469-8986.2008.00767.x
Kovarski, K., Latinus, M., Charpentier, J., Clery, H., Roux, S., Houy-Durand, E., … Gomot, M. (2017). Facial expression related vMMN: Disentangling emotional from neutral change detection.,, 18. https://doi.org/10.3389/fnhum.2017.00018
Kreegipuu, K., Kuldkepp, N., Sibolt, O., Toom, M., Allik, J., & Näätänen, R. (2013). vMMN for schematic faces: Automatic detection of change in emotional expression.,, 714. https://doi.org/ 10.3389/fnhum.2013.00714
Lefevre, C. E., Etchells, P. J., Howell, E. C., Clark, A. P., & Penton-Voak, I. S. (2014). Facial width-to-height ratio predicts self-reported dominance and aggression in males and females, but a measure of masculinity does not.,(10), 20140729. https://doi.org/10.1098/ rsbl.2014.0729
Lefevre, C. E., Lewis, G. J., Perrett, D. I., & Penke, L. (2013). Telling facial metrics: Facial width is associated with testosterone levels in men.,(4), 273−279. https://doi.org/10.1016/j.evolhumbehav. 2013.03.005
Li, X., Lu, Y., Sun, G., Gao, L., & Zhao, L. (2012). Visual mismatch negativity elicited by facial expressions: New evidence from the equiprobable paradigm.,, 7. https://doi.org/10.1186/1744-9081-8-7
Luo, W., Feng, W., He, W., Wang, N., & Luo, Y. (2010). Three stages of facial expression processing: ERP study with rapid serial visual presentation.(2), 1857−1867. https://doi.org/10.1016/j.neuroimage.2009.09.018
Maris, E., & Oostenveld, R. (2007). Nonparametric statistical testing of EEG- and MEG-data.(1), 177−190. https://doi.org/10.1016/j.jneumeth. 2007.03.024
Merlhiot, G., Mondillon, L., Meot, A., Dutheil, F., & Mermillod, M. (2021). Facial width-to-height ratio underlies perceived dominance on facial emotional expressions.,, 110583. https://doi.org/10.1016/j.paid.2020.110583
Peterson, C. K., Shackman, A. J., & Harmon-Jones, E. (2008). The role of asymmetrical frontal cortical activity in aggression.,(1), 86−92. https://doi.org/ 10.1111/j.1469-8986.2007.00597.x
Sassenhagen, J., & Draschkow, D. (2019). Cluster-based permutation tests of MEG/EEG data do not establish significance of effect latency or location.,(6), e13335. https://doi.org/10.1111/psyp.13335
Smith, M. L., Cottrell, G. W., Gosselin, F., & Schyns, P. G. (2005). Transmitting and decoding facial expressions.(3), 184−189. https://doi.org/ 10.2307/40064199
Stefanics, G., Csukly, G., Komlosi, S., Czobor, P., & Czigler, I. (2012). Processing of unattended facial emotions: A visual mismatch negativity study.,(3), 3042−3049. https://doi.org/10.1016/j.neuroimage.2011.10.041
Stefanics, G., Kremlacek, J., & Czigler, I. (2014). Visual mismatch negativity: A predictive coding view.,, 666. https://doi.org/10.3389/ fnhum.2014.00666
Stirrat, M., Stulp, G., & Pollet, T. V. (2012). Male facial width is associated with death by contact violence: Narrow-faced males are more likely to die from contact violence.,(5), 551−556. https://doi.org/10.1016/j.evolhumbehav.2012.02.002
Sulykos, I., & Czigler, I. (2011). One plus one is less than two: Visual features elicit non-additive mismatch-related brain activity.,, 64−71. https://doi.org/ 10.1016/j.brainres.2011.05.009
Vormbrock, R., Bruchmann, M., Menne, L., Straube, T., & Schindler, S. (2023). Testing stimulus exposure time as the critical factor of increased EPN and LPP amplitudes for fearful faces during perceptual distraction tasks.,, 9−23. https://doi.org/10.1016/j.cortex.2022.12.011
Wang, H., Chen, E., Li, J., Ji, F., Lian, Y., & Fu, S. (2022). Configural but not featural face information is associated with automatic processing., 884823. https://doi.org/10.3389/fnhum.2022.884823
Wang, H., & Fu, S. (2018). Spatial attention modulates the temporal sequence of hemispheric asymmetry in configural and featural face processing.,, 269− 275. https://doi.org/10.1016/j.neuropsychologia.2018.01.029
Wang, H., Guo, S., & Fu, S. (2016). Double dissociation of configural and featural face processing on P1 and P2 components as a function of spatial attention.,(8), 1165−1173. https://doi.org/ 10.1111/psyp.12669
Wang, H., Qiu, R., Li, W., Li, S., & Fu, S. (2020). Cultural differences in the time course of configural and featural processing for own-race faces.,, 157−170. https://doi.org/10.1016/j.neuroscience.2020.08.003
Wang, H., Sun, P., Ip, C., Zhao, X., & Fu, S. (2015). Configural and featural face processing are differently modulated by attentional resources at early stages: An event-related potential study with rapid serial visual presentation.,, 75−84. https://doi.org/ 10.1016/j.brainres.2015.01.017
Wang, W., Miao, D., & Zhao, L. (2014). Automatic detection of orientation changes of faces versus non-face objects: A visual MMN study.,, 71−78. https://doi.org/10.1016/j.biopsycho.2014.05.004
Weston, E. M., Friday, A. E., & Lio, P. (2007). Biometric evidence that sexual selection has shaped the hominin face.,(8), e710. https://doi.org/10.1371/journal.pone. 0000710
Wong, E. M., Ormiston, M. E., & Haselhuhn, M. P. (2011). A face only an investor could love: CEOs’ facial structure predicts their firms’ financial performance.,(12), 1478−1483. https://doi.org/10.1177/ 0956797611418838
Zeng, X. Q., Xu, B., Sun, B., Ye, J. T., & Fu, S. M. (2021). EMMN varies with deviant-standard stimulus pair type and emotion type: Evidence from a meta-analysis study.(7), 1163−1178.
[曾宪卿, 许冰, 孙博, 叶健彤, 傅世敏. (2021). EMMN受偏差-标准刺激对类型和情绪类型影响: 来自元分析的证据.(7), 1163−1178.]
Zheng, Z. G., Yu, Z. H., Liao, H., & Liu, J. P. (2017). Can we judge a person by his appearance? A literature review of facial width-to-height ratio.(5), 1235−1241.
[郑治国, 俞宗火, 廖华, 刘建平. (2017). 能以貌取人吗? 面孔宽高比研究述评.(5), 1235−1241.]
Zochowska, A., Nowicka, M. M., Wojcik, M. J., & Nowicka, A. (2021). Self-face and emotional faces-are they alike?,(6), 593−607. https://doi.org/10.1093/scan/nsab020
Automatic processing of facial width-to-height ratio
WANG Hailing, CHEN Enguang, LIAN Yujing, LI Jingjing, WANG Liwei
(School of Psychology, Shandong Normal University, Jinan 250358, China)
The facial width-to-height ratio (fWHR) is a stable perceptual structure of all faces. It is calculated by dividing the face width (the distance between the left and right zygion) by the face height (the distance between the eyebrow and the upper lip). Previous studies have demonstrated that men's facial width-to-height ratio is a reliable clue to noticing aggressive tendencies and behavior. Individuals with higher fWHR were considered by observers as more aggressive than those with lower fWHR. The researchers proposed that this may be related to facial expression. Observers more readily saw anger in faces with a relatively high fWHR and more readily saw fear in faces with a relatively low fWHR. However, it is unclear what the neural mechanism of fWHR is, particularly in the absence of attention. The present study investigated this issue by recording visual mismatch negativity (vMMN), which indicates automatic processing of visual information under unattended conditions.
Participants performed a size-change-detection task on a central cross, while random sequences of faces were presented in the background using a deviant-standard-reverse oddball paradigm. High fWHR faces (deviant stimuli) were presented less frequently among low fWHR faces (standard stimuli), or vice versa. Forty-one and twenty-five Chinese participated in Experiment 1 and 2, respectively. We hypothesized that faces with high fWHR would elicit a larger vMMN compared to faces with low fWHR. If the above result is related to the fact that high fWHR faces appear angrier and low fWHR faces appear more fearful, then high fWHR faces displaying an angry expression would evoke vMMN and low fWHR faces displaying a fearful expression would evoke vMMN.
In Experiment 1, faces with neutral expressions were used. The occipital-temporal vMMN emerged in the latency range of 200~500 ms for faces with high fWHR and in the latency range of 200~250 ms and 300~350 ms for faces with low fWHR. More importantly, faces with high fWHR elicited a higher vMMN than those with low fWHR faces in the 300~350 ms latency range. In Experiment 2, faces with expressions of fear and anger were used. Results showed that high-fWHR faces displaying an angry expression elicited a vMMN in the 200~250 ms and 300~400 ms latency ranges, while low-fWHR faces displaying a fearful expression elicited a vMMN in the 250~400 ms latency range, especially in the left hemisphere. Comparing Experiment 1 and 2, we found that faces with high fWHR displaying an angry expression elicited smaller vMMN than those displaying a neutral expression.
In conclusion, the present findings suggest that the facial width-to-height ratio is associated with automatic processing and provide new electrophysiological evidence for the different mechanisms underlying high and low fWHR faces under unattended conditions. The results might be related to facial expressions. Consistent with previous studies, the current finding demonstrates that automatic processing of high and low fWHR is promoted by expressions of anger and fear, respectively. At the same time, due to the automatic processing of facial expressions, the automatic processing of faces with high fWHR was weakened by angry faces relative to neutral faces.
face, facial width-to-height ratio, emotion, vMMN, automatic processing
2022-12-28
* 国家自然科学基金项目(32171042)资助。
汪海玲, E-mail: hailingwang@sdnu.edu.cn
B842