APP下载

情绪识别技术的伦理风险及其规避

2024-08-20李仕琦

今古文创 2024年31期

【摘要】情绪识别技术主要通过收集表情容貌、身体动作、语言内容等人类个体特征来解读人类心理活动。这项技术的应用可以在多领域推进人类社会进步,但是也给人类带来潜在的伦理风险问题。情绪识别技术有其理论基础,而从其应用特征来看,导致技术风险的原因主要在于情绪识别技术仍处于初步发展阶段和相关技术管理规定上的空白,正是由于对该项技术风险管控的认识不足,才导致情绪识别技术的伦理风险。问题的解决,需要从该技术伦理观念的更新、对于该技术市场的有效管控和完善已有伦理制度等出发;而从管理者的角度来看,进一步规避该技术应用所带来的伦理风险,一方面需要构建以民众为基础的知情同意机制,另一方面也需要提高情绪识别技术伦理失范的代价,更需要对该技术进行风险分级管控。

【关键词】情绪识别技术;伦理风险;技术伦理

【中图分类号】B82 【文献标识码】A 【文章编号】2096-8264(2024)31-0133-04

【DOI】10.20024/j.cnki.CN42-1911/I.2024.31.037

基金项目:江苏师范大学研究生科研与实践创新计划项目“生物医学道德增强的伦理可行性研究”(项目编号:2024XKT1063)。

情绪识别是一种新的识别技术,可以收集人类个体的表情容貌、身体动作、语言内容等人类个体特征来进行解读人类心理的活动,这项技术可以通过人类的这些细节来解读人类内心的情绪,从而通过计算机的算法来理解人类复杂的情绪。这项技术可以提升机器与人类的互动能力,使得人机交互体验得到进一步优化;同时也可以在一些领域内帮助人类,如医疗、商业领域等。情绪识别技术在很多领域透露出来的潜力,一方面使得人类对未来发展前景持乐观态度,另一方面也产生了很多担心的情绪。未来情绪识别技术广泛运用后,其伦理风险问题必将十分突出,因此人类需要早日思考其产生原因,制定规则规范其使用界限,在此基础上为规避情绪识别技术潜在的风险提供方案,这是人类必须聚焦的问题。

一、情绪识别技术的理论基础与技术特征

比之常见的AI技术,情绪识别技术拥有其独特的生物理论基础:高级动物在自然界进化过程中,往往都形成了情绪的稳定表达机制。在《人与动物的情绪表达》中,达尔文就提到像诸如害怕、喜悦、生气等情绪都有着一些稳定的情绪表达,一方面体现在脸上的表情,另一方面体现在声音的变化。从表情上来看,不同种族的人都会有相似的表情来传达内心的情绪;从声音上来看,不同的声音也代表着各种各样的情绪,爽朗的笑声代表着内心的愉快,一些年轻人在很高兴的时候通常会大笑不止,当一些动物十分难受时,它们则会痛苦地呻吟或者“流眼泪”;所以人类或者一些高等动物都有着比较稳定可以识别的情绪表达。

对于这种现象,达尔文的解释是:情绪表达对于动物乃至人类的生存交往具有重要作用;从人类或者动物个体的视角来看,人类或者动物如果处在一定的状态下,内心的情绪会有所反映,此时如果采取一定的行动就可以有效的舒缓一些感觉和欲望。例如说人在不开心的时候,身体中一些激素和酶会异常分泌,而哭泣这种特定行为则有助于使人回归常态,缓解人的不适情绪。

人类和动物的很多基本情绪是刻在基因里的,有助于人们稳定的保持生活习惯生存下去,这些情绪是全人类共有的。在人类的语言文字被创造以前,人们是通过情绪来交流和传递信息的,这一切都需要情绪表达是可继承的和不易变化的。保罗·埃克曼作为心理学家也同意达尔文的看法,他认为大自然的进化过程,使得人类具有统一的基本情绪表达。他们对于情绪表达的观点对后世情绪识别技术有着深远的影响,为此奠定了生物学基础。

要想更好地使用情绪识别技术,就必须了解此项技术独有的特征和当今的状况。首先,当下的情绪识别技术较为重视人类情绪的传达,而不是那么重视语句和情境的作用。情感计算的先驱罗莎琳德·皮卡德(Rosalind W·Picard)曾将情绪识别技术界义为:“通过观察情绪表达以及对情绪产生的情境进行推理,计算机可以像人类一样准确地推断(人)的情绪状态。”[1]

机器可以对人类的情绪进行综合识别,不断学习、不断优化。但是当今的技术不够发达,人类情绪也较为复杂,所以当下的情绪识别技术主要还是着力于识别人类特有的情绪,而不是着重于语句和情境的分析。[2]

人们的情绪传达到体外主要是通过两类渠道,一类是情绪动作,如人类的表情,人类的说话语气等;另一类是通过一些生理体征来传达,如呼吸急促、心率加快等。与之对应的是,人工智能对人类情绪的识别方法也主要分为以下四类:第一类是识别人类的面部表情;第二类是识别人类的语气特征;第三类是识别人类生理的特有信号;第四类则是将前面三类综合起来,采用多进路的识别方式,所以第四类也是当下的热门情绪识别方法。

情绪识别技术的应用主要是在审讯、驾驶、教育、商业决策和医疗等领域,在这些实际运用中,该项技术一方面提升了这些领域的工作效率、优化了使用者的实际体验,但另一方面也带来了许多不确定的风险。德国著名社会学家乌尔里希·贝克指出:“风险是不可见的。 暗含的因果关系常常维持着或多或少的不确定性和暂时性。”[3]27人类必须在充分了解技术风险预期的情况下,才能充分地使用这项技术,不然可能会造成无法预知的后果。

二、情绪识别技术伦理风险的基本表现

(一)伦理关系失调风险

正如康德所言:“人,实则一切有理性者……在他的一切行为上,总要把人认为目的。”[4]一切的技术的发明和使用,首先要基于人的使用,要保证人的主体地位;如果一种技术将人奴役了,把人变成了工具,那这项技术一定不会被人欢迎。如果放任该项技术随意发展,人与人之间的交往关系就会因其而产生异化:一方面,情绪识别技术会使得人失去其主体性的地位,一些人会利用这样的技术去检测控制其他人的情绪行为,这会使得弱势群体丧失其主体地位,变成处于不安全状况下的异化的人,使得人与人之间的关系产生很大的伦理问题;另一方面这项技术可能会使得人丧失其自身的社交尊严,如果一个人的情绪在机器的检测下一览无余,喜怒哀乐毫无秘密,那这个人的主体尊严荡然无存,如果人与人之间的交往关系变成了各种机器识别的结果,那人就没有了人应该所处的地位。除此之外,情绪识别技术还会使得人类恐惧进行交往,人一旦开始交往可能就会被机器偷偷地监视着,机器可以在人完全不知情的情况下分析和判断人的情绪变化,这会使得所有人都处于怀疑和被怀疑的状态,人在这样的状态下十分焦虑,不知如何是好。

(二)伦理价值失衡风险

情绪识别技术目前仍然只被少数人所使用,这会导致拥有这些技术的人压迫没有这些技术的人,这就会导致情绪识别技术对于社会上的处于相对弱势的群体产生一定的负面影响。靠着情绪识别技术,有可能一些使用该技术的优势群体会利用“科学”将弱势群体打上一些充满歧视的标签,用“伪科学”来不当获利。与此同时,弱势群体不断提供着海量的情绪信息以供机器学习和进化,但个体化的弱势群体则是被忽视掉了,相对于海量的数据而言。这无疑隐藏着垄断的风险,检测者利用此不断获利。在未来,随着该项技术的不断发展,人类的所有情绪都可能被解读出来,上位者利用这些去控制弱势群体,这也就是德勒兹所预言的“控制社会”[5]。人们被技术所控制和制约,人通过技术统治其他人,人与人的关系也就发生了异化。

(三)伦理行为异化风险

美国技术哲学家唐·伊德开创的后现象学技术哲学深入讨论了人、技术、世界三者之间的四种关系,即“具身关系”“解释关系”“它异关系”“背景关系”。[6]这四种关系可以为我们思考情绪识别技术的潜在风险提供理论基础。从“具身关系”的角度出发,情绪识别技术一定程度上让人们与世界互动的方式发生了变化,原来人们通过自身的生活技能和经验来做出独立判断,现在则是技术加入其中,人们可能在这个过程中被技术支配,丧失人的理性,做出一些不当行为;从“解释关系”的角度出发,人们对于情绪识别技术的依赖,可能会出现很多错误,例如情绪识别技术如果对人的情绪解释出错,那人们看到的结果也是错误的,甚至可能被有心人所利用,产生不良的后果;从“他异关系”的角度出发,情绪识别技术可能会使人陷入技术的控制,使人变为技术的对象物,人类的情绪将会成为控制人的工具,人与人之间变得异化,人处于这种唯一的世界中无法逃离;从“背景关系”的角度出发,该项技术会构成人类的生活背景,以不被注意到的方式影响人类的生存状态,这种情况会让人类无比依赖这项技术,自我束缚于其中。

三、情绪识别技术伦理风险的成因

情绪识别技术的应用是一把双刃剑,既会为人类社会带来发展的机遇,也会对人类文明产生一定的威胁。人类的存续与人工智能发展之间的关系需要被谨慎思考。[7]人类应该对于情绪识别技术带来的潜在威胁加以关注,并提前思考和反思。

(一)识别界限问题

情绪识别技术在使用中可能会遭遇识别界限的问题:一方面从情绪识别技术的生理学基础来看,情绪识别技术的理论基础是基本情绪理论,只能够识别人类的动物的基本情绪。一些设计者在此基础上越界应用该项技术,比如使用振动图像技术记录受试者的头部运动情况,通过分析头部运动的数值测试受试者的心理状态。这项技术本身的原理可能是正确的,但是其应用场景可能会存在一些问题:一些警察可能会将可疑人群进行情绪识别测试,如果可疑人群没有通过该项测试,就可能会被审查和限制人身自由,对其生活产生了重大影响。但在没有其他证据的情况下,该项技术并不具有足够的效力证明可疑人群犯罪,明显是对该项技术的不合理的运用。另一方面,一些商业开发者,会使用模糊的语言诱导消费者情绪识别机器可以完全识别人类复杂行为等,夸大该产品的功能,将情绪识别扩大化,产生不好的影响。

(二)算法问题与风险

情绪识别技术背后的逻辑是AI算法,可能会遭遇如算法可解释性等问题:人类的情绪是可以通过语言来阐述的,而机器算法背后的缘由则是比较难以判断的,所以在一些公众决策上,人类很有可能会质疑机器算法的合理性。

除了算法的可解释性,机器情绪识别不够准确和过于准确也会带来一些风险。如在识别产生问题不够准确的情况下,机器情绪识别会产生很多的问题。原因可能是机器情绪识别的时间过短,在有限的时间内情绪识别机器只能采集到极其有限的信息,可能会对其判断产生误导;与此同时,机器情绪识别主要基于机器的深度学习,深度学习就意味着这是一种统计学的可能性,不可能做到百分之百准确,仍旧有失误的可能性;还有就是机器情绪识别可能会面临数据来源过于狭窄的问题,如都采用了美国人的表情特征,就会导致数据过于集中,在美国人情绪的识别上准确率较高,对于亚洲人则不是很适用的问题;除了上述的原因,目前的情绪机器识别只会侧重于人类的生理表情,而不会结合当时的情景加以推理,如此就会出现很多问题,例如一个人如果喜极而泣的情况下,人类会识别为情绪过于激动,十分喜悦,而机器则可能被人所“欺骗”,做出这个人十分难过,从而哭泣的错误判断,从而人们可以故意去欺骗机器,做出与内心相反的表情动作,产生一些风险,影响识别效果。

四、情绪识别技术风险规避基本措施

面对情绪识别技术可能导致的诸多伦理风险,人类要未雨绸缪,行动起来主动应对,提出行之有效的应对措施,以规避未来的不良后果。

第一,建立良好的知情同意机制,保证公众的情绪隐私权利不受侵犯。虽然现在的情绪识别技术仍在快速发展,但人类的情绪十分复杂,是不能完全被情绪识别技术解读和准确传达的,而且人与人之间也需要隐私和距离,不需要这样完全的情绪解读。公众需要对情绪识别技术有着正确的认知,才能够有效地维护自身的权利,不被技术所控制。首先,这项技术的开发者要尽可能保证公开公正,在技术的使用过程中,要明确告知技术的受体正在被这项技术所检测,征得对方同意后方可使用此项技术。其次,在技术使用的过程中,要尽可能尊重人的主体地位和价值,引导技术使用者尊重他人,告知他这项技术只是对人类情绪的简单解读,保证人和人之间的关系。最后,在技术使用完成时,要及时告知技术受体识别的结果及结果的可能用途以及可能产生的影响,将权利交给技术受体本身,获取被检测者的支持和理解。

第二,进一步研究和明确伦理规范的边界,加大对伦理失范的惩戒力度。在情绪识别技术中,参与投资和研发的人员都是为了逐利而进行活动,所以可以通过提高伦理失范代价来调节市场,从而提高他们的风险防范意识。首先要进一步完善该项技术市场的进出机制,从而维护该市场的良好环境,一方面要鼓励遵守市场规则的该项技术的研究机构,另一方面要加大进入该市场研发机构的审查力度。其次是要针对情绪识别技术设立专门的监督机构,负责该项技术研发及应用的伦理审查工作,与市场参与者沟通好要承担的风险。最后是要大力宣扬个人的职业道德,通过树立榜样和打击违反者来提高该行业从业者的个人素质,同时加强社会监督举报机制,强化社会对于情绪识别技术的潜在风险意识。

第三,建立健全法律法制,明晰约束不当技术行为所需的司法依据。法律是伦理道德的底线,要通过架构与该项技术匹配发展的法律体系,来优化该行业的法律环境。情绪识别技术对于公众情绪的窃取已经突破了传统法律体系的制约,所以我国需要架构更为合适不断进步的法律体系,针对性地对其进行约束和治理。一方面要令行禁止,对于情绪识别技术的不当行为做出禁止性规定,依法追责;另一方面要充分保护被该项技术检测者的权益,以法律保护民众的权益不受损害。

相比上文的应用场景而言,人与机器的互动伦理风险较低。如果能成熟使用这项技术,提升情绪识别的准确性,同时做好民众隐私权益的保护,这项技术就可以带来很多好的后果,这些收益将远远超过其隐含的风险。

例如已经普及压力识别功能的智能手表,可以帮助管理好个人的情绪和健康,有助于个人提升生活幸福感。整体来看,情绪识别机器只是提供了一些与情绪有关的识别因素,而被试者的情绪水平则是由人来参考因素做出判断的。

虽然这样的思路加入了人的因素,能够较大程度上减少该技术带来的潜在风险,但是这也很大程度上限制了该技术的进步和发展,机器只是一个记录的功能,而丧失了核心的判断功能,和情绪识别技术发明的愿景不一致。

所以更好的方案是在中间找到适中的点,可以将机器判断的结果作为一个优先参考的结果,是一个提高效率的做法,再辅以使用者和被测试者的双重确认,但这种确认也要考虑人力和经济成本,这仍是需要进一步商榷的。

还可以依据具体情况来判断在多大程度上依赖机器的判断结果,如果情况越严峻、越复杂,就越要依赖于人做出最终判断;反之则交给机器就可以。这样的风险评级可以和多大程度上使用机器判断相辅相成,综合作用。

这种方案的优势首先是保留了情绪识别机器的核心功能,无论人类在多大程度上信赖机器的情绪评估结果,机器仍是在不断学习的,仍在做着真正的情绪识别工作,是在不断发展和进步的,而不是只是一个记录数据的工具。其次是确保了人在统治机器,决策权在人,人来做最后的决策,纠正机器可能出现的错误,这样可以有效降低情绪识别机器的伦理风险。

最后是可以将风险分级制度与情绪评估的可信赖度很好的结果起来,根据不同的风险级别,有针对性地治理和权衡,提升效率。情绪评估的可信赖度可以根据着风险分级的大小来同步变化,在高风险的情况下使用较弱的情绪评估可信赖度,更多相信人的判断,避免可能出现的伦理风险;在中风险的情况下使用适中的情绪评估可信赖度,由人来做决策,较大程度上参考机器的情绪评估结果;在低风险的情况下则以节省人力为主,通过不断的机器学习,提高机器情绪识别的准确度和速度。

除了上面制度管理的方案外,情绪识别技术更需要技术的改进和根据实际情况的不断修正,要增加情绪识别数据的来源广泛性,不断提升其算法的准确度;多应用多模态综合判断的情绪识别技术,根据不同场景、不同设备动态调整识别策略和动态评估算法的准确度。

五、结语

情绪识别技术是新时代革命性的科技成果,可能会改变人类和机器互动的传统模式,有着十分广泛的应用愿景。人类要一方面利用好情绪识别技术带来的优势,推动社会进步;另一方面更要注意情绪识别技术潜在的伦理风险,做到防患于未然。人类要坚持科学的态度对待它,要在拥有科学证据的前提下判断其可信度,既不盲目迷信它,也不盲目抵制它。

对于情绪识别技术的管理,要整体全面推进,顶层进行原则上的指定,中层则是负责推进规定,底层则要灵活运用好规定;顶层可以着重于维护弱势群体的权益,中层可以根据情绪识别技术的实际应用过程和应用后果来区分不同的应用场景,底层可以根据中层判断的不同场景,来判断在何种程度上信赖情绪识别的结果以及如何保护自身的权益。

人类的目标始终是利用好新的情绪识别技术,一方面让其为人类社会的进步做出应有的贡献,另一方面提前避免其带来的风险和问题。在这条路上,人类还有很远的路要走,不断摸索,不断改进。

参考文献:

[1]阮凯.情绪识别技术的问题、风险与规治[J].自然辩证法通讯,2023,45(02):82-90.

[2]谢小飞,吴家华.论情绪识别技术的伦理风险及其防控[J].学术交流,2022,(11):151-160.

[3]贝克.风险社会[M].何博闻译.南京:译林出版社,2004:27.

[4]康德.道德形而上学探本[M].唐钺译.北京:商务印书馆,1957:42.

[5]德勒兹.哲学与权力的谈判[M].刘汉全译.南京:译林出版社,2012:191.

[6]伊德.技术与生活世界——从伊甸园到尘世[M].韩连庆译.北京:北京大学出版社,2012:95.

[7]王东,张振.人工智能伦理风险的镜像、透视及其规避[J].伦理学研究,2021,(1):109.

作者简介:

李仕琦,男,江苏徐州人,硕士研究生,主要从事科技伦理方面的研究。