情感计算在数字行政治理中的应用、风险及规制
2023-06-07黄雪英
黄雪英
问题的提出
在政府治理领域中,建立“数字政府”或“数字法治政府”的呼声愈发高涨。《中国法治政府评估报告(2021—2022)》指出,“数字法治政府”是新增的法治政府评估一级指标,而“智能高效”则是该指标体系中的观察点之一。(1)中国政法大学法治政府研究院:《中国法治政府评估报告(2021—2022)》,社会科学文献出版社2023年版,第253—277页。虽然目前各类人工智能体已经具备了一定的自主交互能力,但缺失情感感知与情感反馈等情感要素的智能体始终无法实现真正的“智慧化”。在情理社会中,仅关注科学性、知识性和合法性的行政治理无法满足现实需求。基于情感治理在国家治理中的重要性,数字行政治理也应该关切情感计算技术的嵌入和运行。实际上,部分政府平台已经逐步将情感计算或“数据画像”纳入公共安全防范系统、应急管理决策系统和基层网格化治理系统的建设中,(2)马平川:《平台数据权力的运行逻辑及法律规制》,《法律科学(西北政法大学学报)》2023年第2期。以期提升行政机关与行政相对人的深度交互体验,提升行政机关的治理效能和服务质量。
我国对新兴技术的规制多采用回应型立法模式,即先给予新兴技术足够的发展空间,当技术问题累积到一定程度再进行立法规制。但是,伴随情感计算在医疗、教育、商业、就业、执法等领域的应用拓展,(3)参见王禄生:《情感计算的应用困境及其法律规制》,《东方法学》2021年第4期;龚善要:《教育场景中情感计算的应用风险及其法律规制》,《复旦教育论坛》2022年第6期;岳远雷、徐着雨:《医疗情感计算应用的多维困境及其法治实现》,《医学与哲学》2022年第19期。技术发展与法治建设之间的张力愈发凸显,行政治理活动中人的主体地位和数据权利受到侵害,此时亟须将行政治理活动中的情感计算纳入法治化治理轨道,以最大程度实现技术红利。此外,情感计算可能涉及计算科学、心理科学与认知科学等多学科的交叉内容,行政机关工作人员综合知识储备的不足进一步加剧了实践需求与理论供给之间的失衡状态,技术与行政治理的良性运转一时无法实现。基于此,为化解技术与规范之间的冲突和张力,有必要在明确情感计算技术逻辑的基础上,对其技术风险和制度风险进行规范限制。
因此,我们应该在明确情感计算技术的运行逻辑基础之上,就其在数字行政治理中的风险进行判别、分析和预测,并在行政法治原则之下从技术本身以及技术运用两个层面通过多种手段规避其可能存在的风险,促进我国政府服务能力的提升,加快政府治理体系与治理能力现代化建设。
数字行政治理中情感计算技术的应用
“情感计算”这一概念由皮卡德(R. W. Picard)最先提出,(4)Rosalind W. Picard, Affective Computing, Cambridge: The MIT Press, 1997.其作为人工智能技术,在嵌入行政治理时也意味着人类智能体与人工智能体同时成为政务服务的提供者,(5)王张华、颜佳华:《人工智能驱动政府治理变革:技术逻辑、价值准则和目标指向》,《天津行政学院学报》2020年第6期。从而使得人类在数字行政治理过程中能够充分运用技术治理逻辑来增强其治理能力。
(一)情感计算技术服务于行政治理虚拟场景的搭建
数字技术的繁荣发展使传统的行政治理行动得以在虚拟场景中进行,数字空间或元宇宙为实现跨时空行政治理奠定了基础。在搭建虚拟行政治理空间的过程中,情感计算能够有效复现参与者的内心情感状态,从而使虚拟场景更具拟真性。
将情感计算嵌入行政治理场域不仅能优化政治生态,还能维系公民与行政机关的情感联结。行政管理者在面对具体行政治理情境时,要能够在移情过程中产生与他人经历上的一体感。(6)王锋:《公共行政的情感之维——基于同情的理解》,《天津行政学院学报》2022年第5期。“情感治理”则意味着政府在公共治理中要重视“人”及其情感的回归,这种对理性、制度和技术治理进行深刻反思的倾向能够有效柔化行政治理中的刚性结构,优化国家治理方式和手段。虽然情感治理的叙事通常由于“治理重心下沉”的需要而被局限在“社区治理”或“基层治理”等层面,(7)王丽萍:《国家治理中的情感治理:价值、逻辑与实践》,《山东社会科学》2021年第9期。但现代社会的群体离散性导致这种情感联结的必要性已然不仅仅体现在社区治理中。各级政府应该及时了解公民的情感动向,并明晰此种情感产生的原因。目前,该叙事方式或话语尚未扩展至更广的层面,原因之一就在于传统行政治理与尚未成熟的数字行政治理活动对情感的感受与认知存在障碍,人力、时间等资源的有限性导致情感治理无法彻底展开。
情感计算可以在技术层面上有效克服行政治理在获取、分析情感要素能力方面的阙如,使得行政治理活动不再囿于对主体外在行动的识别,更能够直接深入到主体的个性情绪或情感维度。(8)张新宝、葛鑫:《人脸识别法律规制的利益衡量与制度构建》,《湖湘法学评论》2021年第1期。一方面,通过情感计算技术,治理主体能够结合人类智能体与人工智能体的“双重智慧”,增强其在现实治理活动中对治理对象情感状态的认知能力,提供更具针对性和个性化的政务服务,提升行政治理效能;另一方面,情感计算能够帮助治理活动中的各方参与者在虚拟场景中获得更真实、更具象化的体验,使治理者能够了解被治理者的真实情感反馈,透过传统的信息媒介接触治理对象行为背后隐藏的真实目的和深层情感需求,从而进行相应的行动或制度调整。此外,在理想的虚拟交互场景中,情感计算是针对治理者和治理对象双方同时进行的,这使得数字行政治理不仅能够满足各方的拟真性需求,还能完成对传统“面对面”式行政治理模式的超越。不同于以往“政府—公民”的单向治理方式,情感计算技术的嵌入能够帮助参与者获致立体的、双向的“情感蓝图”,从而强化公职人员与群众之间的情感互动,(9)徐明强:《中国科层制的情感属性:源流、定位与比较》,《政治学研究》2022年第5期。使治理活动的各方参与者之间能够在内在情绪或情感的层面形成紧密联系。基于此,情感治理与数字行政都能够在某种程度上超越现有的体系。对“人”及其情感的关切不仅要求治理者密切关注治理对象的情感状态,还要求被治理者能够适当理解治理者所肩负的责任。在此过程中,情感计算不仅为搭建一个和谐的虚拟治理场景提供了可能性,还为数字行政治理活动设定了限制框架:情感计算使治理者消极的情感反应无所遁形,从而建构了一种健康的行政治理面貌。
(二)情感计算适配行政执法技术工具升级
在行政执法场域,捕获特定主体主观情感状态是提升执法能力的重要环节,也是提高人民群众对于行政治理满意度的有效途径。然而,由于情感具有一定“神秘性”,仅凭人类智能准确获知特定对象的完整情感状态较为困难。因此,在数字行政治理的背景下,借助情感计算适配行政执法技术工具升级实为必要。例如,“灵视多模态情绪研判系统”(针对审讯问询场景的业务系统)、(10)亿欧:《多维度识别情绪,这家公司要打造审讯问询的Alpha Go》,https://www.sohu.com/a/303378512_115035。“审讯场景的无感知情绪检测分析系统”(11)《太古计算行为分析技术,让生活更智能,更美好!》,http://www.taigusys.com/news/news145.html。等技术能够为行政执法提供技术助力。一方面,情感计算在行政执法中的应用场域多集中于审讯问询或治理管理,能够有效改善行政执法多源数据融合能力和多模态情感分析能力。与单模态相比,多模态情感计算无论是在准确率还是效率上都具有显著优势。(12)Sidney K. D’mello, Jacqueline Kory, “A Review and Meta-Analysis of Multimodal Affect Detection Systems”, ACM Computing Surveys, Vol.47, No.3, 2015, pp.1-36.人们往往能够通过单模态情感条件和特性分析出特定对象的情感状态,并进一步确认对象的情感或立场特性(即反对、支持或中立)。(13)权学良等:《基于生理信号的情感计算研究综述》,《自动化学报》2021年第8期。然而,人们在日常生活中一般也会采取多模态的方式对情感进行感知与识别,从而形成一个立体、全面、完整的认知结果。(14)例如,人们在交流时,如果在倾听到内容的同时也观察到了发言者的语气和语调以及面部表情和肢体行为,则会更加准确地理解和判断出发言者说话的动机、意图以及相应的情感状态。参见饶元等:《基于语义分析的情感计算技术研究进展》,《软件学报》2018年第8期。情感计算将多源数据进行融合,使数字行政治理主体能够统合文本、语音、视频、生理信号等多模态信息,最大程度地复现执法对象的内心情感倾向与立场,通过提高识别准确率帮助执法人员排除外界干扰和主观偏见,作出更为准确和理性的决策。
另一方面,情感计算的嵌入能够有效分担行政人员的压力,实现行政治理活动的高效化。以往的行政执法技术工具通常仅用于收集相关决策或行动所需的信息,而具体的分析与判断仍依赖于执法人员的审慎决断。然而,当行政执法工作面临大量难以处理的数据,或公职人员因个人和职务原因而陷入消极状态(如身心疲倦、情绪低落等)时,相应的执法行动会受到极大的影响,行政相对人的切身利益可能也会因此受到损害。情感计算技术不仅能够借助人工智能的持续性优势大幅降低执法人员的时间和精力损耗、提高行政效率,还可以借助相关技术产品提供的科学分析提升行政执法活动的合法性与合理性。
(三)情感计算推动行政治理的智慧化转型
一方面,情感计算使行政治理行动更具体化,使其能够更好地满足建设服务型政府的需要。传统行政治理模式沉浸于科层制体制内部的政治需求和政治目标,忽视了与公众之间的情感联结。而情感计算能够帮助治理主体精确剖析治理对象的情感状态,判断情感极性、收集倾向数据,从而使治理者能够根据不同的情感反馈及时、全面地获悉治理举措产生的社会效果和影响,并在合理、合法的框架内适当调整治理措施。基于此,不同个体和群体的多元化需求能够得到极大满足,使作为独立个体的“人”(而不是抽象的“社会”)感受到“行政为民”的力度与温度,在个性化与凝聚力之间形成良性互动。
另一方面,情感计算推动了行政治理的内生发展,扩充了行政治理介质。传统行政治理模式主要关注治理对象的外在行为,且“数字行政治理”的话语体系也仅仅是对“外在行为”进行了一定的延展(至数字空间)。而情感计算则更为直接地触及人们的心灵,当人们的情感状态可以被感知、计算和分析时,行政治理的介质就从外在行动扩充到了精神领域,治理者需要关注治理行动对被治理者内心产生的效果。同时,此种精神或情感需求不能由治理者肆意假设或遐想,其实质内涵已然可以通过情感计算得以确证,这在一定程度上也限制了相关主体的行政权力的无序扩张。
数字行政治理中情感计算技术的风险
情感计算存在着较多的高风险应用,在数字行政治理过程中亦不例外。对风险的准确界定是进行有效规制的前提,具体而言,情感计算在数字行政治理活动中可能存在信息边界界定困难、个人隐私数据受到侵犯、个人情感自主性被消解以及行政公权力过度扩张等风险。
(一)模糊情感信息与生物信息的边界
《欧盟人工智能协调规则的提案》第3条明确指出,情感识别系统是一种人工智能,用于根据自然人的生物特征数据识别或推断自然人的情绪或意图。其中,“生物特征数据”属于“生物信息”的范畴,而“自然人的情绪和意图”则属于“情感信息”的范畴。然而,情感信息与生物信息具有相似性,二者的概念范围存在交叉或重叠。具体而言,生物信息包括生物识别信息和生物反馈信息。生物识别信息能够直接、准确地体现个人的生物特征,我国《信息安全技术人格信息安全规范》附录B规定,“个人生物识别信息包括个人基因、指纹、声纹、掌纹、耳廓、面部识别特征等”。而生物反馈信息的收集与处理则是为了识别信息主体的情感状态,具有一定的主观性和难以辨别性。
现阶段情感计算要在“感知”的基础上实现对生物信息的“识别”,解析出某一生物信息当中所蕴含的情感状态。人工智能通过不断积累与深度学习,最终形成固定的情感识别算法模型。在后续运用过程中,即可通过输入定向生物信息从而相应输出定向情感状态。通过上述技术路径可知,情感计算是意图通过生物信息来揭示情感信息的技术。二者之间的从属关系导致某些生物信息是否为情感信息的载体或反应难以界定,这种情况可能导致行政机关信息收集范围的肆意扩大与权力的滥用,甚至由于信息收集不准确导致计算结果出现偏差,引发决策错误。
(二)情感操纵侵犯个人信息的私密性
情感操纵是指网络平台在情感识别的基础上向用户投放相关信息,以利用、控制或影响用户情绪的方式指引其作出相关决策并获得相关利益。(15)褚婧一:《情感计算的信息隐私法律风险及其应对》,《交大法学》2023年第3期。情感操纵的前提是情感信息的获取,其实现依赖于对情感信息的计算。然而,情感信息的本质属性可能与隐私权存在相似性。《民法典》第1032条第2款规定:“隐私是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息。”此时,自然人的某种不愿意被他人所察觉或知悉的情感可能属于“隐私”的范畴,具有一定的秘密性和敏感性。
一方面,对情感信息的归纳计算极易侵犯行政相对人的个人隐私。虽然直接显露在脸上的表情是一种“公共泄露”,无法达至私密的程度。但当行政机关通过对表情的标记、识别与分析并据此作出判断时则极易侵犯个人信息的私密性。例如,阿尔法鹰眼通过视频动态分析精神生理参数来监测危险人物,即通过摄像头采集的人体面部视频流,分析头部和颈部微小肌肉振动的频率和振幅,计算出个人压力、侵略性和焦虑度等参数,甄别有自体原发性焦虑紧张状态的潜在可疑危险人员以辅助安检人工排查。(16)荔枝:《生物识别3.0时代,阿尔法鹰眼想用“情感计算”布局智慧安全》,https://www.sohu.com/a/137016839_114778。诸如对个人压力、焦虑度等的揭示则具有明显的深入性与侵入性,具有探究“隐私”的意涵,尤其是当对情感算法进行不当使用或者滥用时,极易产生侵犯隐私权的风险。
另一方面,情感操纵会使个人失去对选择是否公开情感信息的控制力。隐私之所以重要,在于其关乎一个完整、独立、自决的人,而非一个固定、透明随时被预测的人。(17)李延舜:《个人信息保护中的第三方当事人规则之反思》,《法商研究》2022年第4期。个人对信息的控制能力表现在,既能控制自己的何种信息能够被披露,又能控制自己的何种信息不被披露。美国著名隐私权学者索洛韦伊认为,隐私保护制度“应当是个人能够自主选择何种信息可以被收集与使用的制度”。(18)[美]丹尼尔·J.索洛韦伊:《隐私权与权力:计算机数据库与信息性隐私权隐喻》,孙言译,张民安编:《信息性隐私权研究——信息性隐私权的产生、发展、适用范围和争议》,中山大学出版社2014年版,第176页。在情感操纵的干预下,个人不仅可能无力控制何种情感信息被以数据的形式呈现,还有可能无力决定何种信息能够脱离个人控制而进入公共领域。据此,情感操纵在数字行政治理过程中引发了极大的隐私权危机。
(三)机器情感消解个人的情感自主性
人的秉性包括智性、心性与灵性。人工智能涵盖逻辑推理、可计算性、规则性、功利性和经验,总体来说是智性的体现。但算法能否发展出心性和灵性则是一个可想但不可及的问题。(19)於兴中:《数字素养:从算法社会到网络3.0》,上海人民出版社2022年版,第51—52页。实际上,情感计算便试图以机器情感来对抗人的心性与灵性,即情感的自主性。从情感计算的类别化分析来看:文本情感计算包括文本信息采集、情感特征提取以及情感信息分类,在完成文本信息采集后,借助文本抓取工具获得情感评论文本,在提取过程中转化为计算机语言,并通过情感信息分类得出计算结果。(20)张瑞:《文本情感计算研究综述》,《管理观察》2017年第13期。语言情感计算是指通过对语音信号的测量、分解、分析、合成等方法进行情感方面的计算,从而使计算机具备一定程度的情感能力。如,医疗情感聊天机器人的本质是一种由信号分析和自动语言识别、语义分析和对话策略、响应生成和语音合成组建的自主系统,可以通过与病人进行交互来检测情感,确定并模拟情感答案。(21)Joachim von Braun, et al., Robotics, AI, and Humanity, Cham: Springer, 2021.面部表情情感计算与语言情感计算的运行机理基本相似,只是将所收集分析的对象变成了人脸表情模态,通过对面部表情的分析来辨别其蕴含的情绪。
通过对以上不同情感计算类型运行机理的剖析,可以发现其核心技术逻辑在于“通过情感测量和建模的过程,从定量的方面将情感客观化”。(22)朱敏:《情感计算展现强大应用潜力》,《社会科学报》2023年1月19日。为实现定量的情感客观化,需要满足以下条件:(1)一个人的内在情感需要能够通过外在表现予以展示;(2)上述内在情感的外在表达需要在提取上具有普遍性;(3)这种挖掘需要足够可靠以支撑作出决策。但是,情感具有极强的主观性和自主性,一个生理信息与某一情感之间并不具有唯一性的联系,可能会承载多重感情。整体而言,心理生理数据非常复杂,难以证明其与情绪之间的因果关系。(23)Robert D. Ward, Philip H. Marsden, “Affective Computing: Problems, Reactions and Intentions”, Interacting with Computers, Vol.16, No.4, 2004, pp.707-713.不同的文化传统与社会背景,个人的成长环境和社会经历,都可能对人的感情产生影响。况且,现有技术尚不成熟,无法准确地对多样化、各有差异的情感进行标记。故而,意图用机器算法来对抗主观性、自主性的情感难逃为时过早之嫌。
(四)情感计算的应用易导致算法公权力过度扩张
第一,算法黑箱滋生权力滥用风险。鉴于算法的技术性和专业性,除了少数研发人员外,外部人员很难对算法的运行有充分的了解和掌握。即使现下对算法黑箱危害性的认识不断深化,并尝试通过算法解释权等路径予以规制,但当算法进行深度学习后,研发人员某种程度上可能也无法解释算法模型的具体原理和运行路径。权力是否合法运行、依规运行、谦抑运行等并无明确答案。况且,“一切拥有权力的人都容易滥用权力”,尤其是在缺乏有效制约的情况下,此时,“算法黑箱”的存在将容易使公权力产生过度扩张的危险。
第二,情感计算的监控效力诱发权力膨胀。“情感计算应用的重要假设是可以推断内心的真实情感,并应当以此为基础作出决策。”(24)王禄生:《情感计算的应用困境及其法律规制》,《东方法学》2021年第4期。当通过情感计算能够识别每个人的情绪时,实则是将人放置在秘密且全面的监控中。尤其是当通过一个人的细微生理行为如语言行为、面部表情等便可分析出此人的内心感受、想法与偏好,此时行政权力的过度扩张就会使个人处于单向透明的不对等境况中。虽然这会给行政机关作出决策提供便利,使行政机关能够及时发现有关人员的非法行为或不法举动,从而高效便捷地进行社会治理,但此种不透明性、不对等性却也意味着数字行政治理中权力正在被大规模无限制地使用,处于一种膨胀、异化甚至是非法治化的趋势之中。
第三,情感计算易导致算法监管的政府失灵。在数字行政治理过程中,情感计算的恰当运用需要有准确的情感信息以及科学的算法模型作为支撑。相应地,为了实现对算法的有效规制,政府应当掌握并审查技术提供者生成的算法运行目标记录、算法计算相关信息以及算法运行流程等内容。(25)谭九生、范晓韵:《算法“黑箱”的成因、风险及其治理》,《湖南科技大学学报(社会科学版)》2020年第6期。然而,一方面,诚如上文所言,情感信息是主观的、多样的,生理信号与情感信息之间的连接并不具有必然性、唯一性与普适性。基于此,政府在监管时也无法有效及时地发现问题及其“病灶”。另一方面,算法黑箱的存在使得算法缺陷与漏洞通常也难以被发现,而且政府作为“外行人”在面对算法模型时会受到专业壁垒的限制。由此,造成了政府对情感计算应用的监管失灵,算法在一定程度上成为行政决策的“实际做出者”,行政权力因为情感计算技术的介入而不受控制,继而对政府的公信力产生消极影响。
数字行政治理中情感计算风险的规制
情感计算是通过情感计算技术对人类情感状态的感知、识别、模拟和影响。我们既要承认情感计算日益嵌入数字行政治理带来的便利,也要对情感计算的风险进行规制。
(一)规范维度:明确情感数据使用的法律指引
情感计算发挥实际效能的关键在于接收主体发出的情感数据并据此对个人情感和行为进行分析。数据是情感计算的基础,在数字行政治理中控制情感计算的风险,首要的是进行情感数据的规制。
一方面,行政机关使用情感数据应当符合现行法律要求。基于技术赋权和数据赋权的逻辑,情感计算助力数字行政治理实际上扩大了行政机关的权力。基于公权力—私权利的传统理论,公权力的无序扩张必然带来私权利保护的难题,为此应当保护和加强行政相对人的权利保障。(26)张婧飞、姚如许:《自动化行政视角下算法权力的异化风险及规制》,《大连大学学报》2022年第6期。我国以《个人信息保护法》为基础,建立了个人信息处理的合法性条件,若情感数据落入上述规范的规制范围内,情感数据即具备身份识别功能,此时行政机关的使用行为必然受到上述法律的调整。例如,人脸情绪数据是人脸情绪识别算法特有的一类数据,这类数据的法律地位和相关主体的权利义务安排将直接规制对人脸情绪数据的收集、存储、使用、加工、传输、公开、删除等。(27)包康赟:《人脸情绪识别算法的风险与规制》,《北方法学》2022年第1期。
另一方面,行政机关应当建立情感数据使用的内部合法性审查机制。在行政治理中运用情感计算技术应当建立内部的合法性审查机制,确保数字行政符合行政法治原理。该审查机制应当由专门机构负责,通过对情感计算算法设计者和使用者进行合法性评估、定期披露数据收集机构使用情感数据的状况、对违法违规使用情感数据的行为进行问责和纠正等方式实现动态的情感数据使用合法性控制。该专门机构还可以建立电子监察管理系统,对数字行政治理中的情感数据使用进行全过程监督,实现对异常数据使用、可能侵害相对人权益等进行预警。(28)查云飞:《行政裁量自动化的学理基础与功能定位》,《行政法学研究》2021年第3期。此外,行政机关还应当从情感数据加密和安全传输协议、情感数据访问限制、情感数据匿名化和去标识化处理等维度降低个人信息被识别和追踪的风险。
(二)规训维度:嵌入人机情感协同的伦理逻辑
人工情感技术的发展面临着生理信号的采集和通用性问题以及情感信息捕获技术的标记问题等。(29)之江实验室等:《情感计算白皮书(2022年)》,https://www.zhejianglab.com/uploadfile/20221208/1670465654902617.pdf。由于情感计算的数据来源不足且质量欠缺、情感算法设计的不完善、情感计算的应用效果有待提升等因素,情感计算在行政治理中存在人机脱节的障碍。(30)石磊:《智能司法裁判的人机协同机制探索》,《行政与法》2022年第4期。
一方面,提高情感计算算法的透明度和可解释性是人机情感协同的前提。实现人机协同以人能够理解算法为前提,为此应当提高情感计算算法透明度和可解释性。行政机关应当加强对情感计算算法研发和使用过程的监管,建立算法审查制度,要求技术提供者对情感数据的收集、情感计算模型的构建和训练、情感计算结果的生成等内容进行明确,以防止算法偏见,提高情感计算的可信度和可接受性。情感计算系统应当提供清晰的解释和逻辑推理,使得决策过程可以被人理解和评估。透明度和可解释性的要求可以通过技术手段来实现,比如通过公开算法原理、数据来源和训练过程等信息使公众能够了解情感计算的运行机制和结果生成过程,通过隐私设置、数据共享选项和用户参与机制强化数据主体对个人信息的决策权和管理权。值得注意的是,从本质上看,面向行政机关算法透明度的范围与限度仍然要高于面向个人与社会。
另一方面,行政机关应当推动建立多方参与的情感计算人机交互体系。其一,情感计算技术开发者应当遵循法律和伦理准则,在情感计算算法和模型的设计与优化过程中注重用户隐私和权益的保护。其二,情感计算应用的提供商首先应当将用户隐私和信息安全放在首位,以确保情感数据的安全存储和使用;其次应提供明确的隐私政策和用户协议,并给予用户选择和控制的权利。其三,行政机关负责明确情感计算的权责关系和监管要求,与企业、专家学者和公众等多元主体进行广泛合作,共同研究和探讨情感计算的规则和标准,确保情感计算的逻辑以人为本。其四,学术界应当加强对情感计算的研究和探索,积极参与制定情感计算的标准和规范,为情感计算的发展提供科学依据和指导。其五,用户应当主动了解情感数据的收集和使用过程,选择是否参与情感计算应用,决定数据是否共享给第三方等。
(三)标准维度:细化情感计算应用的目的限度
规制数字行政治理中的情感计算风险不仅要采取多种技术措施,关键是要在规范上明确情感计算的标准,确定情感计算在行政治理中应用的限度。
一方面,行政机关应当通过行政立法和政策制定为情感计算设立标准。目前我国以《个人信息保护法》《数据安全法》《网络安全法》为代表,对智能技术的应用采用的是以数据为基础的规制模式。(31)包康赟:《人脸情绪识别算法的风险与规制》,《北方法学》2022年第1期。这种规制模式缺乏对新兴技术的针对性,而行政立法和政策制定具有一定的灵活性,可以弥补此种不足。对此,行政立法和政策应当明确情感计算的定义、范围和使用条件,限制情感计算的滥用和潜在风险,强调保护个人隐私和信息安全的重要性,规定情感计算数据的收集、存储、使用和共享的规则,以确保公众利益和个人权益的平衡。政府部门可以制定指导性文件和指南,明确数字行政治理中情感计算应用的原则和指导方针,提供具体的操作指引和参考。
另一方面,行政机关应当明确情感计算应用的目的和限度。其一,明确情感计算的数据收集和使用范围,确保仅收集和使用符合行政法治特定目的的相关数据,并遵守相关的隐私保护法律和政策。其二,行政机关应当明确情感计算应用的目的是为政府决策提供参考和改善公共服务。情感计算的结果不能直接用于制定惩罚措施或歧视个人。其三,行政机关应避免利用情感计算结果对个体进行操控或影响。情感计算结果仅应作为决策支持工具和参考,而不应直接用于操纵个体情感状态或行为。其四,行政机关应避免情感计算结果中的偏见和歧视,避免对特定群体的情感态度或情感表达进行错误分类或歧视性判断。
(四)伦理维度:廓清情感计算应用的价值底线
2017年国务院发布的《新一代人工智能发展规划》提出要建立公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构。对于数字行政治理而言,不论是设计问责还是应用监督都需要在规范上确立情感计算的价值底线与伦理禁区。
一方面,确定价值底线和伦理禁区的原则。其一,情感计算的设计者和使用者应当尊重个人权利和隐私,不得侵犯个人隐私权和信息安全。其二,情感计算的设计者和使用者应该遵循公平和公正原则,不得歧视或偏袒特定个体或群体。其三,情感计算的设计者和应用者应当遵循透明原则,使用户和利益相关者能够理解和评估情感计算的依据和可靠性。其四,情感计算的设计者和使用者应该遵循公众参与和民主决策原则,确保决策的合理性和公众的意见得到充分考虑。
另一方面,加强情感计算的伦理评估和正当性审查。在事前阶段,应当加强对情感计算模型的预备审查。其一,应当对情感计算的潜在影响进行评估,包括对个人隐私、自由意志和社会公平性的影响,确保其尊重个人隐私和遵循社会公平公正原则。其二,情感计算模型应当经过充分的训练和测试,模型的训练数据应当具有多样性,并代表不同人群的情感表达,确保其遵循透明原则。其三,建立反馈机制,让用户和利益相关者可以提供对情感计算应用的意见和建议,确保情感计算遵循公众参与和民主决策原则。在事后阶段,应当建立情感计算应用监督机制,加强行政监督和执法,确保情感计算的合规合法,专门设立有效的投诉和举报机制,处理涉及情感计算滥用和违规行为的投诉和举报。同时,通过定期的审核、现场检查和独立评估来实现对情感计算的监督。
(五)技术维度:增设情感计算迭代的正当性要求
情感计算在行政治理应用中的伦理要求被确立之后,问题的关键就转化为如何使情感计算的应用符合伦理要求。除了采用综合的保障机制进行外部控制之外,也可以将道德要求融入情感计算的算法迭代之中,让算法遵循善法。(32)田海平:《让“算法”遵循“善法”》,《光明日报》2017年9月4日。问题是人类的道德要求是蕴含了价值判断的自然语言,其难以完全转化为可以被智能机器理解的代码,不过可以通过加强情感计算算法自身对道德要求的深度学习和机器训练,保证情感计算在应用过程中像人一样进行价值判断,这是靠近科技向善这一终极理想的可能路径。
一方面,情感计算算法迭代应当通过数据收集和学习提高道德判断能力。情感计算算法可以使用大量的数据来训练和学习,从而理解人类道德的基本原则和规则。情感计算算法在应用时必须遵守社会规范,不能违背基本的伦理原则。由于道德判断涉及众多复杂的情境和价值观,情感计算算法的训练数据必须具有多样性和代表性,应当收集来自不同文化、社会群体和背景的数据,以避免偏见和歧视。同时,应注重平衡各种观点和利益,以保证算法道德判断能力的全面性和公正性,而后通过迭代更新逐渐提高情感计算算法对不同情境下的道德问题的理解和处理能力。此外,在迭代情感计算算法时,还需要建立监管和合规机制,对违规行为进行纠正和惩罚。
另一方面,情感计算算法迭代应当通过伦理模型和规则更新提高道德判断能力。伦理模型是一种用于指导道德决策的框架,可以基于人类伦理学理论和道德准则进行构建。通过不断迭代和改进这些模型,情感计算算法可以更好地理解和应用伦理原则。为了能够提供明确的道德规则,人类应当尽可能走出道德模糊地带。(33)田海平:《让“算法”遵循“善法”》,《光明日报》2017年9月4日。随着社会和道德观念的演变或者道德规则的明确化,算法可以及时更新其规则和准则,以适应不断变化的道德要求。目前有研究基于罗尔斯的“公平的机会平等”理论,引入“歧视指数”的概念,提出设计公平算法的方法,并证明其开发的“公平”算法没有表现出结构化的歧视行为。情感计算算法迭代应当通过伦理模型和规则的不断更新来提高道德判断的能力。
结 语
科技进步促进了人们技术应用能力的提升,但同时也可能伴随着技术风险和制度风险。情感计算本质上是人工智能算法的一种,相比于以客观行为数据为质料而进行运算的智能算法,情感计算在技术上试图通过一系列数据信息来观测、分析甚至影响人们的情感。这对于建设服务型数字化政府,讲求情理法并重的现代化中国具有重要意义。可以推断,情感计算技术未来必将广泛应用于数字政府的各项服务当中,但在此过程中还需要规避该技术运用的诸多风险,不仅要防范技术本身对相对人权益造成损害的风险,还要防范造成技术运用者的权力扩张风险。总而言之,“人始终是目的而非手段”,而“将权力关进制度的笼子里”则是一切人工智能技术与政府治理相结合应当遵循的基本原则。