算法潜意识操纵的理论问题和规制标准
2024-05-29苏新建程佳琪
苏新建 程佳琪
一、问题的提出
随着算法应用的普及,有很多学者以区分算法操纵类别为出发点对算法操纵的规制路径进行研究,然而操纵的损害结果这一标准在分类过程中鲜少被提及。算法操纵包括“抽象的操纵”,即对个人自主性的伤害,也包括“具体的操纵”,如大数据杀熟[1]。抽象操纵存在诸多方式与手段,潜意识操纵便为其中一种。潜意识属于人类思维活动,其核心特征在于无法为人察觉。通过潜意识操纵这一方式,算法操纵剥夺了个人的自主性与决策的参与性,具有损害性危险性。如何引导潜意识技术的正向使用并避免算法潜意识操纵行为所带来的风险是值得关注和研究的重要课题。
对于算法潜意识操纵这类应被法律绝对禁止的行为,目前缺少完整的法律规制。在“潜意识操纵”禁令实践样态中,欧盟、美国和中国都试图通过原则性立法规范“潜意识技术”。然而,此类立法仍未直击算法潜意识技术的根源问题,首先,权力主体隐藏在技术之后,面对冷冰冰的机器,个人无法意识到其行为受到操纵,难以对权益受侵害这一事实作出反馈,对此,法律应当如何介入?其次,法律介入情况下,纯粹结果式导向的实体规制是否能真正起到法律的指引作用,引导背后的权力主体停止使用相关技术?最后,传统程序正义对主体规制的补充作用在算法技术背景下是否依然可以实现?这些问题都是未来需要直面和解答的。
二、算法潜意识技术的风险辨识
算法潜意识操纵通过算法技术与潜意识技术得以实现,潜意识技术背后关乎“意识”与“潜意识”的神经科学:在外界刺激未达致一定阈值前,个人对刺激有感受但却不会引发个人对其的知觉,即不会意识到该刺激的存在,该领域内属于潜意识范畴;直到刺激水平达致一定阈值,个人才能意识到其存在,也即进入意识的范畴[2]。潜意识技术便是利用这个优势向个人发送刺激水平在潜意识域内的信息,进而影响个人的行为。由于目的不同,技术的实践样态有正面影响也有负面影响,算法技术是通过算法使潜意识操纵成为可能的一种数字技术,原本的潜意识影响较为局限,但结合了算法技术的高效性,其影响范围更为广泛,效果更为显著。
(一)算法潜意识技术的实践样态
潜意识操纵的实践具有两种形态,一是由算法设计者通过“暗黑模式”触发认知操纵的“自上而下”形态;二是由算法通过算法黑箱与个人的潜意识进行交流实现操纵目的的“自下而上”形态,可谓“交互模式”。“暗黑模式”指人机交互领域中,资本方为了获取最大化利益而采用非道德的数字技术,引导用户作出会产生不利结果的决策。Harry Brignull最早提出了“暗黑模式”,并指出其16种具体类型①Harry Brignull认为“暗黑模式”包括比较预防(Comparison prevention)、确认羞辱(Confirmshaming)、伪装广告(Disguised ads)、假稀缺(Fake scarcity)、虚假社会证明(Fake social proof)、假紧急(Fake urgency)、强制行动(Forced action)、难以取消(hard to cancel)、隐性成本(Hidden Costs)、隐藏订阅(Hidden subscription)、唠叨(Nagging)、梗阻(Obstruction)、预选(Preselection)、鬼鬼祟祟(Sneaking)、诡计措辞(Trick wording)、视觉干扰(Visual interference)16种类型。。在算法技术等数字技术背景下,操纵个人变得愈发容易,例如,在保护隐私权益的过程中产生了一种矛盾,著名的“隐私悖论”指出在理性人假设下个人应当会作出理性披露信息的决定,然而事实上个人声明的隐私偏好与实际的披露行为存在不一致,换言之,互联网用户对其隐私的披露十分重视,却在同时为了微薄的回报而披露大量的个人信息[3]。这种披露决策并不是单独作出的,是算法的设计者通过精心设计的内在环境,以“暗黑模式”的方式来操纵用户作出其本来不会做的行为[4]。大规模数字技术的使用在客观上将人们局限在几个给出的选择之中,用户只能点击呈现在他面前的按钮,在一些刻意的设计下,人们以为自己有选择不同按钮的自主决策能力,然而其选择实际已经受到了算法潜意识的操纵。“暗黑模式”通过隐藏、混淆和迷惑,在用户不知情的情况下,达成潜意识操纵的目的。“暗黑模式”的算法潜意识操纵是算法背后设计者的歧视与偏见造成的,将他们本身带有的观念加入代码之中,形成与“垃圾进,垃圾出”相似的“偏见进,偏见出”生成机理[5]。例如,TikTok在向13-17岁儿童显示两个弹出式通知时所采用的设计方法未能以客观中立的方式向用户提供选项,欧洲数据保护局认定TikTok这一设置违反公平原则,并加以行政罚款3.45亿欧元[6]。
“交互模式”则建立在算法的“输入—分析—输出”机制基础之上。算法在被给予大量数据的情况下,以代码为支撑完成深度学习进而在分析过程中形成迭代。在算法设计之初,技术开发者往往会先设定一个目标,并不断输入数据,让算法完成深度学习以达成最初的目标。在这个过程中,容易出现一种情况:即算法在深度学习完成迭代的过程中抓取到一个高效达成目的的路径信息——利用与人的潜意识交互的方式。因此,在此种算法偏差的存在前提下,输出结果最终以与个人潜意识交互的方式引导人作出决策,达成算法潜意识操纵。在该类操纵中,虽然技术开发者并没有试图操纵他人的想法,并且使用了客观中立的数据,但这些合规的数据结合之下,算法抓取到了潜意识影响与人的行为之间的联系,并加深了该联系,从而对人群决策产生影响,甚至因为算法出众的高效表现,它所产生影响的能量将大于个案中的潜意识操纵影响。
(二)算法潜意识操纵的理论应对
为证成规范算法潜意识操纵的必要性,突破其表层形态,解剖风险可能性,分析算法潜意识操纵行为侵犯的法益,并探析背后具有深层指引意义的价值理念,这其中最显著的就是程序正义理论。
正当程序作为行为法意义上规定的一项要求,《布莱克法律辞典》中将其解释为:“任何权益受到判决结果影响的当事人,都享有被告知和陈述自己意见并获得听审的权利。”[7]自“田永案”以来,正当程序在我国发展已20余年且卓有成效,实践中的正当程序之上,是程序正义理论在进行指导,它不仅可用来指引立法方向,同时也在司法实践中提供补充性适用[8],在内容上程序正义与正当程序二者具备高度一致性,一般认为合乎程序正义的程序就是正当程序[9]。程序正义理论在不同的时代具有鲜明的时代特征,随着规制对象的变化而不断丰富自身内涵[10]。从程序正义的理论演进道路看,有客观程序正义和主观程序正义两条进路。客观程序正义理论诞生于实体正义的需求,注重程序的工具合理性,即人们为了获得实质上的结果正义而去遵守程序规则。主观程序正义理论采取实证研究方法探索公众对程序公正性的主观感受[11],以形成更让人感到满意的程序机制,最终增强人们的守法意识[12]。
从外部看,算法潜意识操纵需要有正当程序来规制。正当程序原本在于限制权力的无边界扩张,产生于行政法领域,后在法律实践中不断推广,逐渐在法律的各个领域中都有了正当程序的影子。如今,算法基于深度学习等技术逐渐形成“算法权力”,且算法权力较传统权力的力量更强,辐射区域更广,对个人与群体的影响更甚。数字社会中,算法权力在实质上拥有了控制个人的力量,鉴于其“权力”般的体量,限制权力的滥用、避免权力使用的任意性成为必然[13]。相应的,潜意识操纵作为算法操纵的手段之一,正处于算法权力滥用的范畴之内,对其规范也具有了必要性和正当性。从内部看,算法潜意识技术具有一定的“程序”特征,却违背程序正义的价值。广义的“程序”指一定的结果或状态形成之前的一段时间或过程[14],算法在输出结果前也是一套逻辑程式的体现,属于程序的范畴。主观程序正义要求保障人的在场和主体间的互动,这是对人的尊严的保护。杰瑞·马修提出的“尊严理论”同样支持这一观点,他认为维护程序的最根本目的在于使那些受裁决影响的人们的尊严得到尊重[15]。既有的数据保护法律框架以数据主体的“同意”以及数据处理者的“控制”为核心,数据主体的“同意”是个人数据进入数据处理过程的第一道关卡,而算法潜意识操纵正涉嫌干扰个人的“同意”原则。“同意”标志着数据主体和数据处理者之间达成了一种合意,即数据主体预期其数据会被数据处理者处理加工,然而在算法潜意识操纵下,这种“同意”不再体现双方真正的合意。算法潜意识操纵通过干扰个人的“同意”,个人看似自己做出了“同意”的动作,然而这个动作是受到蒙蔽的,个人并没有充分陈述自己的意见,其尊严由此被侵犯,违反主观程序正义中的四个要求:陈述的机会、决策的中立性、决策者的可信度、对待争议者的尊重程度[16]。算法潜意识技术的应用不仅容易侵害陈述的机会,而且其本身丧失了中立性,操纵行为对个体的不尊重,让个体对算法及算法背后的操纵者失去信任,是算法这一新兴“程序”对传统程序正义要求的挑战[17]。
三、算法潜意识操纵对既有法律的挑战
算法潜意识操纵不仅具有不符合现有法律理论的风险,更对目前的法律框架提出挑战。欧盟的立法顺从《欧洲人权公约》和《欧盟基本权利宪章》的思路属于权利保护路径,主张自上而下保护权利。美国则主要依据《联邦贸易委员会法案》第5条针对消费者的数据保护问题展开执法活动,具有鲜明的普通法系特征。欧盟和美国以截然不同的方式对算法潜意识操纵行为加以规制,我国虽然没有在法律中明文指出对算法潜意识操纵行为的规范,但也可以通过一些法律方法进行解释。
(一)域外立法框架分析
针对算法潜意识操纵这类侵犯个人的参与性与自主性的行为,欧盟已经进行立法规制。《欧盟基本权利宪章》第3条第1款规定每个人都有权利保障他/她的身体健全或心理健全。虽然《欧盟基本权利宪章》中并没有解释什么是“心理健全”,但该条款起到了原则性指引作用,且将该条款的解释余地留给了法院,有学者将“心理健全权”定义为“免受直接和强制的不必要的精神干扰或操纵的权利”,实现了对算法潜意识操纵的规制[18]。2020年通过的《数字服务法》首次明确提出禁止在线平台使用欺骗、操纵的设计、组织或操作界面,特别是信息超载、虚假等级制度和阻碍技术等操纵性技术手段扭曲或损害用户自由和知情权。该法特别指出了需要保护用户的知情权,是对算法潜意识操纵规制的进一步发展。欧盟的《人工智能法案》第5条第1款a项规定:禁止将部署潜意识技术的人工智能系统投放市场或投入使用,该系统在实质上扭曲人的行为,从而导致或可能导致该人或另一个人的身体或心理伤害。该条款明确指出,对人类的潜意识造成影响进而影响个人的行为的人工智能系统是要被禁止的,其背后的原理就在于“潜意识技术”可能会非法操纵个人的思想,侵犯个人主体性。美国式的规制则不同,欧盟在规则制定上有一个统领作用,美国是将重心置于规则的监督与执行上。美国联邦贸易委员会(FTC)根据企业所做出的关于信息保护的自律性承诺对其行为进行监管,以实现对市场的秩序维护。根据《联邦贸易委员会法案》(FTCA)第 5 条,美国联邦贸易委员会有权对企业贸易中不公平行为或欺骗性行为加以监督[19],算法潜意识操纵行为自然也在监督的范围之内。2021年4月,FTC在研讨会中重申“暗黑模式”规制的重要性,并于同年10月,公布一项政策要求企业不能在订阅服务中使用暗黑模式,这些举措皆表明了政府对规范算法潜意识操纵行为的重视与努力。
(二)我国法律实践现状
在我国现有法律实践中,没有明确以“算法潜意识操纵”为对象的规范条款,“潜意识”往往以裁判理由的身份出现,作为说理的一部分,但这里采用的“潜意识”是社会生活的惯常用语。司法实践中有考量到潜意识的存在,却并没有以它为主要说法理由进行判决。本文继而转向法律解释的分析方法,探索现有法律框架中是否可以解释出规范算法潜意识操纵行为的规范。
以隐形广告为例,广告商在广告中加入一些强度在意识阈值以下的刺激,以此进行商品推销。隐性广告随处可见,具有很强的渗透性,出现在电视剧、电影、节目等多个场景中。1982年,导演史蒂芬·斯皮尔伯格执导的《外星人》中,小主角用“里斯”的巧克力吸引外星人,“里斯”巧克力为《外星人》提供100万美元的宣传赞助,伴随电影的热映,“里斯”糖果的销量也提高了65%,被视为隐性广告的一座里程碑。如今实践中的隐性广告已经是被规范后的结果,《中华人民共和国广告法》第14条规定,“广告应当具有可识别性,能够使消费者辨明其为广告……通过大众传播媒介发布的广告应当显著标明为‘广告’,与其他非广告信息相区别,不得使消费者产生误解”,防止消费者丧失消费选择的自主意愿。同时,《中华人民共和国消费者权益保护法》第9条规定,“消费者享有自主选择商品或者服务的权利”,也隐含着广告透明化的要求。以上两条规范虽然没有在字面上提及“潜意识技术”,但蕴含的规范要求正是在保护消费者的决策自主性,所以完成了对广告领域中“潜意识技术”的变相规制。另外,科技部等十部门共同颁发的《科技伦理审查办法(试行)》中规定了需要开展伦理审查复核的科技活动清单,其中包括侵入式脑机接口用于神经、精神类疾病治疗的临床研究以及对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发。可见,潜意识技术明显包括在内,但是该办法着重从监督角度对技术的应用加以审查,而由于潜意识操纵行为的特殊性,对其审查往往难以实践。
现存法律规范都是实体性法律规范,实体法律规范的特点在于以结果为导向的行为规制,这些规制无法解决算法潜意识操纵的问题。首先,算法潜意识技术对个人的操纵标准难以确认,究竟在什么程度上算达成对一个人的潜意识操纵,每个人的潜意识阈值都不相同,要设定一个固定的标准似乎较难。其次,实体法中所规定的造成人的身心伤害同样难于认定,损害结果包括累积危害的个人层面及集体层面,在个人层面,累积危害指“一种产品在消耗更多单位时会对个人产生累积危害”[20],这些伤害可能会随着时间的推移而累积,并在低于正常意识水平的情况下发生,但是因果关系却难以证明[21]。集体层面的累积危害表现在社会影响上。数字技术对人造成的危害可能微不足道,但会在社会层面形成巨大影响,这种伤害表现间接但影响重大。因此,光是凭借实体规制无法完全覆盖立法本意。最后,基于算法的“程序”特点,实体性法律规范只关注到操纵结果产生后对算法潜意识操纵者的责任,没有充分保障个人的自主性与参与性,对于个人的基本权利保护仍较为欠缺。
四、算法潜意识操纵规制的适用方法构造
技术的风险性通常可以通过制度化设计进行规避,潜意识操纵本身的特殊性要求其规制方法也具有特殊性,行为入法虽能一刀切式地截断潜意识操纵的可能,但也斩断了算法技术以及神经科学的发展。为了平衡此二者,在现有法律的实体性行为规制基础之上,引入算法程序正义理念,形成实体性正当程序与程序性正当程序规制相结合的法律适用方法,完善“数据收集—数据处理—人机交互”全链条式规范,形成对技术的发展引导,并尽量降低其负面影响。
(一)算法程序正义的框架重塑
程序正义理论随着规制对象的变化而不断丰富其内涵[22],传统程序正义理论关注主体的参与性,并起到防止权力滥用的功能。随着技术的革命,主体的参与性受到挑战,技术性正当程序理论得以兴起①杰伊(Jay Thornton)对技术性正当程序提出反驳,他在《法律信息技术中的成本、准确性与主观公平——对技术性正当程序批评的回应》一文中回应,公开算法代码不仅会让本来不被算法程序通过的主体利用代码的关注点故意修改相关数据使其通过,还会增加程序机制的成本,丧失了技术本身的独特优势。,该理论建基于传统客观程序正义理论,在全新的技术背景下,强调事前程序测试、审计跟踪机制等新的程序制度来维护程序的客观性和中立性[23]。技术性正当程序要求从算法源头加以监管,其关键在于通过算法的可解释性来达成规制目的,然而算法本身具有“黑箱”属性,且作为私主体开发的算法要求公开本身并不实际,在此背景下,形成一套私主体关系间的算法程序正义框架势在必行,算法程序正义是在算法技术背景下对程序正义理论的补充与发展,指涉的是透明、准确、参与以及可问责性在算法技术中的满足程度[24]。
算法程序正义背后最深层的价值仍是人权,即以人为本。现代化过程中人的需求层次不断提高,人的自我意识觉醒揭示了坚持人民至上是现代社会的内在意蕴[25],数字技术背景下提出的“数字人权”将该价值内涵不断丰富,并要求数字时代下坚决捍卫人权价值,捍卫人的主体性,将人权作为一个指引性的价值观来评价或指引数字科技的应用[26]。主观程序正义同样出于以人为本的考量,将该理论纳入算法程序正义的框架之下,更有助于实现对人的主体性、参与性等的保障。明确以人为本的指引理念后,要实现算法程序正义,使该理论不浮于表面而具有一定的实践意义,重点在于对数字人权与算法权力的平衡。二者具有可平衡性的基础在于二者背后都有值得法律保护的价值,数字人权自不待言,算法权力背后则是算法技术的发展。数字时代刚刚起步,其未来发展离不开算法技术,如若在发展之初就将算法技术否决,生产力无法实现突破,社会的发展也将停滞。因此,在推动算法技术不断前进的基础上,还要保障数字人权,如何在法律上平衡两者关系,是亟待解决的问题。
(二)实体性正当程序:保障基本权利
实体性正当程序旨在保护宪法中未明确列举的基本权利,基本权利平衡木的另一端是操纵者及算法技术,代表的是操纵者欲实现的商业价值及社会发展所必要的数字技术的进步。算法技术以一种完全计算的方式来对待人类,强迫人类接受其操纵,使人类失去了身为人类的独特性,换言之,也是对人类尊严、自主性的侵犯,因此加强人在技术过程中的参与性是维护人的主体性的重要方式,而人机交互权是实现二者平衡的一道具有可实践性的桥梁[27]。
在算法潜意识操纵规制中加强个体感受的参与是人机交互权的一种体现,人机交互权看似是人类和算法系统之间的关系和交互,实际上其真正想实现的是个人与算法系统背后设计者的交流。欧盟的《通用数据保护条例》中明确规定了“人机交互权”,要求在进行自动化决策时,需要有人类参与并进行评估和决策,这个要求强调了人类在自动化过程中的重要性,以保护数据主体的尊严和权利,同时也可以促进算法的透明度和公正性,避免算法对数据主体造成不公正的影响。因此,“人机交互权”可以作为一种重要的规制工具,帮助保护数据主体的权利和利益。现有人工智能系统对决策的不同层次的审查[28],包括人类主导模式、人类参与模式、人类监督模式、人类排除模式四种模式①人类主导模式下人类完全掌控自动化系统,自动化系统只是执行人类的指令,人类对自动化系统的决策结果负有全部责任。人类参与模式中自动化系统进行决策时需要人类参与并进行评估和决策,这种机制下,人类可以对自动化系统的决策结果进行监督和纠正,以保护数据主体的权利和利益。人类监督模式下自动化系统进行决策时,人类可以对决策结果进行监督和纠正以确保自动化系统的决策结果符合人类的期望和要求,但不需要直接参与决策过程。人类排除模式中自动化系统完全独立进行决策,人类不参与决策过程,也无法对决策结果进行监督和纠正。。前三种模式皆体现了一定程度上的人机交互,其中人类参与模式是允许人工智能系统发挥其技术优势前提下,人类参与程度最深的一种模式。人机交互体现了主观程序正义的主张,有助于缓解操纵者与被操纵者之间的压迫关系,二者之间存在一个基本平等的商谈环境,要求躲在技术背后的包括权力意志机构及组织在内的主体应当尊重被操纵者的自主性,以一种不同于行为规范的方式缓和双方之间的博弈关系。
面对算法潜意识操纵,要维护个人的自主性,个人在其中应当发挥主导作用,由于不同的人对潜意识影响的反应并不相同,因此为个人准备一个反馈机制显得尤为必要。反馈机制目的是在算法中设计一个空间,该空间为算法背后的组织和个人提供一个商谈的空间,实现“人—机—人”式的交互。面对冷酷的机器及算法,个人仍然有机会陈述自己的观点,且其所陈述的内容应当得到倾听。反馈机制可以以两种方式开展:第一种是“电子客服”,个人陈述完自己的意见后,机器可以初步处理信息并给出解决方案;第二种是“人工客服”,个人会有不信任机器的时候,应当向其提供一个人工客服的选择,保证个人有沟通的渠道与可能性,对个人而言,也是一个确保其个人权益不被机器单方面处置的保障[29]。
(三)程序性正当程序:防止权力滥用
除了在内部设计一条允许个人反馈的通道之外,还需要有一种正当程序从外部防止权力的滥用。算法本身具有形成算法权力的潜能,再以潜意识影响的方式行事,算法潜意识行为几乎必然会导致权力滥用的现象,因此,如何监测其是否属于算法潜意识操纵也是一项重要程序。对此,学界多次提出算法透明化的对策,然而效果不彰。在实践中,算法黑箱在事实上存在,算法设计者并不必然能够解释最终结果;算法透明化意味着向全社会开源,对于企业而言,以算法不公开为原则,算法公开为例外,公开的结果会引起数据市场经济的停滞,对于技术的进步也并无益处。经过平衡,本文提出三点对策,旨在数据收集与数据处理过程中加强管理。
其一,强化输入端审查,保障数据收集合法性。在现有法律框架下,数据收集阶段以同意为原则,要求数据控制者只能在数据主体同意的前提下开展收集以及后续的数据处理工作。鉴于认识的欠缺,数据主体不一定能意识到数据控制者意在收集数据主体的潜意识相关数据,也不一定能认识到收集潜意识相关数据对个人会产生的危害,便需要法律加以强制规定,要求数据控制者不得收集个人潜意识相关信息。换言之,在算法的输入端应该加强审查,确保数据控制者没有收集不合规数据。
其二,完善输出端监测,确保不存在操纵现象。在算法构成的世界中,只给予个人有限的选择,然而并非构成有限选择就必然意味着存在操纵的事实,而是在这些可能的选项中,通过算法借力,引导个人选择了其中一个具体的选项,才构成了算法潜意识操纵。这要求被展示在个人面前的信息应当是全面不加以刻意筛选的,除非得到用户的同意。以潜意识影响的方式达成的算法操纵,于个人而言难以意识,但却可以经过一定次数的输出端监测来确认。简单来说,正当程序中有输入端与输出端两端,如果输入端数据存在瑕疵那毫无疑问不符合正当程序,而且容易被审查出来,然而如果在输出端经过多次检测后,发现个人有很高的几率被指引选择其中某一个选项,那便有操纵的嫌疑[30],应当要求该算法予以修正。潜意识操纵本身具有隐蔽的特点,在巨大体量的信息面前隐蔽性更是得以强化,算法设计者应当谨慎使用推荐算法的方式,尤其不得利用潜意识相关标准来筛选信息。这对于保护心智尚不成熟的人非常重要,因为他们极其容易受到所见所听之影响,如果展示在他们面前的信息是加以筛选过的,那么必然会受到算法的操纵。
其三,加强审计控制,审核重要节点算法解释。算法设计者虽然不需要向社会开源,公开其代码所有内容,但是应当在算法中的一些重要节点中作出说明。欧盟《通用数据保护条例》第12条明确表示数据控制者要以清晰和通俗易懂的语言进行算法解释,这个解释包括重要的决策解释、信息解释和理念解释,在解释时着重注意对算法中立性的说明。依我国《个人信息保护合规审计管理办法(征求意见稿)》规定,国家网信部门等相关部门正统筹协调组织形成第三方审计机构推荐目录,对数据处理者的数据处理是否合规进行审计。待第三方审计机构建立完毕后,其审计业务范围也可以扩张,包含对算法合规情况的审计,在审计过程中需关注重要节点如筛选理由等的算法解释,并且确保算法解释与最终运行结果的一致性。
五、结语
算法潜意识技术的出现是数字技术、心理学与神经科学发展必然的结果,虽然技术的使用存在负面影响,但是数字法学是按照以人为中心的思维构建的,倾向于在知道、了解技术危害后进行规范管理后对技术进行使用。潜意识操纵行为对人的自主性、尊严等有不同程度的损害,存在缺乏监管的现状,一是欧盟的《人工智能法案》中规定的潜意识条款为我国提供了在实体行为规范角度中潜意识操纵行为规范的参考。二是依据算法程序正义理论构建实体性正当程序与程序性正当程序结合的路径,完善“数据收集—数据处理—人机交互”全链条式规范。由于“潜意识”相关概念尚不成熟,仍待各学科专家共同探讨诸如阈值、通感等相关问题,未来对“潜意识技术”监管需要世界各国及地区的广泛参与和合作,甚至还需要利用跨学科的知识,来建立一个新的全球法律框架。可以预见的是,当下算法技术从多维角度向全社会渗透,为人们带来效益的同时引起了人们的警觉。若不对其加以引导,算法操纵将愈发超越人意识的阈值范围,潜意识操纵不再局限于概念界定之中,在实践中或将大量存在,产生变革性甚至破坏性影响。技术的发展对应着人类的某种需求,算法技术毫无疑问让人们的生活更加简便,解放了生产力,但同时对人类提出重大挑战,这些挑战仍待我们一一解决。在此情况下,算法程序正义坚持以人为中心,关心人在技术中的地位与作用,正是突破与技术相关的重重矛盾的一大突破口。