构造算法决策之解释请求权初论
2020-07-16刘蓓孙世擎
刘蓓 孙世擎
[摘要]随着近些年人工智能的快速发展与应用,人类进入了信息数据化的科技时代,越来越多的领域依靠大数据的算法决策来做出决定,大到银行业的贷款许可,小到网络平台的购物选择,人们生活在巨大的数据网链下,各种信息被汇总、分析、排序,并用于决策,形成了一张关于相对人进入特定领域的通行证。然而需要考量的是,如果算法化决策是错误的,那么在相对人无从知晓具体决策过程的情况下又该如何维护自己的权益呢?这一点我国相关法律制度并无规定,而单纯援用合同违约责任、侵权责任、知情权等无法达到救济效用。通过理论衡量,唯有配置独立的解释请求权才能平衡算法化决策使用者与相对人之间失衡的权力关系。而在构建“解释请求权”中需要对其称谓进行统一,同时对解释请求权的权利义务主体予以准确界定,阐述权利义务相互印证的法律内容,对其适用范围进行限制,为“解释请求权”的构建提供学理储备。
[关键词]算法决策;解释请求权;权力衡平;权利构造
[作者简介]刘蓓(1983-),女,法学博士,长春工业大学计算法学研究所副教授;孙世擎(1995-),女,长春工业大学公共管理学院硕士研究生(长春130022)。
一、算法解释请求权之称谓统一
(一)解释权请求权出世:配置新型权利,衡平权力关系
随着人工智能发展水平的提升,人工智能对人类生活的影响日益深入。2016年著名棋手李世石与阿尔法狗的人机大战,最终以1:4的比分落下帷幕,该事件的发生使得人工智能话题被推上了热搜,也让更多的人认识到了人工智能的重要性。而现今,人工智能已经应用到生产生活的诸多领域,基于此,一些商业性企业开始运用大数据的算法来进行商业决策,比如,银行业利用数据算法来计算贷款人的诚信度、还款能力等,进而辨别贷款方是否符合贷款条件;上海市法院于2019年首次在庭审中运用了人工智能辅助办案系统,通过人工智能的协助保证案件证据的真实可靠以提高审判效率,加之智能量刑系统和法律文书智能系统的运用,一定程度上实现了司法审判智能化。不仅如此,就连在网络平台购物,智能系统都会根据消费者平时浏览记录数据进行分析、判断,进而推送相关产品。
人工智能之所以能够针对相对人做出信息决策,依据的就是系统背后的大数据算法,网络系统收集了大量的相对人信息,然后进行汇总、分析、判断,直至做出影响相对人的决策,这一过程又称之为算法决策。在这一过程中,由于算法方式具有一定的隐蔽性,技术手段又极具专业性特征,相对人根本无从得知并理解决策的依据,一旦所做出的算法决策系错误的,将对相对方产生不利影响,魏则西事件就是一起典型案例。由于百度公司竞价排名,推送错误的信息链接,导致魏则西被诱导,并为此付出了惨重的代价。在这种情况下,相对人处于被动的封闭状态,更遑论对算法计算过程的认知。而诸如此类的事件更是频繁出现,2019年,美国佛罗里达州高速公路上发生了一起交通事故,起因在于一车主在使用特斯拉Model S电动轿车时,启动了自动驾驶模式,由于系统在探测路况时自动忽略了前方带有泊车标识的半挂车,导致两辆车发生了碰撞,特斯拉车主也在此次事故中身亡。车主家属认为对于此次事故特斯拉公司应负主要责任,其生产的自动化轿车存在产品缺陷,但美国监查部门则认为特斯拉在本次事故中无责。美国高速公路安全管理局(NHT-SA)经检测后声称,并未发现自动驾驶轿车存在产品设计、质量性能上的缺陷,自动化系统作为一种智能载体其本身存在一定的局限性和不可预测性,因此要求使用者具备高度注意义务,车主在发现障碍后未及时采取行为制止,存在责任。该事件的发生让人们对自动化驾驶的安全性能产生怀疑,同时对自动化决策带来的损害而受害人却无法得以维权的现象陷入沉思,以法律规制自动化决策的呼声在学理界蔓延开来。因此,需要构建算法解释权对算法决策进行规制,也是为相对人配置符合现实所需的新型权利,以衡平算法决策使用者与相对人之间失衡的权力关系。
(二)解释权请求权称谓:选择与统一
在理论探讨中,关于“算法解释”的权利称谓不尽相同,包括算法受解释权、算法可解释权、算法解释权、算法解释请求权等不同表述。研究的开始有必要对相关称谓与权利内涵进行衔接、界定、统一。
张凌寒教授认为,“算法解释权”是指当算法化决策的结果对相对人产生不利影响时,相对人有权要求做出该决策的使用者给出合理解释并更正错误。承担解释义务的主体是算法决策使用者,享有算法解释权的主体是相对人,然而“算法解释权”称谓本身似乎使权利主体模糊难辨。其次,“算法解释权”具有强制性意味,是法律赋予相对人的一种绝对性权利,也意味着是算法决策使用者的义务,如若不予履行将会受到惩处。赋予相对人绝对解释权,将会导致以下问题:1.权利主体范围泛滥。如果赋予解释权,是不是在文义解释上可以理解为,凡是算法决策使用者做出的决定,任何人都享有主张解释的权利?2.权利范围无法界定。是不是不管算法决策使用者做出何种决定,都必须提供相应的算法计算说明?3.算法使用者负担过重。“算法解释权”如果具有绝对性特征,不管相对人是否主张解释权,使用人都具有绝对解释义务。虽然使用者较之相对人掌握更多的算法技术,但由于算法领域具有复杂性、模糊性等特征,导致使用者并不能全面提供明确的解释,而“算法解释权”的存在会给使用者施加额外的压力,打击其使用算法的积极性。由此,针对算法决策配置以绝对“解释权”尚存有瑕疵,无法合理地分配权利义务体系,难以实现算法决策使用者与相对人之间权力衡平的初衷。
“算法可解释权”的称谓源自“算法的可解释性”,系美国加州伯克利大学的研究者们所提出,其含义是指在算法计算过程中另行设计一款算法方式来对该计算过程进行监督记录,以达到对计算结果的解读,突破原计算过程的不可知性特征。“可解释权”的称谓从语义上讲强调的是“解释”的可行性特征,是赋予算法解释的手段,是法律对于解释行为的认可,其实质在于强调解释的必要,但无法从本质上辨别其权利属性,无法判定是绝对权还是请求权,因此,如若配置“可解释权”将导致权利的内涵从根本上产生模糊,适用上將产生歧义。
“算法受解释权”。按照法律用语规范来讲,“受”字表示的是“接受”,其本身带有被动性特征,虽然在算法决策的权利体系中相对方确实属于接受解释的一方,其权利定位也明确,但是按照行为延续合理性出发,应首先需要发生“解释请求权”,对应的才是相对方的“接受解释权”。在我国现行法律关系中,与之类似的如“优先受偿权”,首先就需要发生“赔偿请求权”,然后才对应发生“优先受偿权”。我国在法律上很少采用“受”的权利称谓,而且按照我国语法使用习惯,“受”带有后续性,要以一定法律关系的产生为基础。因此,“算法受解释权”无法作为算法决策相对方的先行救济性权利予以适用,不予考虑。
“算法解释请求权”。“请求权”一说来源于德国民法典,我国作为大陆法系国家,法律体系的构成深受德国民法典的影响。无论是萨维尼的法律关系理论,亦或温德沙伊德的请求权体系,德国民法典体系突出的本质在于个人主义,以人与人之间的特定行为出发去分析所衍生的法律关系以及权利关系。而本文旨在探讨请求权性质的权利体系,因此暂且抛开对萨维尼理论的研究,着重分析温德沙伊德理论下的请求权之概况。所谓的请求权在其观点理论中被认为是一种法律秩序的转让,因特定法律事实的发生进而作为一种命令发布出去,要求实施特定的行为,针对的对象既可以是特定主体亦可以是不特定主体。
按照温德沙伊德理论的观点,请求权适用的主体是人,规范着人与人之间的特定行为,而作出算法决策的则是人工智能,即机器,是否可受请求权之规制?例如2017年10月26日,沙特阿拉伯授予香港汉森机器人公司生产的机器人索菲亚公民身份。作为史上首个获得公民身份的机器人,突破了传统公民之法律意义,拥有了法律意义上的“人”的权利义务,那么机器产生的行为被纳入法律规制的范畴是否合理?当下智能系统应用广泛、频繁,但是机器化并不能代表精准化,时而出现的算法错误现象也从客观层面上侵害着权利人的利益。虽然在表现形式上体现为智能算法造成相对人的损害,而非“人”这个主体形态,也并非法律秩序中发布命令的指向对象,但智能机器的运行还需要人为地输人指令,因此要揭开算法的面纱探寻指令者与相对人之间的请求权基礎。
请求权其实质属于救济性权利,深入研究请求权的范畴可知,其救济的权利包含两类:一是针对权利本身的救济,又称之为“原权请求权”,是依附权利本身所衍生出来的,即对于法律赋予民事主体之权利相伴随的;二是针对权利受有损害时,赋予此种救济权以抵抗损害,请求加害方对其侵权行为采取一定的补救措施,使相对方破损的权利恢复到不受侵害的圆满状态。“算法解释请求权”称谓之合理性在于,不仅可以间接在法律体系上对“解释权”存在的合法性、独立性予以承认,针对“解释权”即“原权”本身赋予一定的保护性功能,同时又可以提供相应救济措施,使受损害权利恢复到圆满状态。在法理基础之上,请求权系相对权,针对的主体是特定的,之所以为“算法解释权”配置“请求权”之特性,其根本在于互联网所面对的是不特定的众多民事主体,因其具有广泛性特征,如果不加以一定的要件限制,极易造成权利体系的混乱,直接影响整个法律体系的稳定。解释请求权“出世”的目的就在于建立自动化决策相对人数据权的救济机制。
综合上述对四种“算法解释”称谓之法理分析,从语义角度剖析,本质都是赋予相对人一定的“解释”之权利,但各称谓在其表述的内涵及性质上的侧重点仍存有重大差别。在此辨析上,本文倾向“解释请求权”之称谓。“算法解释请求权”实质就是为了保护因不利或错误算法决策受损害的相对方,在立法上构建新型“解释请求权”,请求算法使用者对算法决策过程、结果予以解释解读,使相对方明晰损害产生的因果关系,进而维护自身的合法权益。同时由于请求权在学理上属于相对权,指向主体特定,权利义务内容特定,因此将其定义为“解释请求权”更能充分反映立法的核心目的。
二、算法解释请求权之权利内容
算法解释请求权的关注点在于使用者、开发者与相对方之间明显失衡的权利义务关系,目的在于限制自动化决策使用者、开发者较为强势的地位,使博弈双方处于相对平衡的状态,使错误决策而溢出的负外部性通过风险内部化的手段得以解决,据此,算法解释请求权适用的权利义务主体应针对决策类算法的使用人、设计者和相对人。
(一)权利、义务主体
1.权利主体:决策类算法的相对人。算法解释请求权作为一种“请求,,.j生质的权利,在债法理论中是属于特定双方主体之间的权利义务,即相对人请求与之具有法律关系的主体实施一定行为的权利,要求权利义务主体具有明确性。按照权利义务的走向,相对人作为经济地位、知识信息不对称的弱势一方,其权利应予以特别的保护,应该赋予其算法解释权权利主体的身份,在算法化决策错误或者对自身造成不利影响的时候相对人有权向使用者请求解释,但权利主体的范围应予以限定。由于网络平台受众广,如果将解释权授予任意相对人的话,则加剧了算法决策使用者的责任负担,因此应将权利义务限定在具备法律关系的双方主体之间,即双方之间产生法律权益方可适用,否则将造成该权利的滥用。
2.义务主体:决策类算法的使用人、开发者。纵观我国互联网领域的发展态势,真正精尖的技术手段大多垄断在算法决策使用者手中,由于其具备雄厚的资金以及掌握着算法的核心技术,在开发、使用算法决策中扮演着领导者的角色,而且能够通过算法决策影响相对方的权益。很明显,在此过程中使用者始终保持裁判者的地位,为了权利义务之平衡,也为了保护相对方的权益,不得不将使用者纳人义务人之范畴。
与此之外,还存在一种情况,即算法化决策使用者与开发者之间的角色分离,使用者也不一定详尽地掌握该决策的计算过程,在相对人主张解释时,算法化决策使用者无法予以明确的释明,导致未及时妥善履行相应的义务。为了避免此现象的发生,应当将算法决策开发者也纳人权利义务体系中,在算法决策使用者无法提供完善详尽的解答时,开发者应承担该项义务的补充责任,而在开发者不尽职履行此补充义务时也要追究其相应的法律责任,以衡平算法化决策使用者、开发者、相对人三者之间的关系。
(二)权利、义务内容
1.权利内容。眼下越来越多的领域引入算法决策对相对方的社会需求予以干涉,依据算法决策给相对方贴上了数据标签。从信息汇总、筛选、分析,到自动化排序,直至最终的决策这一过程都是不透明的,相对方无法判断信息的准确度,对决策正确与否也无法掌握,“算法解释请求权”就是要赋予相对方知悉算法决策依据的权利,相对方基于此有权向算法使用者、开发者请求公开自动化决策所依据的信息。但是需要考虑的是,采用自动化决策的主体通常为拥有数以亿计用户的互联网企业或大型公司,其面对的相对方数量是无法预估的,如果不对权利主体的权利范围进行清晰准确的界定,那么将会给自动化决策使用者、设计者带来过重的解释负担。因此,需明确在“算法解释请求权”项下配备何种权利内容。
首先,相对方要求解释的算法内容要与自身权益受损具有相关性。自动化决策使用者、开发者创建算法系统是为了通过采集信息,进行数据加工、分析,以得出个体的综合特征。针对商业领域来说,自动化决策便于在商业运营过程通过信息识别筛选客户,获得更大的商机;针对生活服务机构领域,通过对个人信息的汇总从而评价个人基本信用信息,以便在提供相关服务时采取有效的措施。因此,针对相对方权益产生损害的算法决策,包括错误的决策以及对其自身利益造成不利影响的决策,才能有权向使用者和开发者主张解释。
其次,相对方有权要求自动化决策使用者、开发者针对算法决策提供可理解性的回复。自动化决策本身就要求使用者和创建者具备专业的知识体系和掌握科学的技术方法,对于自动化决策运行的规则、方式、整个系统的框架有清晰的认知;而相对方大多是普通个体,没有机会亦没有能力接触到专业的算法领域,对于科技算法晦涩难懂的语法公式更是难以理解,在知识力量悬殊的情况下,如若相对方提出解释的请求,而使用者、开发者利用其具备算法知识和掌握的科学技术之优势地位,提供较为复杂的解释,相对方对此并不理解,“算法解释请求权”仅仅要求使用者、开发者给予决策解释,而现实却是相对方行使了权利却没有获得充足的保障,这与构建“算法解释请求权”的目的背道而驰。而使用者、开发者在提供相应的解释后已然完成了法律义务,这就导致相对方权利用尽而无法通过其他救济手段维权。因此,要对解释的标准进行明确的界定,以便相对方易于理解自动化决策的依据。
最后,相对方有权针对自动化决策提起雙重结构解释权,即事后具体解释和事后更新解释。“算法解释请求权”究其本质属于一种事后救济手段。在决策作出之前,个人信息只是储存在自动化系统中,使用者、开发者并没有根据信息而做出任何对相对方不利的行为,相对方也无法主张解释请求权。只有在决策作出之后对相对方自身利益产生影响的前提下,方可请求对方予以解释。事后具体解释可以使相对方知悉做出不利决策依据的具体事项,排查是否存在数据引用误差或者算法方式偏差,相对方可以针对具体错误来主张整改修正,此为相对方第一次权利之行使。由于不利决策具有可补正性,通过更新数据信息和改变算法方式来使决策得以修正,但存在一个问题,即修正后决策的准确程度是否可信。基于此问题,应该赋予相对方第二次救济的权利,即针对更新后的决策请求使用者、开发者提供必要的解释说明的义务。
2.义务内容。我国《宪法》明确规定了公民的人格尊严不受侵犯,虽未曾细致阐述,但根据“虽然并不以原则的形态为宪法或法律所明定。但在宪法或法律之规定中,终究已有规定以该原则为其规范基础”。对于算法解释的相对方来说,自动化决策所采集的信息属于个人隐私,相对方有权对个人数据信息享有知悉的权利,有权保护自己的隐私权、捍卫平等地位。而对于算法使用者及开发者来说,对相对方的个人化需求享有绝对的话语权,这就意味着,算法决策的使用者、开发者在自动化决策领域势必要担负起义务主体的责任。在针对相对方作出决策,尤其是可能对相对方的权益产生重大影响时,使用者、开发者就负有解释说明的义务。但是这也并不意味着使用者、设计者的义务就是绝对无条件的,正如上述对主体权利范畴的细化,基于权利义务具有相对性,因此也应当对义务范畴予以明确界定,以防止使用者、设计者承担无限制的义务重担。第一,在解释标准化上要对应权利内容,要求解释具有相关性和可理解性。第二,自动化决策使用者、设计者负有双重解释之义务。
三、算法解释请求权适用范围与限制
(一)公法领域
在行政领域中,国家倡导科技创新、坚持创新引领,主张在行政服务领域中引进大数据和人工智能,力求打造数据政务服务平台,深入推进政务数据汇聚,实现信息的全覆盖,甚至通过算法决策来对相对方作出行政处罚。一方面,在权利地位上行政机关与相对人本身就处于不平等地位,行政机关属于国家的管理机构,法律赋予其决策职能,有权针对相对人实施一定的决策行为;另一方面,行政机关本身所具有的法律专业性以及威慑性,使得处于弱势地位的相对方无法完全保障自身权益。为了避免出现这种现象,我国早在行政立法时就明确规定正当程序原则,其涵义在于要求行政机关在行使行政职权时遵守法律规定的正当性程序。正当性原则最早源于英国的“自然正义”这一概念,要求行政机关要以最低限度的公正作为行使权力的底线,在行政机关作出不利于公民的行政决定时需要充分听取公民的意见,同时公民有权要求行政机关示明该行政决定的依据。我国行政法领域中也规定了正当程序原则,在行政机关实施行政行为时加以法律限制,必须按照法定程序办理,尤其在对相对方作出不利行政决策时,要充分提供解释说明,如若没有提供合理的解释,相对方可以依此提起行政复议,审查行政决策的正确性。正当程序原则与解释请求权在功能上具有一些重合效用,都是相对方在面对不利决策时,有权向做出决策者主张解释说明之权利。换言之,一些情况下“解释请求权”可以被正当程序原则所覆盖,如此一来,相对方可以直接援用现有的正当程序原则的救济手段。
司法领域中,一直在研发人工智能法律系统,也对此进行了深刻的法理学探讨,不仅为了适应人工智能的发展热潮更是在于对法律实践本身的迎合。法院正在尝试引入了人工智能辅助审判系统来协助司法工作者处理诉讼案件事宜,通过将案件事实、法律法规条文、指导案例等信息输入智能系统,通过大数据的对比分析从而做出相应的判决裁定。那么面临的一个问题就是,在数据信息存在错误或算法分析存有瑕疵的情况下,导致做出的决策损害了相对方权益时,又有何救济举措?针对这一问题,我国现有法律规定了相对方在对司法机关的行政行为存有异议,认为损害自身合法权益时,有权提起司法审查,司法机关有义务针对行为的准确性予以审查,并给出合理的解释。司法审查之法律效能在维护相对方因自动化决策受有损害方面与“算法解释请求权”效用存在部分重合,因此,司法审查当然也可以部分代替解释请求权予以援用。
虽然一些情况下,“算法解释请求权”可以被行政复议审查以及司法审查所替代,但是法律并不是包罗万象的,而司法实务中的复杂性更是无法预料,针对行政复议以及司法审查来说,由于审查之后的结果可能并不能充分满足相对方的需求,导致相对方在援用现有救济途径后仍无法保护其受损权益,那么此时构建“算法解释请求权”就具有必要性。诸如“知情权”,既含有民事属性又具有公法属性,但无法以“知情权”匹配“算法解释请求权”,原因在于“知情权”对应的系诚信告知义务,告知范围仅包含镜面表象,其实质原因仍隐藏于阴影之后,无法探析。更遑论针对算法决策形成的复杂理论、晦涩难懂的专业术语,即使使用者履行了告知义务,相对方也难以理解算法领域的奥秘。反观“算法解释请求权”对应的则是解释义务,不仅要求使用者针对算法决策的结果予以解释,还包含决策形成的过程、依据、数据信息、公式算法等内容。“算法解释请求权”较“知情权”的优势在于,其救济目的是使受有损害方知悉致损原因,进而采取一定的补救措施,以期衡平算法决策使用者与相对方之间不对等的权利义务法律关系。综上所述,在公法领域中设立“算法解释请求权”以作为补充性权利是必要的,这些可能存在的情形都是需要在设立新型权利之前必須全面考虑的问题。
(二)私法领域
算法决策除了在公法领域适用外,在私法领域更是普遍适用,例如对公民信用要求最为严格的金融领域,普遍搭建了大数据平台,通过对相对方信息的汇总,利用一定的算法公式从而得出相对方的信誉等级,以确定是否为其提供金融服务;有的高校为了验证获取贫困奖学金的学生情况是否属实,通过校园网络对贫困学生的在线消费予以实时监控,对比分析出贫困学生的整体消费水平,以确定是否符合发放奖学金的条件;医疗领域通过将病理信息、医药配方、治疗技术等输入到数据库中,数据系统通过自动识别分析得出相应的诊断。
以上实例表明,人工智能已经渗入到社会生活的方方面面,算法决策更是成为一种普遍化的现象。当一种新生现象盛行时随之而来的将会是一系列法律问题。对于算法领域我国目前并没有相关法律法规可以援用,而因为算法错误导致决策损害相对方权益的情况确是与日俱增。权利的空缺、利益的侵蚀,影响着法治的平衡,构建新型权利体系,应提上日程。
(三)适用限制——从人机关系切入
当然,算法解释请求权的适用范围亦会随着人工智能时代的到来而不断调整,但在人工智能发展方兴未艾之时,仍应严格把握算法解释请求权的适用范围,以避免算法开发者和使用者背负过于沉重的解释成本而遏制创新动机。
算法开发者、使用者与相对方在算法解释的相互对抗过程中逐渐形成了一种普遍规则,衍生出一种行业自治规制,为人工智能的发展奠定了相对安全的自治环境。这也意味着当人工智能发展至特定“风险拐点”,必须介入公权力予以制止和修正,其手段、尺度应在不妨碍创新的范围内保护相对方的权利。
1.主要限制人参与不足的决策类算法。根据当下人工智能发展态势预期,人工智能的最终发展走向将实现无人操纵,在开启人工智能系统后,无需开发者或是使用者向系统内输入进一步的算法指令,系统凭借其所储存的数据库信息,自行辨别分析并运行,甚至针对所存在的错误予以自主修正,从而实现完全的个体独立化。但是由于算法本身存在系统漏洞、程序瑕疵、数据不完整等特点,会导致决策无法把控,可能造成出乎意料甚至无法挽回的安全性问题,这也是众多学者担忧的一点。而“算法解释请求权”的构建正是为了遏制此类问题的发生,如果不限制人工智能任其肆意发展,而人类算法决策的监控力度并不能与其发展速度相适应,那么势必会出现算法决策错误的问题,而“算法解释请求权”是在适当介入干预的前提下,对人工智能的发展规律予以风险防控。
“算法解释请求权”构建的目的在于防止完全自动化决策现象的发生,避免因机器自由化而产生无法预测的风险,通过相应公权力的介入赋予相对方一定的解释请求权,从而保护相对方利益。为了防止智能自由化而出现无法防控的风险,欧盟理事会于2016年4月在《一般数据保护条例》中针对自动化决策作出了特别规定,即自动化决策的使用者、开发者在运营数据系统作出决策时,要采取适当的措施保护数据主体的个人合法权利及自由,数据主体有权向数据控制者实施人为干预、表达自身观点,并针对决策结果享有同意与否的权利。但这并不意味着人为参与的合理程度不受任何限制,采取事先审查规制,数据主体在实施干预行为前需要对自动化决策的依据、结果进行一定的审查后,针对明显不合理的决策方有权主张决策使用者、开发者予以修正。另外,人为审查义务应作为算法解释请求权相对应的重要义务之一,不能由于审查主体自身持有的“算法依赖"而使审查仅具有表面特征,应深入充分审查决策结果,并依据对自动化决策合理性的审查决定是否针对决策结果采取同意、修正、废除的表意,防止以“走过场”的心态敷衍了事。
2.主要限制对相对方的权益影响较大的决策类算法。算法(Algorithm)是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表用系统的方法描述解决问题的策略机制。据算法应用的场景和具备的功能来看,体现评价、排序、过滤、推送功能的算法较为常见。占据垄断地位的互联网企业几乎构成了现代人生活不可或缺的一部分,但其服务主要是根据用户自身的浏览记录和后台数据库存储的信息,仅对用户的选择产生细微的影响。用户在面对此种算法时,可以通过调整自身的浏览记录信息从而改变网络推送信息的类型。这种可以通过自身行为得到救济的算法并不是算法解释请求权关注的重点,其权利的目的更多的在于为博弈双方提供平衡的法律地位,更多的关注处于弱势地位的相对方,赋予相对方法律武器维护自身的权益,据此算法解释请求权暂时应适用于决策类算法的使用人。例如银行针对贷款人的信用评价算法、保险机构针对参保人的保险精算算法、司法智能审判系统所做出的裁判以及犯罪预警系统的智能执法等等,这些算法的决策直接影响相对方的特定权力,而对于相对方来说,有些权利一旦丧失造成的伤害可能会是永久性的。在关于保护相对方权益的法律内容上,欧盟理事会在《一般数据保护条例》第22条第1款中有明确规定:“对于仅基于自动化数据处理的决策,包括特征分析,若其产生的法律效力涉及数据主体,或对他或她有类似的重要影响,则他或她有权不成为此决策的对象”。可知,在自动化决策对自身产生重大影响,相对方有权直接对该决策结果予以否定,从而避免受其结果的约束。