APP下载

《个人信息保护法》语境下“免受算法支配权”的实现路径与内涵辨析

2021-01-12唐林垚

湖北社会科学 2021年3期
关键词:信息处理个人信息决策

唐林垚

(中国社会科学院法学研究所,北京 100009)

算法决策相对于自然人决策具有成本低、效率高、反应快、应用广等优势。依托算法决策的各类智能应用,无疑能为人们的生活带来便利,“已经日益成为社会经济发展和公共治理的重要支点”,[1](p165)但新的问题也由此产生:外卖平台近乎严苛的超时惩戒制度,逼迫外卖骑手不顾交通安全疲于奔命;网约车软件、网购平台通过对用户操作习惯的分析,在隐藏环节加价、对消费者进行揩油和“杀熟”;各类短视频应用登顶全球下载量最多的应用行列,“成瘾性”利用空洞内容吞噬空余时间的算法设计被诟病为21世纪的“精神鸦片”。在智能应用无所不在的数字经济时代,如何保护个体免受算法的支配和控制,同保护个人信息一样,已经成为广大人民群众最关心、最直接、最现实的利益问题。目前,被人大法工委列为2021年立法工作重点的《个人信息保护法》对个人信息的利用和流转保护有余,对个体脱离算法决策的相关权利保障却明显不足,解决方案是在《个人信息保护法(草案)》中明确具体地规定个体享有“免受算法支配权”。

一、规制的基点:针对算法决策的规则构建逻辑

算法,是求解特定结果的数理步骤,是解决特殊问题的思维路径,[2](p365)但其一旦以智能应用为载体介入对个体或群体的日常决策,就可能产生关涉个体权益、公序良俗和公共安全的问题。马斯克对此直言不讳:“以算法为代表的人工智能或是人类文明的最大敌人。”[3](p1)这种“反电子乌托邦”的论点或许过于悲观和绝对,但我们确有必要对算法决策的优点和缺点持有更全面和更清醒的认识。

(一)算法决策的特征及应用场景。

作为各类智能应用的关键所在,算法决策,是指利用先进的信息挖掘技术对海量用户进行持续追踪和信息采集,通过特定规则对信息进行提炼以确定用户的群组特质或特征,①《个人信息保护法(草案)》第4条:“个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开等活动。”算法决策是典型的信息处理活动,算法决策中的相对方为信息处理主体(即算法利用方,包括但不限于智能服务提供方、社交媒体、短视频软件、网购平台、智能配送系统等)和信息主体(即算法决策对象,包括但不限于智能应用用户、网购平台消费者、外卖送餐平台骑手、网约车司机等)。为与《个人信息保护法(草案)》表述一致,本文采用信息而非数据的提法。最终生成具有明确指向性的决策或用户画像的过程。算法决策精于预测,号称能为信息主体提供贴心的“个性化服务”。举例而言,短视频软件的内容推荐算法围绕“热度权重”进行内容推送,具有极高的用户黏性;产品推荐引擎革新了网络购物平台的内容呈现方式,从满足消费者需求一跃提升至培养消费者习惯;动态投喂算法被社交媒体广泛采用,极大地增加了用户沉浸其中的时间。内置算法决策的智能应用不胜枚举,通常,算法决策都是“免费”的,信息主体无须缴纳任何费用即可“享用服务”,只要允许信息处理者获取和重复使用个人信息即可。[4](p196)

算法决策还被广泛应用于公共治理。如用于考察客户信誉的银行大数据资信系统、公安部门的犯罪预测系统、居民养老保险在线审核系统以及各地为抗击疫情推出的健康码应用等。与此同时,人们对智慧城市和智慧生活的向往,推动了算法决策对传统商业模式的颠覆。以大家耳熟能详的智能应用为例,美团、饿了么等外卖平台的实时智能配送系统,号称能够完成“万单对万人的秒级求解”,以最低的价格、最短的时间实现最精确的物品配送;滴滴出行、首汽约车等网约车软件,在实现百万级出乘需求匹配的同时,还力图尽可能平衡司机和乘客的利益,让出行的时间和成本都“可预见”和“可控制”。在算法决策已经结构性嵌入社会运营的大背景下,[5](p133)赫拉利所描述的“算法社会”已经奇点临近:“权威将从个人转向由算法构成的网络。人类不会再认为自己是自主的个体,不再依据自己的期望度日,而是习惯把人类整体看作一种生化机制的集合体,由电子算法网络实时监测和指挥。”[6](p296)

(二)算法决策的问题及法律风险。

尽管,使用算法决策的信息处理者坚称,算法决策能给用户提供更有意义的体验、为信息主体带来便利、提升社会运营效率,但智能应用和传统服务大相径庭——算法决策的服务供给通常完全基于信息处理者推断出来的用户喜好和商业痛点,向信息主体提供服务时也未真正征求其意愿和完整的意思表示。诚然,“通知—同意机制”早已被前置为算法决策全周期的“第一闸口”,但晦涩难懂的用户须知无法让信息主体知晓全部信息、非同意不可使用的俘获同意机制诱使用户匆忙决策,“通知—同意机制”形同虚设。[7](p126)从程序法的视角来看,现行算法决策系统的设计理念普遍有待商榷,[8](p4)相关的道德和伦理问题也由此凸显:算法决策系统真正提升的,是信息处理者的收入所得,还是信息主体的便利性和获得感?信息处理者的利己和社会整体的利他如果发生本末倒置,法律就有介入的必要,以调适二者之间的冲突。

当算法决策从“试图适应和预测人们的偏好”转向“将本不存在的偏好强加于人们”时,法律应对风险也随之激增。自然人决策是维系人类集体生活所不可或缺的“阳光、空气和水”,自然人决策向算法决策的让渡是人类主动对自身特性的放弃和抹杀,必然将对社会群体和个人产生深刻影响。众所周知,自然人决策存在诸多弊端,远非尽善尽美,近代法律制度在弥补和矫正自然人决策方面颇有建树;但对于算法决策的缺陷和不足,我们知之甚少,缺乏查缺补漏的经验,遑论能够自上而下建立切实可行的制度性保障机制。当生成决策的逻辑基础是不同于人类理性的算法程式时,过去行之有效的监督和干预机制难以发挥实效;在科技创新发展和应用于社会的过程中,倡导“负责任的治理”尤其重要,这要求立法者具备“三界五行”的视野,而不是被现有问题驱动着走。习近平总书记指出,“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究。”唯有建立完善的算法决策规范,才能更好地获取人工智能福利,让科技造福人类。[9](p17)

(三)算法规制的权利路径与方向。

各类应用对用户“润物细无声”的投其所好,看似简单,实则需要过滤大量的个人信息才能实现,在这个过程中,算法决策是核心,规制算法决策与保护个人信息同样重要。算法决策日益成为影响国家安全、政治安全、意识形态安全的重点问题,也是世界各国所面临的共性难题。2021年2月7日,国务院反垄断委员会制定发布《关于平台经济领域的反垄断指南》,将“大数据杀熟”和“算法合谋”纳入重点监管范畴,提倡保护市场公平竞争,促进平台经济规范有序创新健康发展,维护消费者利益和社会公共利益。[10](p3)但是,算法决策所带来的法律挑战,并非都因互联网巨头滥用市场支配地位而产生,任何信息处理者,无论大小,只要滥用算法工具,都可能造成严重后果。算法决策以大数据为其“养分”和“燃料”,而构成大数据的,则是众多独立的个体。因此,公法视域之外,个体权利保障的进路更加重要。在《网络安全法》已经生效、《数据安全法》呼之欲出之时,与每个个体休戚相关的《个人信息保护法》势必将主要承载保护信息主体免受算法决策侵害之重任。

算法对个体的侵害,源于对人类自主性的侵蚀。柯维指出,“人不律己,便是情绪、食欲和情欲的奴隶”。[11](p1)由此看来,缺乏自律便会丧失自由。既然自由通常建立在严于律己的基础之上,人们行事时须常以更高标准约束自己,才能充分体会到自主性的存在。根据尼采的观点,“真正的幸福来自自我节制”,[12](p505)只有自我节制才能让人持续地感受到自己是自身利益的最佳判断者。纵观当下各类算法决策的应用场景,不仅不能促进人们以更高标准约束自身以获得更高的自主性,反倒倾向于引导人们不断屈服于低层次的本能和唾手可得的满足感,在对廉价快感的角逐中彻底丧失幸福和自由:“抖音”“快手”极易让人沉迷于快节奏的惊喜变幻之中,从而降低做其他事情的积极性,甚至让人忘记思考;网购平台的新品推送,催生了无数原本不需要的消费需求,甚至在一定程度上培养了消费者“超前消费”和“过度消费”的坏习惯,从而引发债务危机。要想突破算法决策对人们的支配和困扰,首先应当根除信息主体对算法应用的不当依赖,倡导一种以自然人自律取代算法他律的原初状态。

算法决策规制的重要基点,应聚焦于算法决策滥用所导致的权力失衡。交易,是商业的基石;从交易中获利,是商业的本质。算法决策在商业领域的频繁应用,正源于算法决策可以带来更高的正向收益。问题在于,算法决策带来的正向收益并未在交易双方中平均分配;凭借着技术和信息的双重优势,掌控算法应用的信息处理者最终将能占尽信息处理活动中的所有剩余利益。不知疲倦、随时待机、能力随算力水涨船高的算法决策应用在设计之初,就是为了助力信息处理者或以巧妙、精准的方式掠夺消费者剩余实现“开源”,或通过节省人工成本的方式减少自然人岗位实现“节流”。因此,打着“个性化服务”“提供贴心支持”等幌子的算法应用,并不总是以受众或消费者的利益最大化为追求,相反,二者存在不可避免的利益冲突。职是之故,针对算法决策的个人权利保障,应以交易双方的利益再分配为根本目标,改变“数据处理者中心主义”的现状。

二、试错的过程:现行信息主体权利的局限与不足

在摆脱算法依赖、保护信息主体权益方面,立法者早已有所行动。《个人信息保护法(草案)》第四章针对算法决策行为,赋予了信息主体“更正权”(第46条)、“被遗忘权”(第47条)和“获解释权”(第48条),但这三种权利尚不足以保护信息主体免受算法操纵、平台杀熟和信息茧房的伤害,也不可能真正实现“免受算法支配权”的综合意涵。

(一)“更正权”:治标不治本。

针对算法决策的“更正权”,始见于欧盟《通用数据保护条例》(下简称GDPR)第16条,算法决策对象可以在不违反算法目的的前提下,更正、完善、调整存在偏差的个人信息。我国《网络安全法》第43条最先规定了在“网络运营者收集、存储的其个人信息有错误”等情形中,“个人有权要求网络运营者予以更正”;2021年生效的《民法典》吸纳了这一规定,将其置于人格权编第1037条:“自然人可以依法向信息处理者查阅或者复制其个人信息;发现信息有错误的,有权提出异议并请求及时采取更正等必要措施。”《个人信息保护法(草案)》第46条在前述规定的基础上,进行了细化,要求信息处理者对不准确和不完整的个人信息进行及时更正和补充。然而,无论是欧盟还是我国,算法决策对象主动行使“更正权”可以更正的对象,只能是处于决策链前端的底层数据或者个人信息,不能更正形成错误算法决策的错误逻辑。由于机器学习模型抓取的大数据通常来源于多个渠道,个人实际上不可能对较长时间维度中的每一次数据抓取都进行纠偏,极偶尔的数据更正相对于体量异常庞大的“数据池”而言,根本不具备统计学意义条件,因此难以对算法决策的结果产生决定性影响。

更何况,在卷积神经网络中,算法决策所依赖的机器学习模型群,对应着不同层级的信息簇,信息簇和信息簇之间存在层层递进的关系,除了直接来源于信息主体的初始信息外,其余所有层级的信息簇都是信息主体难以理解的推论信息。要对算法决策的结果产生影响,“更正权”的作用对象应当是环环相扣的推论信息簇,但单从字面意思来看,GDPR第16条、《网络安全法》第43条、《民法典》第1037条以及《个人信息保护法(草案)》第46条,皆不涉及对推论信息的“更正”。已经有学者注意到了算法决策过程中推论信息的监管空白,主张“通过保障推论数据获取权以搭建个人数据主体与数据控制者之间的沟通机制”。[13](p107)此番呼吁对应的背景是,域外为数不多的司法判决对推论信息的归属和本质尚未定性。在Y.S v.Minister voor Immigra⁃tie一案中,荷兰高等法院曾判决,无论推论信息与原始信息之间的关联有多么直接、是否关涉信息主体的重要权益,只要推论信息通过特定的处理方式(算法)在原始信息的基础上有所递进,那么该推论信息就不是信息主体可以任意支配的个人信息。①Y.S v.Minister voor Immigratie,C-372/12(2010).在Peter Nowak v.Data Protection Commissioner一案中,爱尔兰高等法院则认为,只要能够证明同信息主体有所关联,那么不管是经历了多少轮处理取得的推论信息,都应被视为信息主体可以直接支配的个人信息。②Peter Nowak v.Data Protection Commissioner,C-434/16(2017).易言之,只要能追溯至算法决策对象原始信息的推论信息,都属于信息主体通过行使“更正权”可以纠正的信息。问题是,即便采纳Pe⁃ter Nowak案的审判思路,考虑到计算机的思维通常异于常人,信息输入和输出之间通常不是线性关联,对算法决策运算逻辑缺乏相应知识的信息主体,如何有能力对推论信息进行更正呢?

综上所述,机器学习模型从数个渠道、多个平台抓取信息,形成对个体产生重大影响的算法决策。单一信息源头的修改及修正,在整体逻辑不变的前提下,能够起到的作用可谓“微乎其微”,根本不可能实现彻底更正错误的法律效果。在算法黑箱的掩映下,针对推论信息的“更正权”实属天方夜谭,不具备可行性。更正基础信息完全不同于更正结果,二者具有指向性的区别,在行权拟取得的法律效果上,“更正权”甚至算不上最低程度的“免受算法支配权”。

(二)“获解释权”:聊胜于无。

长期以来,算法可解释性的合规要求,被视为“对抗数据个体的主体性和自治性沦陷和丧失的内在之善”;[14](p1425)本应居于非普遍使用、辅助性地位的算法透明原则,一跃成为世界各国人工智能法律法规的核心要旨。[15](p20)似乎,只要过程是可以被解释的,那么算法决策结果的合理与否,便一目了然。但是,算法透明真的能够一蹴而就吗?答案显然是否定的。

透过可解释性的合规要求确实可以将有争议的问题摆至台面进行探讨,但针对算法决策过程的人为解释,未必能够通过科学合理的方式进行验证。机器学习模型所涉及的中间环节越多,身处局外的观察家们就越不能终局地评价信息输入和结果输出之间的因果关系。强推算法可解释性合规要求的结果是,信息处理者被迫加大力度,去寻求能够正当化算法决策且能够被大众所接受的理由和借口[16](p61)——对算法决策的解释是事后添加的,而解释说理的方式完全取决于政治和经济目标。对算法可解释性的合规要求进行补强的方案,是要求信息处理者在算法决策的各个流程引入同行评议,由同信息处理者无关联的专家同行对机器学习模型和代码的构造进行实质审查。英国《政府数据伦理框架》将法定同行评议作为算法决策的“安全屏障”,但并未给出切实可行的操作方案。需要指出的是,通过同行评议并不意味着算法就可被解释,更不意味着算法不具备支配性和攻击性。缺乏充分反映自然人价值体系的伦理审查标准,同行评议充其量只能保证:(1)算法代码的字里行间不充斥着个别程序员带有偏见的价值负载;(2)机器学习建模过程和指令转译过程中不存在必须调整的理解偏差和表达耗散。

GDPR第13条、第14条、第15条分别规定了直接、间接以及因各类原因进行个人信息处理活动主体应向信息主体履行的强制性信息披露义务;《个人信息保护法(草案)》第48条相对简单地阐述了“个人有权要求个人信息处理者对其个人信息处理规则进行解释说明”。以上两种规定方式,均是从信息主体的“获解释权”入手,来反向规定信息处理者应当遵循的算法可解释性的合规要求,并不必然涉及对算法决策的“全流程”解释。在这种规定方式之下,信息处理者可以轻松地以信息采集的范围和合理性来搪塞信息主体对算法决策过程的怀疑,将本来是针对信息采集环节的事前解释“依葫芦画瓢”地作用于算法决策的事中和事后过程。同行评议程序的缺乏,配合上本来就意义不大的事前解释,必然将架空信息主体的“获解释权”,既无法降低信息处理者和信息主体之间的信息不对称,甚至都难以协助信息主体加深对算法决策的了解。

总而言之,立法者看到的是一个设定一项“获解释权”就可以让算法决策可解释的世界,而这种理想愿景同当今技术运作的现实情况存在巨大鸿沟。随着机器学习模型的日益复杂、卷积神经网络的广泛适用、数据搜集源头的交汇重叠,要就算法决策的运作原理与裁判机制做出详细且外行人也能理解的解释,经常是“解释了也是白解释”,无助于信息主体从不公平的算法决策中抽身而退,也并未赋予信息主体在算法决策前负隅顽抗的筹码。

(三)“被遗忘权”:徒劳无功。

从字面来看,“被遗忘权”是迄今为止,最接近“免受算法支配权”的一种权利创设,因为信息主体只要确实身处“被遗忘”的状态,那将不再受到算法工具的针对、评价和信息封锁。世界各国纵有截然不同的“被遗忘权”立法背景,“被遗忘权”却殊途同归地在法律文件中被转译为“擦除权”(the right to erase)或“删除权”(the right to delete)。以欧盟为例,在2010年的Google Spain v.Costeja Gonzalez案中,原告要求在搜索引擎中剔除自己已经过时的个人信息,《个人数据保护指令》(下简称DPID)第12条“允许信息主体擦除不符合相关规定的信息”的原始规定得以适用。GDPR第17条吸收了此前的规定,将DPID第12条表达为:“信息主体有权要求数据控制者擦除关于其个人信息的权利”。我国的相关法律实践开始于2015年,在任甲玉诉北京百度网讯科技有限公司人格权纠纷案中,原告除了主张姓名权和名誉权受到侵害之外,还额外主张被告侵犯了其人格权中“被遗忘”的权利。①任甲玉与北京百度网讯科技有限公司人格权纠纷案,北京市海淀区人民法院民事判决书,(2015)海民初字第17417号。虽然原告在二审中败诉,但是“被遗忘权”的主张,引发了学界和实务界的热切关注,[17](p155)并体现在《民法典》人格权编的立法工作中。《民法典》第1028条、1029条、1037条和1195条分别规定了自然人在四种情形中享有“删除权”:1.报刊、网络等媒体报道的内容失实;2.针对自己的信用评价不当;3.信息处理者违反法律、行政法规的规定或者双方的约定处理其个人信息;4.网络用户利用网络服务实施侵权行为。《个人信息保护法(草案)》集判例和《民法典》之大全,在第22条规定了超出约定处理目的、合同履行完毕时信息处理者的信息返还或删除义务,在第47条明确了个人撤回信息处理同意时所享有的“删除权”;对于删除信息在技术上难以实现的,《个人信息保护法(草案)》要求个人信息处理者立即停止处理个人信息。

遗憾的是,表现为“删除权”的“被遗忘权”,并非完整意义上的“被遗忘权”,只能在有限范围内将涉及信息主体的部分信息“隐去”,并不能起到让信息主体“被遗忘”的效果。在Google Spain案中,虽然原告胜诉,但被允许行使“删除权”的结果,只是让搜索引擎在其算法模型中,剔除了包含原告个人信息的链接,并没有彻底删除包含这些个人信息的原始界面,毕竟,这些界面所对应的门户网站,并不归搜索引擎公司所有。因此,原告行使“删除权”顶多实现了被某个搜索引擎算法“遗忘”的法律效果;只要包含个人信息的原始页面依旧存续,其他的智能应用依旧可以实现对这些页面的抓取和访问,信息主体也就仍然随时处于各类算法决策的支配之下。“被遗忘权”的自欺欺人之处在于,信息主体只能暂时免受某算法决策的“跟踪”,就好比清空网络购物平台购物车虽然可以暂时改变“猜你想要”的推送结果,但算法系统依旧可以凭借对用户购买习惯、支付方式等深层次信息的牢牢掌控进行“套路”和“杀熟”。若想达至被彻底遗忘的效果,信息主体只能依次向包含个人信息的网站逐一行使“被遗忘权”,此种在理论上可行的操作方式在实践中将面临极高的行权成本。更何况,现实中有不少专门记录从搜索引擎界面移除链接的界面,例如Wikime⁃dia和Reddit等,让希冀行使“被遗忘权”的信息主体陷入“越描越黑”的境地之中。[18](p18)以此观之,如果“被遗忘权”只是停留在“擦除权”“删除权”的水准,期望信息主体通过行使“被遗忘权”来达到“免受算法支配”的希望,定然会落空。

三、应对的方案:“免受算法支配权”的内涵与外延

“更正权”“被遗忘权”“获解释权”的固有缺陷决定了,即使三者在实践中能够合乎情理的联动,也无法真正起到让信息主体“免受算法支配”的效果。等因奉此,《个人信息保护法(草案)》应当以更加直接的方式规定“免受算法支配权”:“个人有权不成为算法决策支配对象,信息处理者应当保障个人可以不受信息自动化处理的决定的限制”。性质上,“免受算法支配权”是信息主体请求免受算法决策影响、获得人工干预等权利的集合。对这种复合式权利的内涵界定,可以分情境从以下三个方面展开。

(一)算法操纵场景:“陈情权”。

“免受算法支配权”是最低限度的“陈情权”,是个体就自身不公平遭遇获得公平聆讯以及请求行政复议的权利。允许个体就广泛存在的“算法不公”进行陈情,可以让政策制定者以“同为自然人”的立场对被决策者的实际遭遇感同身受,借此制定出更人性化的政策和法律,及时矫正影响深远的算法决策可能存在的偏误。

在算法操纵的场景中,受算法支配的从业人员,主要是学历不高、无专业技能的基础工种,是各类劳动者中几近最为弱势的群体。以外卖送餐骑手为例,各平台的骑手一般分为两类,一种是加入各个站点、由代理商作为“隔层”与平台构成劳务关系的专职骑手,理应按照劳动法规范落实工作时间和社会保险的相关规定;另一种是入行门槛极低,自主注册、接单、配送的众包骑手,由于其服务样态不符合典型劳动关系的特征,很难纳入劳动法调整,缺乏与其劳动方式相适应的法律保障机制。在平台的外衣下,专职骑手实际上也难以行使劳动法所提供的法定议价权利,与众包骑手一样缺乏同平台的议价能力,这实际上是劳动者被算法支配的问题的根源。在该类法律关系中,工作时间、加班报酬以及奖惩规则由平台决定,平台的决定权由算法决策予以具体落实。由于缺乏议价能力,劳动者只能选择要么被迫接受、要么离开平台,算法决策加剧了平台与底层劳动者之间的权力和利益结构失衡。

让劳动关系中的信息主体免受算法支配的对策,是回归基本的劳动者权益保障,即综合运用政策工具,提升劳动者与平台之间的议价能力。在人工智能的加持下,新业态、新模式层出不穷,政策和既有规定很难及时捕捉因技术变革带来的新问题和新挑战,此时,赋予作为受支配者、当事人的信息主体通过正当渠道发声的“陈情权”,有助于提醒立法者及时调整法律法规,以构筑劳动者权益保障的底线。“陈情权”的行使,将有助于建立与不同业态和模式相匹配的“政府—劳动者—平台”三方参与的议价协商制度,借用公共对话的场域来制衡平台的技术霸权,为处于弱势地位的劳动者提供议价渠道,以各方都能接受的协商结果修正近乎肆意妄为的算法决策。

“陈情权”所构筑的商谈场域,也有助于矫正雇佣关系中不平衡的风险分配机制,避免不公平的责任转嫁或无必要的责任揽承。“法律制度的正当性取决于‘正当化’的过程以及为了达到这一目的而运用的‘说理的技术’。”[19](p71)各参与方的相互角力可以创造出符合各方利益的内生性合理秩序,解决既有外生性制度安排难以应对的棘手问题。《最高人民法院关于审理人身损害赔偿案件适用法律若干问题的解释》第11条规定了“雇主严格责任制”:“雇员在从事雇佣活动中遭受人身损害,雇主应当承担赔偿责任,雇佣关系以外的第三人造成雇员人身损害的,赔偿权利人可以请求第三人承担赔偿责任,也可以请求雇主承担赔偿责任。”必须承认的是,“雇主严格责任制”的过度适用,将给劳动市场的供给方带来过高的运营成本,不利于商业活动的开展。面对技术进步不断革新商业模式的现状,有学者指出,不宜“一揽子”将互联网平台的劳务供给认定为劳务关系,劳动法的适用范围应当根据技术的发展做动态调整,“避免劳动关系的泛化”。[20](p50)“陈情权”的适用,将有助于劳动者和平台之间自行达至责任和风险分配的最优解,为未来《劳动法》的动态调整提供方法论上的启示。

(二)平台杀熟场景:“人工干预权”。

平台杀熟,是指信息处理者通过对信息主体的大数据分析,在掌握其消费偏好、消费习惯和消费水平后,将同一商品或服务以差别性定价卖给不同的信息主体从而获得更多消费者剩余的行为,严重影响市场秩序、侵害消费者权益以及社会整体利益。例如,同样的一份外卖餐食,外卖平台对同一区域的客户收取不同的配送费或者服务费;网约车软件对相同里程、相近交通状况的行程收取不同的费用。在杀熟技巧越发精湛的今天,平台杀熟演化出两种基本表现形式,从差别定价逐渐向诱导消费转换。其中,差别定价以三种方式实现:(1)根据信息主体所使用的设备差异进行差别定价;(2)根据信息主体消费时所处的不同场合进行差别定价;(3)根据信息主体的不同消费习惯和效率频率进行差别定价。诱导消费主要有三种表现形式:(1)分析信息主体对价格的敏感程度,对“高净值客户”隐藏性价比更高的选项;(2)利用预测型和自主学习型算法,实现各搜索界面的协调一致,排除信息主体的多样化选择;(3)在用户原有偏好的基础上进行战略性反复推送,激发用户原本不存在的隐性偏好。

平台杀熟的本质,其实是人为的错误算法决策,是平台放任有利于自身的、带有偏见的算法决策取代原有公平的、不区别对待的算法决策。在这个意义上,平台杀熟和算法决策错误并无二致,二者可以以相同的矫正方式予以应对。矫正算法决策错误最直接的方法,是人工介入。实际上,《个人信息保护法(草案)》第四章的“更正权”“获解释权”以及“被遗忘权”都是人工介入的典范,当算法决策产生错误时,由自然人介入决策过程,或对不正确的原始信息予以更正、或对看似不合理的算法决策予以解释、或删除包含噪音的个人信息。但正如上文指出的那样,“更正权”“获解释权”以及“被遗忘权”层面的人工介入,尚不足以完全纠正错误的算法决策,更不可能实现免受算法支配的法律效果。在平台杀熟和算法决策有误的场景中,“免受算法支配权”应当对应比“人工介入权”程度更高的“人工干预权”,即以人工干预的方式直接纠正不合理的结果,以“自然人所具备的一般理性和情感”对信息主体的相关信息进行审查并得出全新结论。

更高程度的人工介入体现在,由自然人亲力亲为,对错误的算法决策过程和结果的干预。以健康码为例,政府部门允许个人在健康码的结果与实际情况不符时,拨打12345热线发起纠错申请,经县级防控指挥部核实确认后,以人工决策取代算法决策形成公允的判定结果。这是在法律尚无明确规定的情况下,以“行胜于言”的方式实现了“免受算法支配权”的精神内涵,这种以人为本的执法实践,让智治与自治、法治、德治一样充满温度。回到平台杀熟的场景,“人工干预权”的设置,并不意味着平台必须以“自然人亲力亲为”的方式进行定价或者向消费者推荐商品或服务,也不是当消费者觉察到被杀熟之后由人工审核算法定价的合理性。从节约双方成本的角度考虑,平台应在预测型和自主学习型算法的使用上保持克制,并且主动建立“算法决策审核官”等职位,由自然人专家主动监测算法决策的各个环节,防止利润最大化导向下算法决策的异化和“脱缰”,以事前的“主动人工干预”避免产生事后的“被动人工干预”成本。

(三)信息茧房场景:“远离权”。

人类的相互操纵和强力干预,颇受外部竞争和权力分化的限制,但打着促进个人自主旗号的算法工具,已经在受众的半推半就之间完全破坏了人类的自主性。这种破坏性集中体现在通过吸引注意力的方式来影响人们的行为并左右人们的偏好。有学者将监控和管理人们生活的算法决策系统比喻成“隐形铁丝网”,它们包围并限制了人们的自主空间,个体甚至根本意识不到它们在做什么。[21](p9)无处不在的传感器系统、时时开启的定位服务、360度无死角的监控摄像头以及呈指数级增长的大数据,记录并重塑了人们的数字生活,任何从中逃亡的尝试,都将面临被“推回正轨”的压力。例如,脱离银行的资信审查系统,信息主体将无法获得贷款,甚至,在房屋租赁的平台都无法通过审核。2020年以来,反垄断法和反不正当竞争法已经在宏观层面频频发力,对横亘在政府和市场之间、凭借科技优势介入社会运营的技术寡头进行合理拆分,防止因“集个人信息之大成”而掌握“准公权力”的商业平台、金融机构和社交媒体兴风作浪。在微观层面,信息主体也需要切实有力、操作性强的个体权利,以脱离算法决策所塑造的信息茧房,不被掌控话语权的商业巨头们“带节奏”。

美国学者特兰最早提出了“注意力保护权”(the right to attention)的概念,主张赋予信息主体对抗算法决策捕捉和控制注意力的权利。[22](p1023)由于“注意力保护权”的概念过于模糊,实践中人们将其解读为“离线权”(the right to disconnect),意指信息处理主体应当赋予信息主体从网络世界回归现实生活留白、不受算法调度的被动权利。弗锐希曼和瑟琳格更进一步,提出了“远离权(the right to be off)”的概念。他们指出,人类在21世纪保持自主意识的关键在于,个体随时随地都能享有在没有任何算法工具强加于身的情况下生活的基本权利。[23](p96-102)实现“远离权”的方式,是在“通知—同意机制”中,对信息主体可以“随时离线”的权利予以特别提示。考虑到算法决策应用场景的千变万化,千篇一律的权利预设方式将难以发挥其既定的效用,“远离权”的内涵亟待进一步完善。

根据拉兹在20世纪80年代提出的四维自主理论,个体想要成为自己生活的主宰者,应当符合四个基本条件:(1)具有最低限度的理性来计划拟实现的目标;(2)拥有足够的选择,不受单一手段的限制和制约;(3)在思维和心智上独立,有能力应对来自外界的干扰、胁迫和操纵;(4)享有实现目标的精神和魄力。[24](p112)相应的,“远离权”的构建可以从多个面向展开:(1)算法决策通常透过限制和约束个体的选择,以达到直接或间接干预人类决策的目的,“远离权”则应打破算法工具有限选择的藩篱,禁止信息处理者利用技术手段隐藏、过滤、预选可供信息主体选择的选项;(2)算法决策工具惯于通过反复推荐,来削弱个体自主决策的意志,以“放长线钓大鱼”的手段,让人们被迫接受一套“因反复而定型”的思维模式乃至价值观。信息主体应当被允许请求信息处理者剔除一切可能扰乱其思维的推荐方式,包括但不限于重复推送、在关键位置进行醒目提醒等;(3)某些算法工具被塑造成具有胁迫性的辅助工具,如果个体不按照程序规定的方式行动,系统就会发出不利后果的严正警告。在更极端的情形中,算法工具之间甚至存在合谋的情况,例如,某些自动驾驶系统同保险费计算程序挂钩,如果用户不严格按照自动驾驶系统所“建议”的方式驾驶车辆,那么将可能面临保费激增的后果。就此而论,“远离权”应当包含禁止系统滥发警告的消极效力;(4)算法工具通过吞噬碎片时间的方式,逐渐消磨个体“集中力量办大事”的心力:密集沟通与零散信息让专心致志的思考愈发奢侈,疲于应付的必然结果就是好生忙碌却智识匮乏,在不知不觉间让算法接管一切。就像当今所有的网络游戏都被要求引入“防沉溺系统”一样,信息处理者应当主动在算法工具中置入长时间使用应用提醒,以及超长时间使用应用被迫离线等功能。

四、结语

“免受算法支配权”所揭示出来的重要命题是,人类与技术之间,需要保持相当的安全距离。算法操纵、平台杀熟和信息茧房场景中“免受算法支配权”的内涵虽然不尽相同,但其背后的逻辑基点都是不同场景之间自然人保护的共性需求:其一,警惕本来应当是中立的智能应用,被用来掩饰未取得“多数人同意”的少数人集权。其二,避免“算法正确”取代“自然人正确”以及“信息处理者利益最大化”排斥“个人利益最大化”。其三,倡导一种符合自然人实际感受的自由与自主。只有在决定自身利益的关键事务上享有积极参与的权利,人类才有可能维持和延续在知识、经验和道德上的卓越。监管套利、技术壁垒和应用迭代或将日益扩展信息采集的边界、加大算法可解释性的鸿沟、提升个体被网络世界遗忘的门槛,但倘若能将免受算法支配的权利思维嵌入至算法规制的全流程,那便是以充分体现人民意愿的方式将“不断增强人民群众获得感、幸福感、安全感”的价值追求一以贯之;[25](p15)如此个人信息保护,正所谓“良法善治”也。

猜你喜欢

信息处理个人信息决策
防范电信网络诈骗要做好个人信息保护
“毫米波雷达系统设计与信息处理技术”专题征文通知
个人信息保护进入“法时代”
东营市智能信息处理实验室
为可持续决策提供依据
基于Revit和Dynamo的施工BIM信息处理
主题语境九:个人信息(1)
警惕个人信息泄露
决策为什么失误了
决策大数据