APP下载

算法自动化决策中消费者主体性的保障路径

2023-03-05娄逸骅

韩山师范学院学报 2023年5期
关键词:救济经营者决策

娄逸骅

(山东大学 法学院,山东 青岛 266237)

算法改变了决策的构成,基于法定规则、人类经验与有限理性的定性决策逐步被基于大数据技术的定量决策所取代。[1]算法自动化决策技术的广泛应用使得机器取代自然人成为信息选择的主体,个人在信息获取过程中的自主性被削弱。个性化定价、数据垄断、个人信息泄露等一系列问题在影响数字经济发展质量的同时也侵蚀着线上消费者的主体性。如何引领算法沿法治化轨道发展,如何达至算法正义,是法治进化的核心主题。[2]在消费领域,算法正义是消费者主体性及其权益的重要保障。

一、算法自动化决策对消费者主体性地位的侵蚀

算法逐步成为各个领域的基础技术架构,原有的社会关系与权力结构在这一过程中得以不断巩固和发展。算法自动化决策这一“技术黑箱”强化了经营者在线上交易中的优势地位,降低了消费者的法律地位和决策能力。

(一)消费者信息接收过程受阻

消费者接触到的交易信息实际上是经营者和算法设计者想让消费者看到的信息。算法缔造的“信息茧房”限制了公众接受信息的种类和数量。桑斯坦认为,“信息茧房”现象是指公众通常只关注自己选择的或能使自己愉悦的讯息,将自己束缚在如蚕织就的“信息茧房”中的现象。[3]“信息茧房”原本是信息接收过程中的一种正常的信息偏食现象,而算法可以将正常的信息偏食状态异化为信息偏在状态。[4]算法可控制信息受体接收的信息种类。大量的同质化信息和“标签化”操作可以强化受众的固有认知[5],成瘾性推荐打造的舒适圈进一步减弱了消费者突破“信息茧房”的内在动力。因此,陷于特定的数据信息领域内的信息接收者难以突破“信息茧房”的束缚,接收外来的信息和观点。

(二)消费者议价能力大幅减弱

算法对交易信息的筛选和过滤缩减了可供消费者选择的经营者范围和产品范围,增强了消费者对特定经营者的依赖程度,比如谷歌公司就通过算法将自己旗下的商品信息置于展示页面的显眼位置,以争取更多的交易机会。[6]更为关键的是,个性化定价改变了“同物同价”的传统定价模式,比如某打车软件依据手机品牌和使用频率的不同确定支付价格[7]。在算法自动化决策创建的封闭信息场域内,消费者可能会对特定商品服务的种类、价格、交易形式、消费评价形成固有印象,难以掌握市场行情和价格变化的总体趋势。此外,鉴于算法自动化的定制性和私人性,消费者难以知悉其他消费者接收到的推荐信息,这就导致其难以发现经营者的个性化定价行为和垄断行为。如此一来,消费者往往只能被动接受经营者安排的价格。

(三)消费者的真实意愿难以实现

算法加剧了经营者和消费者在信息处理方面的紧张关系。经营者为实现盈利目的,往往会采用强制同意、信息扒取、过度分析、保留识别性等手段,违规处理消费者的个人信息。与此同时,在数据流转规则尚不完善的今天,企业间的数据流转并不一定符合消费者的真实意愿。算法也加剧了经营者在数据处理领域的竞争关系。企业既希望对自己数据库内的信息享有排他性的权利,又希望能够充分利用其他企业的信息资源。在经营者数据需求难以得到满足的情况下,不排除有企业铤而走险,通过非法手段侵占其他企业数据资源。这也意味着消费者信息的实际处理者和预期处理者存在出入。另一方面,算法自动化决策是一种通过数据分析程序自动输出结果的决策方式,算法自动化决策过程的高度技术性和高度封闭性使得消费者难以抵制其带来的负面效应。消费者不参与算法设计,不干涉决策进程,自然就难以干预算法自动化决策的最终结果。即便算法自动化决策完全符合有关规定,在消费者需求日渐多元的今天,千篇一律的算法运算程序得出的结果难以完全符合消费者的预期。

二、消费者主体性地位保障的制度困境

随着《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》(简称《网络安全法》《个人信息保护法》《数据安全法》)的相继出台,我国在算法治理层面取得了里程碑式的进步。与此同时,《中华人民共和国消费者权益保护法》和《中华人民共和国电子商务法》(简称《消费者权益保护法》《电子商务法》)也正努力适应线上交易所带来的变化和挑战。但令人遗憾的是,我国对算法自动化决策的治理还处于起步阶段,现行治理体系仍不足以维护消费者在线上交易活动中的主体性地位,数据利用和数据保护之间的矛盾使得立法者在制定规范制度时进退维谷,相应配套措施的缺位更使得消费者的维权之路举步维艰。

(一)平台的治理功能定位不清

《网络安全法》第21 条及《数据安全法》第27 条至30 条要求经营者扮演数据安全管理者、算法正义维护者、数据风险评估者、数据风险监测者等多重角色;《网络安全法》第28 条还要求平台应当协助支持国安部门和公安部门开展工作。在加盐诉悠久公司一案①参见(2021)粤73民终5651号判决书。中,法院要求平台采取预防侵权的必要措施;(2020)浙0192 民初3081号判决更是要求平台应当保证算法的可解释性和正当性。就目前的规定来看,我国对平台治理功能给予了厚望,立法者倾向于将平台作为算法治理的主力军和先锋队,要求其保障算法自动化准备阶段、决策过程乃至决策结果的正当性。但须知平台本身依靠算法营利,平台的算法治理与平台的营利目标存在一定的冲突。在激励措施缺位的情况下,平台自身未必有主动实施算法治理行为的意愿。同时,过于沉重的治理责任既可能影响平台的正常运营,也可能会诱发造假现象,影响平台算法治理行为的有效性。此外,算法治理是一个多元性、综合性命题,这一过程离不开公权力主体的介入。既然如此,平台应当在哪些领域以何种方式为公权力主体的算法治理行为提供支持,有待进一步确定。

(二)治理规则之间联系松散

目前我国对消费者主体性地位的保护未能打破部门法之间的壁垒,数据安全保障和消费者权益保护之间存在一定的割裂。例如,在《数据安全法》《网络安全法》中均未有专门条款陈述数据安全与消费者权益保护之间的关系;《消费者权益保护法》既未陈述利用算法侵害消费者权益的表现形式,也没有阐明经营者在算法治理中的角色和义务。然而,消费者保护和数据安全保障这两条路径之间绝非泾渭分明,互不干涉。算法时代的交易大多是沿着“数据收集—数据分析—结果输出—消费者选择商品—交易完成”这样的流程推进的。要想避免算法自动化决策对消费者主体性地位的侵害,就要将抽象的数据安全具体化,从消费者知情权、公平交易权、自主选择权的角度评估数据处理过程给消费者权益带来的影响。此外,唯有保障数据处理活动的合法性,才能真正破除数据垄断,维护消费者在交易中的能动性,保障经营者与消费者的平等地位。联系松散的治理规则不仅不能有效保护消费者,还加大了法律适用的难度。消费者在具体诉讼中难以找到逻辑严密而有说服力的请求权基础,法院裁判说理的工作量也大幅增加。

(三)告知—同意规则存在缺陷

消费者的消费信息收集是算法自动化决策的起点。因此,《个人信息保护法》尝试通过“告知—同意”这一信息采集原则从源头保障算法自动化决策的正当性。但令人遗憾的是,告知—同意规则尚未赋予消费者控制算法自动化决策启动节点与方式的能力。网站在设计上往往诱使用户直接点击同意,而不去阅读具体条款[8]。另外,现行的告知—同意原则并未有效提高消费者的理解能力和技术能力,大多数消费者仍然难以掌控算法自动化决策的运行过程。消费者不知道算法自动化决策何时开始、何时终结,即便经营者违规开启自动化决策,消费者也未必能及时做出反应。最为关键的是,告知—同意机制无法应对数据处理的多层次性与动态性。消费者个人数据的流通过程较为复杂,数据处理主体和数据处理方式具有高度不确定性。要求数据处理者一次性取得消费者的概然性同意有违公平,但分别多次向消费者征求同意又难免脱离实际。更为重要的是,无限制地扩大告知义务范围可能导致交易成本的边际递增,不符合经营者和消费者的利益需求。[9]为弥补告知—同意原则的缺陷,有学者提出与“普遍免费”模式并行的“普遍免费+个别付费”双重模式[10],用金钱支付代替数据支付,但这种做法很容易导致算法权利的进一步扩张。掌握算法的主体可以利用收费权限强迫消费者支付额外费用,长此以往可能会形成新的灰色利益链条。最为关键的是,鉴于算法的技术性,支付对价的消费者根本不确定自己支付的金钱是否真的足以保障自己的信息安全。

(四)司法救济规则过于笼统

1.责任承担规则模棱两可

立法的确要为日新月异的算法技术预留一定的空间,但模棱两可的责任承担规则无法为经营者和算法设计者提供有效的行为准则和裁判规范。目前我国有关线上消费者的保障性条款多为不完全条款,针对线上消费者权益保护的法律解释尚未出台。《网络安全法》第10 条和第25 条、《数据安全法》第27 条、《电子商务法》第38 条均提到,不“依法”、不“及时”采取“必要的措施”的主体需要承担责任。既然如此,“必要的措施”的认定标准是什么?及时处理与不及时处理的时间分界线是什么?这些认定标准是否会因责任主体的变化而不同?另外,从《数据安全法》第52 条和《网络安全法》第74 条的规定来看,我国在网络安全、数据治理领域已经确定了民事、行政、刑事三重责任并立的形式。不过,从条文所占篇幅上看,三类责任的规定并不均衡,比如《数据安全法》第六章“法律责任”中,有5 条都规定了罚款和警告、吊销营业执照等行政法责任形式,民事责任和刑事责任的规定则有待完善。特别值得注意的是,不同的法律法规之间的立法宗旨、具体规定和解释规则上有时存在冲突,所谓“依法”遵循的到底是哪些法律,值得进一步说明。在确定依据的法律关系以后,如何协调不同法律规范的分歧,值得进一步探究。

2.公私法救济路径衔接不当

同用户相比,平台具有技术和资源上的绝对优势,在平台与消费者发生纠纷时,传统私法救济机制的功能难以完全发挥。[11]即便在已经采用过错推定的个人信息领域,平台仍可以通过证明自己无过错,轻易逃避承担责任,其大可将消费者主体性受抑制的问题归咎于消费者自身的惰性。而囿于技术原因和信息不对称,消费者在举证时难以还原自身主体性地位被剥夺的具体过程。在私权保护的基础受到动摇的情况下,行政规制路径日益走入人们的视野。[12]131行政机关可基于对风险的自主研判而及时启动相应程序。[12]139然而不同于私法救济以恢复权利原状为旨[13],公法救济更倾向于对社会秩序和公共安全的保护。[14]不同的立法宗旨决定了不同的适用范围,但令人惋惜的是,目前有关立法文件尚未阐明两种救济路径各自适用的范围及相互关系,如何实现上述两种救济路径的融合和互补是完善当下救济框架急需回答的问题。

三、消费者主体性地位保障的制度完善

维护消费者的主体性地位不仅是维护消费者经济利益的关键举措,更是信息化时代下保障个人人格充分自我确定和自我开展的重要内容。[15]消费者主体性地位的下降根源于算法侵占了消费者的决策空间,唯有以保留消费者意思自治能力和意思自治空间为出发点,弥补现行算法治理体系的漏洞,才能减缓算法自动化决策对消费者主观能动性的侵蚀。

(一)精准定位平台的法律角色

平台掌握算法设计的一手资料,其可以在技术人员的辅助下对算法运行的原理进行说明。在这一过程中,平台只需要按照相应文件的要求对有关技术性问题做出解释即可,原则上不需要专门对算法自动化决策的正当性问题做出回应。事实上,即便平台对算法自动化决策程序的正当性进行审查和评估,其强烈的主观色彩也使得评估结果的可信度大打折扣。除此之外,平台还是公权力主体进行算法治理活动的辅助人,必须如实协助公权力监管主体进行调查取证。平台应当做好相关文件和交易记录的保存工作,不得随意更改、删除、伪造有关数据。为保证平台所提供数据的真实性、准确性,第三方中立主体应当介入平台数据的日常监测活动,分担平台的监测工作,并监督平台的数据管理行为。一言以蔽之,要求平台成为算法正当性保证人的预设未免脱离实际,平台在算法自动化决策过程中实际上扮演着“有限度的维护者”这一法律角色。平台可以在不影响营利目标实现的基础上为算法自动化决策的治理提供技术支持和证据支持。公权力主体、中立第三方数据管理机构和网络自治机构才是算法自动化决策治理活动的中坚力量。

(二)增强治理规则的体系化建设

增强治理规则之间的联系既可以简便法律适用,又可以推进算法治理体系的最终形成。应当尽快消弭数据保护和消费者权益保护之间的界限,扩张消费者的权利版图,将对算法自动化决策的规制融入到经营者的义务规定中。在制度设计层面,立法者应当尽快为消费者构建针对算法权利的请求权基础。具体而言,一方面,立法者应当扩大消费者知情权的范畴,将算法运行原理和算法自动化推荐依据纳入消费者知情权的内容。另一方面,应当丰富消费者选择权的内容。有关部门应当加强立法解释,将利用算法优势干预消费者自主选择权的具体方式类型化,为网络经营者的运营行为和消费者的维权行为提供指导。特别值得说明的是,平台既可以要求第三方计算机公司设计算法程序,也可以通过内部技术研发部门自行设计算法。但无论哪种情况,平台都是算法的真正掌控者,因为即便平台不亲自参与算法设计,其也能够对算法设计结果产生决定性影响。但在第二种情况下,鉴于平台和算法设计者双方在行为上的高度协同性,可以要求两者共同承担连带责任。

(三)为消费者预留充足的选择空间

告知—同意原则不能直接拓宽消费者的信息来源渠道和接触到的信息种类。要想维护消费者在线上交易中的主体性地位,在平台经营规则的制定上,应当为消费者预留更大的选择空间。首先,平台应当为消费者提供多种推荐机制,允许消费者根据自己的喜好选择推荐的产品。其次,不得为消费者变更推荐机制设置障碍,必须以显著位置列明信息推荐模式的转换渠道,并简化消费者的操作步骤。再次,在规制算法自动化决策侵权行为时应当尊重消费者的真实意愿,允许消费者在法律范围内选择责任主体和责任承担方式。比如允许消费者在平台、平台内经营者之间自主选择索赔对象,或者赋予消费者选择终止交易、变更合同内容的权利,等等。最后,确保消费者选择目的的实现。一方面,市场监督管理部门应当定期审查平台内经营者的交易记录,防止平台内经营者伪造成交量或是虚报商品价格从而影响推荐结果;另一方面,平台要允许消费者修改、补正个人信息,以保障推荐结果的准确性。

(四)完善现有司法救济的制度框架

1.明确责任承担规则

在现阶段要注重对立法规则的解释工作,以详细周密的制度安排取代笼统的原则性规定。具体而言,立法者应当确立责任承担的前提条件,在此基础上明确责任主体的具体范围和责任减轻事由。比如在(2020)浙0192 民初2295 号判决中,法院将提供个性化反馈途径认定为一项责任减免事由。另一方面,尽量避免不确定的责任形式和不确定责任份额。另外,在明确责任承担规则的过程中,还应当重视行业自治规范的指引功能。同法律规范文件相比,行业自治规范文件在专业性和详细程度上都要更胜一筹。其可以为“必要的措施”和“及时”等条件提供一个兼顾技术专业性和社会公信力的认定标准,避免事实判断过程对司法资源的过度消耗。最后,应当充分借助《中华人民共和国民法典》《中华人民共和国行政处罚法》《中华人民共和国行政强制法》中对责任承担形式的有关规定,以之作为辅助性裁判依据,比如《中华人民共和国民法典》中关于帮助侵权的规定和连带责任的构成要件等。

2.协调公私法救济路径

协调公、私法救济路径主要包括两方面内容。一方面是要降低消费者的诉讼难度,充分发挥私法救济的功能。尽管行政机关与相关领域的专家联系更加紧密[16],但消费者能够提供更多更详细的交易证据,同时也最清楚自身权益的变动情况。因此,消费者的私法救济在算法自动化决策规制中的地位不容轻视。我国实务界已经注意到消费者诉讼能力有限的问题,在“庞某与北京趣拿信息技术有限公司隐私权纠纷案”①参见(2017)京010民终509号判决书。和申某与支付宝(中国)网络技术有限公司寻求私法救济的案件②参见(2018)京0105民初36658号判决书。中,法院通过强调自由心证的作用,适度降低证明标准[12]133,只要按照一般理性人的观点,算法运营机制足以干扰消费者的信息接收和决策过程,法官即可认定存在压制消费者主体性的行为。另一方面,应当增加衔接性制度的供给,构建公、私法救济两者之间的转化机制。行政监管和私法救济之间存在相互转化的关系,影响力较大的个人诉讼可能会促使行政监管措施启动,行政监管中发现的违规问题也可能会引发集体诉讼。在行政监管措施启动后,只有能够证明自己人身财产权利确实因违规的算法自动化决策活动遭受损害的特定消费者才能申请私法救济。在消费者提起私人救济请求后,在有证据表明经营者的算法自动化决策行为可能干预不特定消费者的自主选择权和公平交易权的情况下,有关部门才能启动行政监管程序。而在证据制度上,消费者提供的证据和行政机关在监管过程中收集的证据可以相互补强,共同作为认定算法自动化决策行为违法性的判断证据。在时效制度上,私法救济过程中,行政监管的开启可以作为中止的事由,进一步提升消费者的诉讼能力。

结 语

算法丰富了现有法律关系的内容,如何避免算法权利的过度扩张,实现人与机器和谐共存,是数据时代法治的新兴课题。与此同时,算法加剧了原有交易关系中经营者与消费者的力量差距,对算法的规制也是对经营者线上行为的规制。在制度供给上,一方面要尽可能明确各方主体权利义务,将对算法设计者和经营者的监督管理落到实处;另一方面要为消费者提供便捷高效的救济路径,防止消费者求助无门。值得一提的是,单纯依靠法律制度还不足以引领算法技术沿法制轨道发展,科学技术也在其中发挥着至关重要的作用。如何实现技术和法律的良性互动,营造技术进步和法律完善相互促进的良好局面,待理论界和实务界进一步探究。

猜你喜欢

救济经营者决策
明清珠江三角洲基塘区的田场与经营者
为可持续决策提供依据
《经营者》征稿启事
决策为什么失误了
不当解雇之复职救济制度的反思与完善
关系救济
做一名聪明的集团医院经营者
论私力救济
28
国有上市公司经营者薪酬激励模式研究