论人工智能时代算法的法律规制*
2022-02-04唐亦可
唐亦可
(中南大学法学院,湖南 长沙 410083)
一、问题的提出
与当初大众美好的展望有所出入,如今的互联网产业不论是以自由主义为起跑线,还是以管制主义为锚点,都走向了蚕食用户价值、摆布用户思想的集权主义,商业帝国越来越不止是一个形容词,更像是互联网巨头公司的忠实写照。倏忽之间,人们的日常生活已经与各类软件紧密捆绑在一起,我们的隐私信息被肆意搜刮,成为价格歧视、精准营销甚至诈骗等行为的养料。这场从网络到现实的侵略中,算法是企业掠夺用户价值的关键武器,且逐步脱离了纯粹的工具角色,演化为无所不包、无处不在的新型社会权力。
算法嵌入旧社会秩序、塑造新型社会秩序的进程越来越快,以往技术革命的历史经验证明,个人拒绝算法应用不可能成为普遍选择。算法与社会秩序彼此间的联系在逐步加深,朝着算法网络的方向发展。对一个算法应用的接纳或拒绝意味着对更多其他算法应用的接纳或拒绝,随之而来的连锁反应往往超出预期。总而言之,个人欲摆脱算法展开社会活动,几乎是不可能的。
然而,知情同意原则已经基本处于架空状态,要求个人具备阅读理解平台服务协议的时间和能力,是不现实也不合理的。个人敏感数据的划分与脱敏,因为数据库具备交叉对比信息从而复原敏感信息的技术分析能力,已经失去了使我们绝对匿名的可能性。数据法提供的权利及救济的客体限于个人与公共的数据,不涉及直接对抗算法。个人面临着既无法回避算法社会秩序,又无力充分举证推翻算法决策的困境。
旧有社会秩序在算法“技术理性”的背书下,质疑和矫正的通道日渐缩窄。算法塑造的新型社会秩序则一面享受着自由市场的福利,一面游离在市场竞争原则和规则的边缘。排名类平台如大众点评直接导致了市场竞争焦点和商业运营模式的转变,雇水军刷好评等迎合新秩序的行为,早已成为公开的商业模式。算法直接变为行为规范,影响甚至控制个体的行为(1)张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019,(4).,超级平台的用户数量和覆盖面决定了其拟制的规则可以在短时间内改变甚至颠覆原有的社会秩序,政府若听凭影响力极大的开发商和运营商任意变更算法,或者放任算法自我更迭,不及时跟进其变化情况,适时干预,会伏下社会动荡的风险。
鉴于当前算法是互联网企业的核心竞争力,也具备作为法律权利客体保护的条件,需要提出合适的规制措施,治理企业以私权保护作掩护谋取实质性权力的乱象,同时警惕算法渗入公权力体制后反客为主的风险。本文从算法规制的必要性出发,探讨符合产业发展与法律实践的规制原则与规制措施,试图解答这一问题。
二、规制之需:算法规制的必要性
(一)算法的性质:从辅助工具到新型权力
从广义上来说,任何一个完成特定事务的流程都可以称作算法。算法的本质是将意欲解决问题的具体操作步骤以某种形式固定下来,能否真正解决问题则在所不论。从狭义上来说,今日所言算法指的是一种计算机软件技术规则,是为了完成某项任务设计的数字化流程,通过路径和机制的设定,运算出相应结果(2)顾伟,郭弘,陈朝铭.人工智能算法的法律审视及规制[C].《上海法学研究》集刊,2021,(5):9.。虚拟空间内一切数据的处理,网络主体身份的识别、分类、认证和评分等操作,平台及其运行规则的建构均依赖算法设计实现,遵循算法预定逻辑。可以说,算法就是网络世界的自然规律。
算法的起点定位是作为人类计算的辅助工具。在此须将算法和纯粹的数学计算方法区别开来,二者的关系存在着从基本重合到分道扬镳的变化。在计算机技术发展初期,计算机的发明初衷和主要功能是代替人类进行大体量数学运算,缩短计算时间,提高计算效率。该阶段的算法等同于数学计算方法,与加减乘除规则没有根本区别。产生错误运算结果的原因或是计算机设备故障,或是计算规则——即当时的算法本身尚有纰漏,而后者理论上应当是客观真理,人类可以通过分析错误结果,回溯运算环节,修正、完善既有算法,也可以依据在先的理想规则来检验计算机运算结果的正确与否。
因此,作为辅助工具的算法主要有如下两个特点:第一,工作环节由人类预先设计拟制,是对计算机下达的机械化执行指令,其逻辑可回译为人类能够理解的形式。第二,工作成果由人类评价、选用,具有可检验性。是服务于更大目标的阶段性任务,属于最终决策的参考而非最终决策本身。
此后很长一段时间里,尽管计算机从机构走入家庭,又从书桌落入口袋,算法的长度和复杂度不断增加,但上述两个特点并没有改变。以购物平台为例,商品分类、展示界面、付款手续等均由平台方事前设计成型,商品成交量、用户点击率等数据则交由平台方分析,用于制定和调整运营方案。
直到算法权力的出现,算法开始超越辅助工具的范畴。算法以新型社会权力的角色登场得益于两个因素:一方面,因为体积缩小、价格低廉,移动电子设备日益普及,加之基础通信设施工程广泛布局,大规模、多场景、全时段、高效率的数据采集成为可能乃至常态;另一方面,计算机算力突飞猛进的发展,实现了对前述海量数据的整理与分析。在二者的配合下,此前早已存在的传统算法模型因为训练数据的量变而达到质变,不仅预测精确度大幅提升,对数据中潜在规律的挖掘能力也显著增强,算法技术跃升成为人工智能应用的核心技术。同时,伴随着网络平台业务范围持续扩大,算法的介入不只局限于内容发放、工作聘雇、交友婚配、购物推荐等商业领域,还扩张到了刑事司法、智慧城市、智慧政府、智慧医疗等公共领域,前所未有地深入人民的安全、民主、自由各个方面。
然而,仅仅是影响力的迅速膨胀,尚不足以驱动算法产生从工具到权力的转变。算法从工具演变为权力的制度因素有二:第一,外在来源。垄断性平台和政府对算法的利用,即权力是外部机构赋予的。相关单位和机关对算法判断的信任与采用,使算法拥有了拟制决策、直接决策的权力。相较于传统公权力而言,算法权力不是主权赋予而是经由垄断产生的,其实然状态先于应然状态出现。第二,内在属性。算法本身是权利客体,法权设置使其具有了权力性质。
权力形态的算法与工具形态的算法的区别主要在于:
1.可理解性下降。算法的核心代码不再全部由人类编写,而是基础算法模型通过机器学习方式对自身关键参数或代码进行调整后最终成型。传统的劳动密集型人工智能方法是基于编写不同的复杂计算机程序来解决问题,相比之下,机器学习是数据密集型的,通过实例学习来解决问题。无论是监督学习、半监督学习还是非监督学习,算法在训练数据中发掘的人类社会、生理、心理等方面的相关性规律,往往超出人类的经验认知范围。
2.运算结果的功能发生改变,从决策依据发展成为决策本身。以个性推荐算法为例,推送哪些信息内容、如何排列布署各类信息的工作直接由个性推荐算法根据点击率、停留时长等数据来完成。
(二)算法规制的性质:权利限制与权力控制
目前,大面积应用和部署的算法主要由私企开发、维护,而计算机编程语言的不断拓展、算法应用场景的持续丰富、第三方库的广泛应用和开源代码的不断增长,使算法研发呈现分散化、多样化、便捷化的特征:不具备商业资质的民事主体能够向全网提供算法应用或者源代码(3)苏宇.算法规制的谱系[J].中国法学,2020,(3):165-184.。潜在算法权力主体的不确定性决定了算法正处于由纯粹的技术产品向绝对的社会制度转变的角色过渡阶段,既是一种私权利客体,也是一种新型公共权力形态。根据影响力来源的不同,算法权力可以分为两种,一种是与行政司法工作内容紧密结合而形成的,一种是在商业领域背靠用户流量和数据野蛮生长而形成的(4)蔡星月.算法决策权的异化及其矫正[J].政法论坛,2021,39(5):25-37.。随着时间推移,后者的诸多类型要么会被收编入前者行列,要么将受到严格的制度化管控。算法权力会否完全替代传统公权力尚未可知,但算法必将在一段时间里保持权利和权力并存的双重属性状态。
一直以来,算法作为商业秘密受到保护,要达到算法公开、算法问责等治理要求,必须处理好这二者的关系(5)李晓辉.算法商业秘密与算法正义[J].比较法研究,2021,(3):105-121.。2020年8月《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》将算法列入了技术信息范畴,使其正式成为我国商业秘密法所保护的对象。算法商业秘密保护的内容主要是源代码,以及与源代码相关的文档,如目标代码和关键的数据库。保护途径主要有三种:第一,合同模式。《劳动合同法》第23条、第24条规定用人单位可通过签订保密协议、竞业禁止协议,为相对人设立保密义务。第二,后合同义务模式。《民法典》第558条规定,债权债务终止后,当事人应当遵循诚实信用原则,根据交易习惯履行通知、协助、保密、旧物回收等义务。第三,反不正当竞争法规制模式。《反不正当竞争法》第9条规定了商业秘密的要件、列举了侵害商业秘密的行为类型,第32条规定了商业秘密侵权纠纷中的举证责任。要突破商业秘密这一制度性因素实现算法透明和可解释性,首先要分析清楚突破的合理性之所在,其次才能谈具体方法。
因此算法规制体现在两个方面,一方面是对算法权力的控制,另一方面是对算法私权的限制,如何在遏制算法滥用、预防算法侵权与保护算法私权之间取得平衡,就成为算法规制实施的关键。
三、规制之理:算法规制的基本原则
(一)保障人权原则
随着时代的变迁,人权属性已经不再仅仅依赖于人的生物属性和物理空间,它在很大程度上也要依赖于人的信息属性和虚拟空间(6)马长山.智慧社会背景下的“第四代人权”及其保障[J].中国法学,2019,(5):5-24.。算法对于公民基本权利的威胁存在于其架构到运营的每个领域、每个环节。
就预测型算法而言,其名称和效果使人产生直觉上的误会,将运作过程简化理解为基于某个特定个体过去的行为,推导这一特定个体未来的行为,忽视了其原理实际是:根据特定个体a的某些行为特征,将其划入群体A,输入a在时间点m的行为x,转化为A在时间点m前的类似行为X,将算法认为与X成相关关系的行为Y,作为a在未来时间点n的行为预测y输出。从实践效果来看,这个推理无疑可以通过不断优化提高精确度,但许多值得推敲和质疑的地方应该留下审查和申诉的余地。比如,X与x、Y与y的替换必须忽视时间点的差别,抹去了可能随着时间而改变了的环境因素。看似量身分析的计算,恰恰是非个性化的过程。全球化引起了空间维度的坍塌,预测型算法触发了时间维度的消弭。将一个主体过去的行为视作未来的行为,将符合某一群体特征的人完全当作该群体曾经的成员对待,预测型算法应用于个性推荐,负面结果是形成信息茧房,侵蚀公民的自主权,乃至禁锢公民的自由发展;应用于评分系统,负面结果是制造、输送、传播社会偏见的“证据”,从而强化偏见,将隐性歧视正当化。
调度型算法对公民基本权利底线的试探则突出体现在劳动者权益领域。以基础服务业中的便利店为例,企业管理层可以通过实时监控分析顾客流量,并将天气、交通状况等因素对人流量的影响纳入计算,随时调整人力配置,更改员工的工作时间和工作任务,使之匹配不断波动的业务需求。劳动者受制于算法的调度,被迫成为全天候待命的工具,表面上按劳动量或劳动时长发放的薪水,遮蔽了因实时调度而省下的成本进入资本家口袋的真相,这部分增长的利润,是以劳动者主体性的丧失和在劳动权益上的让步作为代价换取的。典型的调度型算法要求劳动力是“弹性”的,然而在实践中,为了将“弹性的劳动力”假设付诸实施,反而得剥夺其对象的灵活性和活动性。为了达到算法规则中的“弹性”,劳动者必须召之即来、挥之即去,其处境在短期和长期上都处于无弹性的僵化状态,即在短期上无法掌控自己的行动,自主权形同虚设,因此无法计划和实现提升自我等长期目标。这类模型的首要甚至唯一目的是服务于企业的经济利益,衡量其正确性的标准是盈利,罔顾劳动者的基本权利根本是本质之一。
社会制度的目的应当是改善整体社会成员的生存生活环境,并保持对个体权益的平等关注。算法在诞生之初并没有被视作一项社会制度,与服务目的无关的负面影响没有得到充分考量,技术上的惊艳掩盖了价值观上的欠缺。因此,在算法技术不断迭代的情势之下,规制的初心应当回到保障公民基本权利中来。具体而言,前期设计阶段训练数据与后期使用阶段反馈数据的采集可能涉及对个人隐私的侵犯,应结合数据安全法和个人信息法设置对算法开发期间的监管措施;智能政府系统和智能司法系统可能剥夺公民享有的正当程序权利,应拓展传统行政法及其诉讼法原则在算法时代的内涵;金融、保险等行业可能利用算法将本应由商家承担的风险转嫁给无议价能力的消费者,用人单位和公司采用调度型算法安排员工的工作与休息时间则可能损害劳动者权益,应及时查处这类权利义务不对等的算法。最后,须关注算法在宏观上对人的尊严、平等、自由等价值是否有所贬抑,保障人权原则纳入新闻、娱乐、社交等媒体平台算法系统的监管思想之中。
(二)正当程序原则
出于优化公共服务、提高政府效率等目的,公共管理部门越来越多地开始对旧有的数据分析形式进行改革,如数字服务转型、综合数据基础设施。部分行政管理工作内在的分类、量化逻辑和算法的本质一拍即合,但部分行政工作本身是和自动化决策相抵触的(7)王怀勇,邓若翰.算法行政:现实挑战与法律应对[J].行政法学研究,2021.,却遭到了默认的忽视。数字化标准大有延伸到管理实践方方面面的趋势,算法在公共权力领域的渗透,决定了算法透明原则是正当程序原则在算法时代的必然发展。人们若不能对公共决策过程,尤其是涉及自身具体权益的决策进行有效地讨论、审查和监督,政府公信力就会受损。
在2016年的Loomis案中,COMPAS是一款旨在评估再犯风险的算法系统,由一家私人企业“Northpointe”研发,法庭量刑以其评估报告为部分参考。Loomis在减刑请求中称法院前述行为侵犯了他的正当程序权利,因为该报告仅提供了评估结果,评估方式即算法则被作为商业秘密不予公开。终审法院维持了原判,仅提出Loomis可以对该报告采集的全部信息——即输入数据——表示异议。法院这一坚定维护该算法秘密性的态度,引发了众多学者的口诛笔伐。
在算法深度参与政务系统、司法系统等机构的决策,甚至直接代替政府机构作出决策时,不应被排除在正当程序原则覆盖范围之外。政府的具体行政行为和抽象行政行为是否有算法的参与,参与程度的高低,都应纳入政府信息公开的范围。公民有权知晓算法参与行政工作的情况,有权监督和建议调整算法参与行政行为的方式,正如公民有权溯源政府的决策人员、决策程序和各类条例的起草与施行。拒绝公开算法对公务的介入情况,无疑会消耗人民长期以来对政府的信任。当然,公开对象、公开内容、公开方式、公开时长等细节的确定需要考量与算法商业秘密保护和算法辅助效果的平衡,比如抽象行政行为里算法公开应面向其规范范围内的所有公民、法人和其他组织,而具体行政行为里算法公开应面向特定的公民、法人和其他组织,配置相应的算法解释请求权制度。一刀切的公开未必能使行政行为相对人获取有效信息,还有可能对算法辅助效果产生负面影响,也不利于维护政府公信。
(三)多方监管原则
算法技术监管的目标有二,首先是确保算法逻辑和实践合法合规,其次是通过监管,促进算法的完善和提升。如果监管者无法进入算法内部进行审查,就无法了解造成危害后果的技术原因,难以提出切实有效的算法整改方案,只能在结果端予以形式上的审查,难以对平台起到实质性的内部规制作用(8)崔聪聪,许智鑫.机器学习算法的法律规制[J].上海交通大学学报(哲学社会科学版),2020,28(2).。因此,在已经得到广泛讨论的建立第三方监管机构和政府监管机构的基础上,还应重视个人用户监管的途径和方法,因为个人用户能通过自下而上的视角,提供在宏观层面和惯性思维下难以察觉的算法逻辑漏洞、道德风险。
算法自我更新升级的依据是运行过程中用户反馈。但此反馈非彼反馈,指的是用户的操作而非用户的意图。诚然,意图与操作绝大部分时候是连贯的,但算法应用面向的用户基数一般较大,百分比数低不等于实际数目低,意图与操作出现参差甚至南辕北辙的情况并不在少数。意图与操作产生隔阂的原因大致可分为两类,一是用户在算法提供的有限选项中,无法找到符合自身情况的描述,被迫勾选了不真实的选项而进行了有违本意的操作,或者用户不在意算法的信息采集,随意或故意填选了与真实情况有所出入的选项,不慎进行了有违本意的操作;二是算法对用户正确报录信息解读出现差错,这种差错一般反映出算法系统的原始纰漏。
不论是哪种原因引起了算法对用户操作的误读,如果没有独立于算法外部的渠道用于收集用户使用体验的反馈和建议,这些误读极可能湮灭在海量的“正反馈”中。算法的误读不仅对被误读用户权益造成直接的损害,对其他用户也构成潜在的威胁。因此,任何应用算法的平台或机构都需要向用户公开必要的逻辑,允许用户查询算法在微观层面是如何影响自己,设立认真对待用户意见的专门渠道,保证关于算法运用过程中得到妥善处理。此外,应积极鼓励用户群体自发建立类似妇联或工会的团体,对算法应用进行讨论,整理算法运行过程中的不当倾向等,以供第三方和政府监管机构从专业角度对该算法有的放矢地查漏补缺。
(四)有限披露原则
上述三项算法规制的基本原则,均以对算法内容的了解和分析为行动基础。但是,对内容和受众不加区分的全面披露,并不是最佳选择。理由如下:
第一,全面披露会损害更大的利益。当被监管的算法涉及国防安全时,比如机场和车站的智能侦察系统,其关键技术人脸识别算法,就绝对不宜全面披露,理由无需赘述。金融和医疗方面的算法,微观上对个人敏感数据的披露易涉嫌侵犯隐私,宏观上对大数据的披露也事关国家安全,一味追求大范围共享可谓舍本逐末。在这些情况下,全面披露算法内容的收益相对其损失来说,不具有价值位阶的优越性。有限披露才能最大程度地平衡披露算法程序正义和保密算法的实质正义。
第二,全面披露可能阻碍算法实现预期效果。例如银行可能会在贷款申报表中,寻找与之前拖欠贷款者的申报表高度相关的隐性特征,这些特征是机器学习深度挖掘的结果,并不是人们能根据常识推论出来的。如果全面公布批准贷款的规则,公众确切知道申报表中的哪些内容将导致自己被视为高风险申报人,那么,预谋实施贷款欺诈的不法分子可能会据此调整其行为,随后,这些特征也可能会失去其预测价值。在谷歌公开PageRank算法后,很多网站有针对性地嵌入迎合该算法的网页。于是,一些与用户搜索内容关联性不强或者完全没有关联的网页出现在谷歌搜索结果中。出于防止这类投机行为的考虑,谷歌已在逐年淡化PageRank的概念,停止更新其算法和结果。如今谷歌采用建立在PageRank基础上综合搜索算法,维持了搜索算法的秘密性,以求保证其核心功能不受影响。
第三,全面披露不利于算法市场的竞争秩序,不利于算法技术的进步发展。目前算法市场上以目标代码为主要交易对象,如若公开算法源代码,剽窃算法的行为将难以追责。因为源代码可以编译为多种目标代码,而目标代码回译为源代码难度极高。至于通过观察业务范围往往重合的平台外部表现,推断其是否使用了同一种算法,几近于天方夜谭。发现不了盗用行为,追责乏力,则势必导致盗用高价值算法信息的行为增多。即使政府对公开的算法进行补贴,通常也无法覆盖其合理保密状态下的商业利润。长此以往,企业对算法开发无疑会持观望甚至负面态度,在创新算法方面的经济支持、技术投入将呈现保守趋势。
综上,到位的有限披露较之简单的全面披露更有利于平衡各类公共利益、实现算法本职功能、维护算法市场秩序和促进技术不断发展。算法披露应坚持有限披露原则,细分披露的目标、场景、受众和时段,杜绝为了披露而披露的形式主义。
四、规制之策:算法规制的具体机制
(一)披露机制
在《个人信息保护法》《数据安全法》以及《互联网信息服务算法推荐管理规定》(以下简称《算法管理规定》)中,间接或直接地对算法披露作了相关规定,但尚待细化。以非必要不公开为指导,算法披露的内容、方式和前提,取决于披露面向的对象。一般可分为三种:
1.面向个人用户的披露
《个人信息保护法》第44条确认了个人对其个人信息处理活动的知情权。其所言“知情权”的知情内容应以该法第7条中要求个人信息处理者公开的“处理的目的、方式和范围”为限,且不需要以其他个人权利受到实际影响为前提。第48条赋予了个人用户算法解释权。个人用户一般不具备理解代码的能力,此种情况下披露代码的实际意义有限,却会增加算法泄露的风险,向个人披露的算法规则是否与实际运行的代码相吻合,交由监管机构核实更为合理(9)解正山.算法决策规制:以算法“解释权”为中心[J].现代法学,2020,42(1).,因此披露内容不需要包括源代码、目标代码等机密信息。考虑到个人用户随时可以行使该项权利,可能存在大量重复提问,应允许运营方以非人工方式进行自动化回复,保留人工解释渠道处理特殊情况即可。《算法管理规定》第17条第3款规定了算法推荐服务提供者给用户权益造成重大影响时的说明解释等责任,这是在第16条规定了对所有用户提供系统性解释义务的基础上,进一步规定的事后个案解释义务,不能否定前述的事先披露义务。
2.面向政府或第三方监管机构的披露
这类披露的核心目标在于对算法实行评估、管理,因此务必公布所有关键信息(10)魏远山.算法透明的迷失与回归:功能定位与实现路径[J].北方法学,2021,15(1).。《个人信息保护法》第58条针对“提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者”,要求其成立独立监管机构。遗憾的是,在披露时间上,该法第55条仅规定了事前评估。现今算法的特点之一是根据源源不断的新数据自我更新,应以事前披露和事中披露并重,要求算法投入运用前备案,经历重要迭代后及时更新备案信息(11)张恩典.算法影响评估制度的反思与建构[J].电子政务,2021,(11).,同时辅以抽查方式,检验实际运行情况与备案是否相符。《算法管理规定》第8条提到了算法推荐服务提供者定期审评自身算法,但这类自我管理机制的落实情况合理存疑。该法第四章、第五章分别就算法推荐服务提供者的监督管理和法律责任作出了详细的规定,但是这些规则的适用前提是规制对象“具有舆论属性或者社会动员能力”,在第23条所言“算法分级分类安全管理制度”未明晰之前,该如何作此判断呢?另外,互联网企业的崛起速度惊人,将中小型平台排除在监管制度之外是否合适尚值得商榷。
3.面向公众或其他特定人员的披露
《个人信息保护法》第58条第4款规定了某些个人信息处理者定期发布责任报告的义务。《算法管理规定》第16条也规定了算法推荐服务提供者以适当方式公示算法推荐服务的义务。个人的能力有限,注意力也通常局限在自身,仅以个人为权利主体的算法解释权、算法应用拒绝权等权利束不足以聚焦波及大众或某些特殊群体的算法隐性歧视,无法应对算法应用的集体性、累积性风险。若该类风险要等个人用户的具体情况得到体现并形成一定体量才能通过个人算法权利的伸张来引起大范围关注和管控,则严重违背了算法治理的应有之义。向公众公布算法是合理且必须的预警机制,既是借助群众的敏锐以补充监管机构的力有不逮之处,也是对人民基本权利的尊重和保障。
(二)保密机制
1.普及保密协议,明确违约泄密责任
首先,对监管机构的工作人员要加强职业培训,除入职离职前,在职期间也要进行定期培训,提高保密意识。相比普通民众和行政人员,技术人员在履行职责的过程中接触到的算法秘密信息量大,自身理解能力强,建议在其工作流程中拆分信息披露环节,根据不同的步骤签订相应的保密协议。《数据安全法》第38条提到了国家机关工作人员在这方面的保密义务,第三方机构的人员流动相比政府更加频繁,应参照签订与国家机关工作人员类似或者更为严格的保密协议。《算法管理规定》第29条规定,算法监管相关机构和人员的保密义务,但在第五章“法律责任”仅拟制了机构和单位的责任,没有针对工作人员的个人责任。其次,申请算法解释的个人应在算法披露前签订保密协议,即使拒不签订,若有故意泄露算法信息的行为,也应推定为负有附随义务,情节严重者应及时追究刑事责任。这不仅是保护企业的商业秘密,也是意在防止引发其他安全危机。
2.细化竞业限制,提高竞业限制补偿
此处仅讨论“针对接触商业秘密的雇员设定的竞业协议”。传统观点认为竞业协议的目的在于保护公司商业秘密、防止恶性竞争,但在算法秘密性的意义不限于商业价值,还涉及诸多公共利益,算法领域竞业协议的目的应涵盖维护算法治理秩序。但目前算法核心技术人员在离职时的竞业限制协议对“有竞业业务的公司”规定过于宽泛,雇员的择业自由受到极大的限制。一方面,互联网企业的扩张导致各企业间的业务重合率高,尤其是大型企业如腾讯、阿里,几乎所有互联网公司都可以划入其“竞争对手”的范围。另一方面,平台基本框架的构建、基础功能和目标(如图像识别、个性推荐等)日益趋同,兼之算法开发的技术难度高、分工细,要求雇员彻底转岗既有损其自身利益,也有碍于技术发展。另外,实践中企业的竞业限制补偿金普遍止步于司法解释中最低标准30%,而竞业协议的违约金在劳动法中没有规定上限。建议提倡各公司在竞业协议中缩小、精确对雇员的择业限制,并依据公司情况、雇员能力等因素适当提高补偿金,使竞业协议具备更高的可行性。
(三)救济机制
算法侵权具有渐进性的特点:在采集个人信息、提供个性推荐等行为初期,用户享受到了高质量的服务,当平台的行为更深入、更主动时,用户的处境犹如温水煮青蛙,即使察觉到权利受到侵犯,也不知如何维权。即使赋予用户算法解释权等私权对抗算法权力,缺乏便利的救济渠道也会妨碍有效救济的实现。让公众感受到算法规制的存在,参与到算法规制的活动中来,可以从以下三种制度的发展与完善着手:
1.法律援助
在2016年爆出的魏则西事件中,百度的竞价排名算法使不正规的医疗机构排在搜索结果前列,其个性推荐算法使点击过该类医疗机构链接的用户在后续搜索中接收到更多的推广信息,包括联系电话等等。魏则西一家出于对百度及其算法系统的信任就诊于某医疗机构,后由于受到不当治疗,兼之错过治疗时期,因病身亡。在这起严重侵犯他人生命健康权的医疗事故中,百度算法系统对医疗机构直接侵权行为起到了关键辅助作用,却逃脱了作为帮凶应负的法律责任。
因此,建议在法律援助制度框架内,适当补充针对算法人身权侵权纠纷的内容。2021年8月通过的《法律援助法》第31条对民事法律援助事项的规定新增了人身损害赔偿情形,结合第22条对法律援助形式的规定,为应对算法直接或间接侵犯公民人身权并造成损害结果的情况,应畅通法律咨询、代理等法律援助服务渠道,提高法律援助信息曝光,如要求平台以显著形式标注法律援助联系方式等。在“符合法定条件的其他当事人”的认定上,应以算法对受害人造成的后果是否严重及受害人经济状况为主要考量因素,不宜强求算法和后果之间存在直接因果关系,因为算法对人认知与行为的限制往往是通过间接却有力的方式实现,稍微延长因果链符合算法规制正义。
2.公益诉讼
互联网产品是商品,互联网服务是生意。广告是互联网企业最普遍的商业行为。而对于广告商来说,用户隐私可以转化成精准的用户画像,指导减少无效广告的投放,极大程度降低成本。越全面、越详细、越新鲜的个人信息能制作出越有商业价值的数据画像。为了收集尽可能多的个人信息,平台索要超出完成自身任务所需求的后台访问权限已成为常态,这种行为本身严重侵犯用户肖像权、隐私权(如访问相册、聊天记录等),同时也是滋生精准诈骗等灰色产业链的温床。
这类算法侵权行为发生后,被侵权人要么因为起诉成本远高于实际损失,放弃追究平台责任,要么因为侵权行为过于隐蔽,根本没有发现侵权事实。但是算法应用平台却能从动辄数以万计的用户个人隐私中获利,同时构成了群体性风险。人民检察院、消费者保护协会或其他形式的组织机构具有更强的采证举证能力,应通过公益诉讼制度,实现公共利益和私人利益的双重救济。《个人信息保护法》第70条对违法处理个人信息的情况适用公益诉讼作出了原则性规定,但算法其他形式的危害公共利益的侵权现象也应纳入公益诉讼的范围。参照张新宝教授对个人信息公益诉讼制度的观点(12)张新宝.个人信息保护公益诉讼制度的理解与适用.[J].国家检察官学院学报,2021,29(5):55-74.,算法公益诉讼不影响个人的私益诉讼,也不宜以私益诉讼为前置程序,因为算法公益诉讼保护的法益并不只是算法应用用户们权利的简单相加。
3.知识产权惩罚性赔偿
在互联网知识产权侵权案件中,企业争相使用“技术中立原则”,或援引“避风港原则”否认侵权行为,回避侵权责任。2018年,爱奇艺公司起诉字节跳动公司,称后者容许用户上传《延禧攻略》的短视频,并协助了该类短视频的传播,侵犯了原告的信息网络传播权。2022年,法院认定字节跳动公司的涉案行为构成帮助侵权,并判定赔偿原告经济损失及诉讼合理开支。
类似的诉讼纠纷并不在少数。推荐类算法的兴起,使原本仅提供信息存储空间服务、信息展示交流服务等中立性较强的网络服务者,偏向将信息推荐转化为主要服务,其用户的增长量、互动量、停留时长则与推荐算法技术的水平息息相关。若坚持严格的通知—删除规则,维权者须就各上传盗版作品的用户一一通知相应平台,而这般疲于奔命式的维权模式,是不能保证阻断此类侵权行为的流变。对于平台一边受惠于此类侵权,一边却躲进“避风港”的行为,应提高知识产权惩罚性赔偿制度的适用率,在原告提出惩罚性赔偿请求时,对于被告“故意”的认定宜宽不宜窄。这一是因为推荐算法技术的基础是内容的识别与分类,平台知晓侵权的可能性高;二是因为盗版作品、假冒伪劣商品低廉的特点决定了其一旦流入市场,用户便会趋之若鹜,在算法的推波助澜下,给著作权、商标权的权利人造成的损失比以往更甚。
五、结语
算法的差异化使其成为互联网企业倚重的商业秘密,但随着平台的膨胀,从用户的服务者摇身一变成为用户的支配者,算法的角色也不再是单纯的辅助性工具,而是可与公权力分庭抗礼的新型社会权力,其因商业秘密制度获得的保护需要向公共利益作出一定程度的让步。但是,盲目地公开算法并不能解决问题,反而会阻碍算法正常运用,造成社会秩序混乱等后果。算法的法律限制不是非黑即白的对错题,公开与保密不是水火不相容的关系。如何平衡公众知情与技术保密,是算法治理时代不可回避的议题。