智能算法推荐的版权侵权风险及其防范
2023-04-05张路
张 路
(南京理工大学知识产权学院,江苏 南京 210094)
0 引言
从早期报刊等传统媒介的有限发行,到互联网初期门户网站云传播的渠道拓展,再到当下平台媒体基于人工智能、大数据及云计算等为核心的智能算法推荐,信息传播的分发环节愈发智能、精准和高效[1]。当前,智能算法推荐已经成为各大平台媒体信息分发的主流模式,由“千人一面”式的点对面中心化传统编辑分发模式到“千人千面”式的去中心化、个性化的信息适配,智能算法推荐已悄然成为主导用户阅读和观看的无形力量。因复杂算法的不同编排应用输出的结果附加主体性立场,如果用户的选择偏好正好涉及版权作品时,经算法推荐得以迅速传播的可能就是用户擅自上传未经版权人同意的侵权作品。对于带有价值偏向的算法推荐,平台失去了专业编辑统一把关的核心价值与标准,此时,寻找介入算法推荐的规制路径来防范侵权风险就显得尤为重要。本研究旨在以算法推荐在平台运行中发挥的作用为源头,试图建立由法律价值理性与规则影响平台价值理性与规则的机制,使平台算法推荐价值理性与技术工具理性相融合,探讨对平台媒体多层次监管的可能途径,从而发挥平台媒体在使用算法推荐时的价值判断、风险预判和把关控制的作用。
1 问题缘起:智能算法推荐的版权侵权风险
1.1 本体论视角:技术不确定性的侵权风险
算法本身的不确定性可能引发侵权风险。随着算法内部结构的升级和功能性日趋复杂,影响因素增多,愈发难以确定算法的“技术中立性”。算法作为一门新技术,分析大量离散数据和繁复计算的能力比人工编辑更具成效,这导致算法推荐取代人工编辑成为新主流的分发格局,是主导用户浏览方向的幕后力量。而在后台设计的算法涉及模糊复杂的技术知识和科学基础,无法让公众及相关部门对算法运行机制进行有效的监管,可能导致算法本身带来技术不确定的侵权风险。
1.2 认识论视角:认知不确定性的侵权风险
媒体平台将流量至上和商业利益优先的算法价值观嵌入算法分发的信息把关权,却忽视媒体角色的价值初衷及需要担负的社会责任和导向作用。根据拉图尔对行动者的定义,行动者要能改变事物状态并能造成差异[2],其认为必须到行动的过程中去找寻行动者。算法推荐能够改变到达用户的信息内容,算法因设计方法的差异,用户接收的内容也就不同,并且算法本身也会随着用户接受内容的反馈而处于动态变化之中。可以说,算法推荐构成了非人类的网络行动者,与平台、内容生产者及用户共同构成了一张内容分发之网。用户的行为偏好总是相对稳定的,而算法主体行为的价值偏好使平台媒体更多地关注算法带来的效益价值,从而忽略使用算法推荐带来的认知不确定性的侵权风险。
1.3 制度论视角:规则不确定性的侵权风险
《民法典》侵权责任编中的“避风港”规则属于以“通知-删除”(事后获知)和“明知或应知”为基础的过错归责条款,在司法中形成了以版权注意义务为核心的网络服务提供者的共同侵权责任体系。“避风港”规则理论预设的前提是“实质性非侵权用途”的技术服务[3],不介入网络技术的具体使用,平台在对侵权内容不知情的情况下不承担版权责任,即“技术中立”。确立“避风港”规则的另一个重要理由是“技术不能”,“技术不能”指网络服务提供者没有有效且经济的手段监测海量且实时更新流动的内容并清除版权侵权内容。但随着技术的发展,算法成为人工智能技术的枢纽和基石。囿于平台对算法的控制力及对推荐内容的干预,从而诱发版权侵权风险的发生,导致媒体平台偏离“避风港”规则限制侵权责任的立法初衷。
2 原因力探知:算法推荐平台反“技术中立”立场与可责难性
2.1 算法推荐平台的反“技术中立”立场
智能算法推荐商业模式的运作机制为:综合运用人工神经网络、协同过滤和深度学习等计算方法,通过建立用户画像、构建内容模型和匹配内容资源等环节将分析筛选后的信息内容自动推送给用户。算法构成非人类的网络行动者,扮演着“编辑”的角色在平台内容与用户偏好之间建立交互式的动态联系,然而算法与用户对彼此的影响并非对等,算法技术已经偏离了媒体平台在版权合规管理的“技术中立”立场。一是,算法推荐的应用使平台在对内容分发传播的过程中从被动的“中立者”转变为主动的“参与者”角色。平台虽不“生产”具体内容,但其内部设置的系统流转通过分析用户需求,对离散的信息进行编辑、排序和推送进而呈现在用户面前的“传播”行为对用户接收到的信息具有更强大的干预作用。二是,平台媒体以增加用户黏性、开发流量经济为目的,将个性化推荐与商业广告的精准投放相结合,利用算法推荐机制将用户传播的内容实现商品的价值变现,实现了对信息与用户需求之间的精准推送和有效消费。三是,个性化推荐干预用户的信息自由和信息自决。大数据的算法统计为选择性接触提供了“土壤”,影响用户认知过程。算法推荐精准迎合用户喜好,让受众不断接收同质化信息。此外,算法被平台赋予了要完成的任务,算法对内容的“优先级”干预着内容生产者的创作取向与决策自由。为了遵循算法推荐背后的基本逻辑,内容生产者极有可能为了蹭热度生产侵权内容(比如热播剧)来获得算法技术的优先推送和额外加权[4]。算法推荐这种非中心式编辑分发模式实质上“裹挟”了权利人作为信息生产主体自由创作的权利,倒逼生产内容适应分发规则,从本源上干扰着整体信息环境的构建。
此时,如若平台算法推荐侵权内容,实质上是侵权用户与算法推荐共同作用的结果,二者根据损害原因力理论共同构成了“多因一果”的共同侵权行为。从共同侵权人对损害结果所起的作用来看,因算法推荐扩大了侵权行为的发生风险与损害范围,平台的角色由中立的网络服务提供者转变成了潜在侵权风险的助推者。有学者指出,YouTube自愿采取Content ID版权保护系统,其中一个重要的原因是想降低定向投放商业广告的版权侵权风险,因为商业广告的定向投放选择归因于用户上传及观看的平台内容的计算输出[5]。
2.2 算法推荐平台的可责难性
当监管的职权和能力与算法内在的价值倾向和商业利益相互交织时,即使实际并未知晓版权侵害,让部署算法意图的收益者承担追责之指向的版权责任,是得以实现版权法目的的一种良策。平台作为算法的使用者甚至是开发者,具备对算法推荐的控制力应当承担侵权风险的责任后果,作为侵权行为发生的场所,应当承担与其信息处理能力相匹配的注意义务。根据风险控制理论,风险的管理者更了解风险,其在风险防范上更有能力、更有效率并且也更加具有治理侵权风险的成本优势,因此对自身管理场所中存在的侵权风险具有无可转移的义务[6]。具体到算法推荐机制的实际运作过程中,无论是对内容分析与用户进行高适度性匹配,还是根据用户反馈对算法进行修正,平台始终具有识别和管理推送结果的契机与能力。实际上,平台在进行算法推荐行为时,其服务范围已经介入到软件应用层[7],即使算法推荐内容是客观既定的算法机械运作的过程,平台对程序运作的过程也应该具有充分的管控能力。此时,从源头解读,平台对推荐内容“控制力缺失”的抗辩值得被推敲。
事实上,平台的反“技术中立”立场使“避风港”规则的局限性日益显现,司法实践中对平台是否构成共同侵权的判定标准的变化就是针对这一局限的创新,突出体现在对“知道”与“应知”的解释上。2012年《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(以下简称信息网络传播权司法解释)第九条第一项规定的判断网络服务提供者是否应知用户的侵权行为进而苛责,应当考虑其对网络内容的信息管理能力。该司法解释其实是将版权责任匹配于技术能力的具体映射。2020年修正的信息网络传播权司法解释对平台的共同侵权的判定进行了进一步的诠释,虽然该规定在第八条中否认了平台一般意义上的审查义务,但是该规定第九条提出应当综合考虑多重因素,比如传播的作品知名度及侵权信息的明显程度、明显感知度等来认定“应知”的构成与否。可以看出,该司法解释并没有完全排除平台在特定条件下的主动审查义务。在这种特殊情形下,如果平台没有进行审查则可能会构成未积极采取预防侵权的合理措施而被判定没有尽到合理的注意义务。
3 平衡之道:算法主体行为的相关利益冲突及责任限制机理
3.1 预防与遏制之间:考虑平台责任的适度性
权利冲突并非都由侵权行为产生,而是作为权利本质内核经过正当性程序证成的利益冲突[8]。算法推荐本质是对内容生产关系与传播结构的革新而并非对内容生产的取代。算法推荐突破传统“总编辑”式分发把关和垄断格局,将内容生产与分发进行简单粗暴的剥离。因此,需要明确的是算法推荐的内核是对传统媒体编辑“向善分发权”进行取代的一种方式。对算法推荐的规制应当将侵权行为的预防及损害的救济置于同等重要的地位。《民法典》侵权责任编第1197条中并没有明确规定事前的积极责任,即并无法定的过滤义务,但算法技术正推动着平台版权责任由事后的消极责任走向事前积极责任,逐步偏离了帮助侵权的框架,遁入不作为侵权。这一转变虽淡化了“避风港”规则,但也要考虑相关利益的平衡,考虑平台责任的适度性。
首先,算法推荐(非人类的网络行动者)机制是在媒介传播中与其他行动者(用户)的联动机制,其涌现特征使编辑行为不是单一的界域清晰的个体行为,而是复杂集体行为的演进结果。其次,算法推荐并不等同于算法可精准识别侵权内容进而进行深度过滤,即区分算法推荐与算法过滤。有侵权风险并不代表只能通过算法过滤这一条目前“可及性”值得商榷的路径控制风险,这就要求不能将严格版权责任归咎于平台,如果将“被动移除”转变为“主动过滤”,不仅很大程度上影响了用户的合法权利,破坏自由创作的网络环境以及包括合理使用的法定权利在内的作品权益,还会限制媒体平台乃至整个技术产业的发展。最后,由于算法推荐的“内嵌式规则”,其技术背后的价值负载性导致算法推荐产生的问题实质引向监管的价值导向性偏差。算法编辑作为分发者和把关者,比以往传统纸媒的人工审查分发更具复杂性,过错的判断及因果关系更加难以探知。公众推动更多内容删除的同时,法律规定的“通知-删除”系统不可避免地有利于控告者。面对潜在的责任,平台最简单、便宜的做法就是从表面上接受指控,快速合规地避免了法律风险。而由于“避风港”规则的“反通知-恢复”的自身运行机制不完善[9],导致被错误删除的权利人无法得到有效的救济,使得公众对平台和言论的矛盾情绪一直存在足够多新颖和争议的问题。那么,以算法推荐在平台运行中发挥的作用为源头,建立平台对算法推荐侵权风险防范机制具有正当性和合理性。
3.2 预防机制:责任限制机理
3.2.1 公权力与私权利平衡原则。算法本身是一种私权利,对平台算法推荐权利法律规制的评价机理(证成)在于遵循数字技术革新的“避风港”规则基础上,明晰权利(力)与义务(责任)畛域,通过严格层次性控制体系与程序规范,防止算法编辑权利的滥用并最大程度保护用户私权利,实现在进行对算法平台规制的同时保障公民在算法推荐平台应享有的权益、自由及权利救济。规制是在立法或者司法性“国家法律”的保障下架构实施的,权利体现的是私法中的意思自治。我国学者马长山[10]将互联网法治二分为“硬法之治”与“软法之治”。为实现在算法推荐平台的赋权与限权之间找寻到法律治理的动态平衡,应当沿循以公权力合理限制私权利,裨增私权利平衡公权力的规制思路对算法推荐编辑防范风险体系进行构建。
3.2.2 平等原则与效能原则的兼顾。算法推荐不仅是一次技术赋能,更是一次基于技术进步之下的赋权,而大众所获得的是一种平等的接收信息和吸收知识的权利。算法推荐可以直接影响内容的呈现频率和传播效果,依照诺依曼“沉默的螺旋”理论,用户对推崇的“强势”声音采取趋同行动,随之“弱势”声音就会陷入沉默失声[11]。看似合理化的算法推荐技术实则阻碍了多元化信息的交流与呈现,用户倾向于聚集大量的在线提示信号(推荐、转发和评论等),此时平台的向善引导分发功能也容易被舆论操纵所消解。为了防止平台和公众陷入价值迷失的困局,消除“群体极化”,从平台的信息自由流动和言论自由表达这两种途径出发,基于“中立性”维度,由平等原则与效能原则协同调控,建立一个可以产生多边协同效应的应对机制,提高对技术的应用审查效能,调整用户与技术间的关系,让技术能够更好地协控平台的发展。
4 防范智能算法推荐侵权风险的对策建议
4.1 算法推荐侵权风险防范的法律规制
权利博弈的背后隐含着算法推荐把关人制度构建的需求与空间。平台采取相应的注意义务控制侵权行为的预防性安全措施,避免侵权行为的发生,是判断行为可归责性的重要因素之一。规范算法决策机制主要解决两方面问题:其一是要解决算法黑箱带来的技术不确定性而引发的不公开的侵权风险;其二是要弥补现有“避风港”规则单一事后监管层次过浅的现状。一个可行的方案是,赋予平台对算法的监测及解释的义务作为“硬法之治”,如设计干预和嵌入安全机制,从而鼓励平台作出价值理性向善的正向引导。在算法推荐侵权风险防范中,平台将其在审查涉嫌侵权作品时采用审查算法设计的合理性作为善意努力的证明,即承担其对算法合理性的举证责任。此外,算法推荐平台的共治可以成为中坚力量,对使用算法推荐编辑的特定领域平台注意义务设立最低的行业标准,在适当情况下作为行业组织规范的“软法”体现在司法裁量中,但要结合平台的成本和收益进行权衡,从而激励平台引入算法侵权检测和审查,以灵活性和信息成本优势弥补在应对技术不确定下的算法规制不足,更好地兼顾作品版权人的传播利益[12]。
4.2 算法推荐侵权风险防范的社会治理
算法推荐对人们的影响是全方位的,由于算法推荐技术应用的广泛性和多样性,针对平台的监管也应具有前瞻性、规范性、阶梯性。同时除了对法治的重视以外,也应要引入社会化的评价机制来实现算法工具和价值理性的双重平衡。可以通过赋予用户监督权的形式,实现个性化和精准化的信息服务的同时优化信息质量,使用户与算法推荐机制之间形成良性的互动从而在可实现的预设机制内消解认知不确定性带来的法律风险。平台在应对用户的监督时应当及时审查推荐算法的应用效能,对推荐算法进行解释,亦或对算法进行公开。
可行的方式之一是行业组织协会代表公众,介入第三方评估的算法推荐健康运行的评价手段来加强算法的监督和监管。趋向于公开的分发原理和平等的算法决策机制,为此,可建立由公众代表、专家代表和第三方代表等组成的算法审查团,通过建立算法推荐风险的专项评估机制,按照一定的程序,定期对算法推荐的安全系数、风险层次等进行综合评估,并发布相应产品算法推荐的风险审查结果和评估报告[13]。平台则可依照审查结果和评估报告中提出的纠正意见进行相应的算法整改。当因版权侵权涉诉时,法院也可以参考此评估报告进行综合的认定,从而进行责任的认定。由此,多方位的激励平台发挥算法推荐编辑的正向功能,回归“技术中立”。
5 结语
在“算法泛在”的人工智能时代,技术不确定下的算法推荐机制内嵌主体价值偏好,冲击着以“技术中立”为抗辩理由的“避风港”版权责任规则。考察算法推荐编辑的内在机制,作为版权内容分发平台具有控制力与可责难性导致从事后消极的“通知-删除”转向事前积极的版权过滤倾向,但在目前算法过滤技术的“可及性”与“准确性”不足的情境下,算法无法做到判断侵权和识别深层违法,那么此时则需要平台理性并合理地进行回应,从而限制算法价值反“技术中立”立场带来的负面效应。这种变革在立法上需要遵循谦抑性,对算法技术的注意义务通过在司法上引导“行业自治”,加强算法推荐平台的行业自律,构建科学有效的行业规则,作为“软法”与“硬法”的法律规制达到“共治”的结合与有效补充,建立对算法推荐平台健全的监督准则,同时加强公众的社会化监督和法律法规的完善,充分发挥价值理性对平台发展和技术优化的引领作用,才能避免平台和用户成为技术主宰的客体。