智媒时代算法推荐对用户自主性的解构与重构*
——基于规则治理的视角
2023-04-09周丽娜
—周丽娜—
人工智能生成物(AIGC)的颠覆性代表ChatGPT 应声出世之后,再次刷新了人类对人工智能边界的认知,也再次加速了人类文明的进程。ChatGPT 不仅建立了一个大语言模型,而且其已经拥有一定的认知、理解和判断能力,甚至拥有和人类类似的思维能力。“人工智能在完成对人类外在官能(视觉、听觉等)的延伸后,进入到对人体延伸的最后阶段——意识的技术模拟阶段。”①而机器意识的产生是否会对未来人类文明造成不可逆转的危机和风险,还尚未可知。
一、问题的提出
(一)智媒传播颠覆“以人为中心”的传播模式
人工智能技术的迭代加速发展,彻底改变了“以内容为中心”的传统大众传播模式和“以用户为中心”的社交媒体传播模式,迎来“以数据和算法驱动内容生产为中心”的智能传播模式时代。如果说,社交传播撼动了传统大众传播确立的“把关人”及“议程设置”的专业内容生产和控制传播模式,奠定了“去中心化”“人人都有麦克风”的用户内容生产传播模式,那么以语言生成模型和语义理解模型为基底的生成式人工智能,则直接解构了一个多世纪以来形成的“以人为中心”的传播理论体系,“人”再也不是信息和内容理所当然的生产者和主导者。
智能传媒的应用,使人的主体性逐渐消解,而机器主体性(或拟主体性)逐渐确立。经过一段时间的人工“喂养”和主动学习,人工智能机器就能够模仿,甚至模拟人的意识,自主生产内容,进而传播。此外,人工智能通过大数据和算法,根据主体的喜好、兴趣、习惯等,对信息进行千人千面的个性化推送,甚至“人”还会受到机器自动决策的影响,在频频推送的“猜你喜欢”情境下,改变个体意志,迎合机器供给。如果说人们目前习惯使用“人机交互、人机协同、人机共生”等用语,暗示“人”在“机”前,“人”尚且掌握了一定的主动权和控制权,那么可以想象,“机人”时代的到来可能指日可待。
(二)智能传播运算法使个体被量化、群体化,丧失自主性
根据算法推荐技术原理,其所依赖或存在的所有个性化指标终将转化为“0”和“1”的二进制代码,有关个体的一切终将以数据化的形式呈现。在算法世界,个体的人成为冰冷的数据,人完全被数据化和标签化。个体的集合,仅是具有流通性的数据库资源和商品,是“脱离情感、情绪、感知的数据化字符,是被数据‘量化的自我,也是市场化的自我’”②。
美国学者贝克(Baker)曾对量化自我提出四点质疑:量化自我究竟是让人们更多、更好地了解自己,还是走向它的反面? 是一种更强的自我控制,抑或是一种更强的社会控制? 是让人们变得更幸福,还是从来没有让他们得到真正的幸福? 是让人们有了更多的选择,还是侵犯了他们选择的余地?③很多时候,结果都有可能是后者。
个体被量化后,还可能会引发个体被群化和驯化的风险。算法程序根据掌握的量化数据和变量,在数字空间,“跨越兴趣、阶层、地域的隔阂将全部的群体关系整合起来,形成群体内部、群体之间的互动,产生堪比大众传播覆盖面的影响效果”④。在群体互动中,渴望展现或追求个性的主体,受群化的兴趣、消费、反馈等多方面影响,最终很可能淹没于群体,失去自我。如在某社交平台,个体因被算法标签为与他人有共同爱好,而被推送某款产品,不免受到他人或群体消费暗示影响,进而丧失个人判断和决策,直至被群体完全驯化,丧失自主性。
理想的人类社会,应该是人的智力、情感、理性、德行等均能得到学习、发展和认可的社会。在算法社会,一段时间内,可以使人的智性得到单向度发展或提高,但过度的算法进化,终将使人丧失人性中更为宝贵和自然的组成部分,即以情感、内心、理性为基础的心性和灵性。⑤
(三)智能传播的规则控制尚不完善
算法与数据、算力被称为人工智能技术发展的三大核心要素,其中算法推荐的广泛应用,对智媒时代信息量过载问题提供了强有力的技术支持,一定程度上解决了信息无限性与用户个体需求有限性之间的矛盾,满足了用户在快节奏时代以最少时间成本获取个性化信息选择的诉求,但也衍生了“信息茧房”“算法黑箱”“算法歧视”“虚假新闻”“用户隐私侵犯”等现实问题。
同时,算法还对公众的社会活动和个人活动进行规训,并且在重构机器与人、技术与社会之间的关系过程中,算法正从一项单纯的技术,发展为能够“干涉甚至主导人类社会事务的‘算法权力’(algorithmic power)”⑥,算法不仅打造社会景象与文化意涵,甚至直接影响并控制着我们每个普通人的日常生活,甚至获得了“真理地位”⑦。
尽管世界各国均已认识到算法风险,并普遍认为算法应当具备透明、公正和公平、非恶意、负责任和保护隐私等基本伦理规则,但在理论阐释和实际应用中,仍存在实质性分歧。智媒时代,用户对这种算法权力能否拒绝? 用户对算法决策的使用能否自主决定? 对算法歧视、算法黑箱和信息茧房等负面作用是否有知情及投诉的权利? 人类在这场技术变革引发的社会变革下,需如何应对或自处?
二、现有规则对算法与用户自主性的建构
面对智能媒体带来的新技术形式和传播实践,重新审视和界定“人—机”二元关系,处理好以智能媒体为代表的非人类传播主体与人始终作为传播主体的共生关系,是防范智能技术可能引发社会危机和风险的重要议题。各国目前主要的治理逻辑和思路,是通过法律和伦理双层面的规则建构,运用国家强制力的硬约束和道德伦理的软保障,廓清算法“权力”边界,试图保障用户的权利自治和主体意志自由。
(一)算法推荐技术及其规则建构
通常来说,算法推荐技术是人工智能技术的一种应用,“技术层面看,算法系统的体系结构由界面、信息和模型三个层次构成”⑧。界面层主要功能是对信息进行加工和处理,继而构建出用户画像,这是算法推荐系统的基础。在界面层,系统将收集到的用户基本数据和行为数据转化为事实标签,然后传递至信息层与模型层进行建模和决策。在用户画像基础上,系统根据用户行为(如点击、评论、转发、点赞、收藏等)、访问时长等设置相应权重,从中发现用户的喜好、习惯和兴趣,计算出用户对某类信息的兴趣标签值,找出有相似行为的用户集,从而进行信息分发。算法技术主要应用于信息层与模型层。
目前我国对算法推荐技术应用已经建立起一定的法律规则体系,涵盖内容包括算法应用、审核、监督、溯源、备案、解释、拒绝等诸多方面;同时,国家新一代人工治理专业委员会还发布了《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养6 项基本伦理要求。但在实践中,对算法控制的实际效力,以及伦理原则的解释和应用,仍无法避免“算法歧视”产生“骑手困于算法”等现实风险和问题。
(二)用户自主性及其规则建构
自主性(autonomy)即自我管理,是主体“构建自我目标和价值且自由地作出决定付诸行动的能力”⑨,主要体现主体的意志自由及决策自由。自主性原则源自康德(Immanuel Kant)的自由理论,认为每个个体都有决定自己命运的权利。
用户自主性规则层面的建构,主要体现在保障用户知情权、解释权、选择权、拒绝权等多项权利方面。
1.知情权、解释权
广义而言,知情权是公民知悉、获取信息的自由和权利,本文仅讨论公民的民事知情权,即个体对于自身信息了解、知悉的权利。
个人信息知情权指信息主体对其个人信息享有知情的权利,具体知情的内容包括谁收集的个人信息、收集这些信息用于何种目的、信息将以何种方式进行使用、信息将会被处理者存储多长时间、信息传递给哪些第三方等。《互联网信息服务算法推荐管理办法》规定,使用算法服务的用户,算法服务提供者应以显著方式告知用户其提供算法推荐服务的情况,如应当公示它的基本原理是什么,它是如何运行的,它的应用场景有哪些,以及它有何使用目的。
算法解释权是用户个体(或称数据主体)有权要求算法使用者或数据控制者对其使用的算法进行解释,该解释应当具体、清晰、明确、具有实质意义。从时间上看,算法解释权属于事后解释,一般是个体在获得算法决策结果后,要求控制者对该决策结果提供相应的解释。
2.选择权
信息选择权是指用户有权自主选择信息,不受他人干涉。该权利表明用户在获取信息的过程中,能够根据自己的想法和意志,自主地选择和支配信息,也就是算法的使用不得干涉用户信息选择自由,用户有权决定自己接收或者阅读哪些信息、不接收或者阅读哪些信息。用户拥有选择权,这实质上是对人自主权的尊重。
3.拒绝权
算法拒绝权指个人对算法应用或其结果享有抵制的权利。我国《个人信息保护法》第24 条即是对算法拒绝权的规定,包括可以拒绝商业营销、个性化推送以及特定情况下的自动化决策。
如同在数字社会中个体有拒绝接入数字世界或选择是否使用数字技术的权利,对算法技术而言,个体也有自主决定是否使用算法的权利,这也是生活方式的一种意愿和选择。
三、现有规则下算法对用户自主性的解构
尽管在现有法律和伦理规则框架下,算法似乎是“带上了镣铐”,但通过实践检视,算法正裹挟大数据,对人的感情、认知,甚至身体健康产生影响,借助“技术”的掩护,正逐渐剥夺人的自由意志,并最终剥夺自我意志自主控制的权利和能力。
(一)用户个人信息的提供非完全自主性
如前所述,技术层面而言,算法推荐基础是个人数据收集和用户画像,而这二者的前提是用户知情同意的情况下对个人信息的自愿提供。虽然在法律上我国已经确立了知情同意的强制性规定,体现主体对个人信息具有决定权和自主性,但实际上,知情同意原则仅是形同虚设、徒有其表而已。
2022 年4 月,有记者在苹果的应用市场中下载了免费“排行榜”前十的APP,在对其用户协议以及隐私政策进行统计时发现,这十款APP 的用户协议、用户条款的文本总字数超过10 万字,隐私协议则共计约12 万字,二者合计约为22 万多字,每款APP 需要用户“同意并继续”的文本内容平均为2.2 万字,用户读完一款APP 的用户协议与隐私政策,快则需要40 分钟,慢则1 个小时。⑩2021 年8 月,《光明日报》与高校和研究所组成调研组,分别对1036 人进行问卷调查和深度访谈,并对15 类共150 款App 的隐私协议进行分析,发现在安装App 时,有77.8%的用户“很少或从未”阅读过隐私协议。⑪很多网友自嘲道“撒过最多的谎就是‘我已阅读并同意用户协议’”,因此很难得出结论,用户已经充分、清晰地知情算法推荐所需要的有关个体的信息数据的收集和处理状况,更不用说个体有自我决定的能力和权利。
(二)算法推荐消解了用户自主性的各项权利
算法表面上是优化公众对信息的选择,公众可以在算法给定的范围内快速做出选择和决定,但这实则是算法对公众自主性原则的消解。用户每次基于算法而做出的决定,看似微乎其微、不足为道,但日积月累下来,用户就习惯于依赖算法给出的推荐结果和范围,而不再积极地、主动地去找寻可能的其他决策,久而久之,用户自主性屈服于算法,算法逐渐从一项技术演变为一种权力。
1.用户对算法推荐或不充分知情或一无所知
在算法推荐语境下,用户知情权的消解,主要体现在两个方面:一个是对涉及个人数据的用户协议的不完全知情或完全不知情;一个是对算法推荐运行机制的不知情,即存在算法黑箱。
对涉及个人数据的完全不知情或不完全知情,前已论述,在于用户对用户协议或隐私协议无法进行实质性知情及控制,知情权在用户知情同意的伪装下,其内容并未实质性触达到用户,导致用户对个人信息各阶段的处理没有完整的知情权。
对算法推荐运行机制的不知情,是对用户知情权的另一种侵害。不论是在用户协议中,还是隐私协议中,用户都很难知情自己的数据是如何应用于算法的。例如,在京东网的隐私政策中,对商品和服务信息的展示,其条款是这样描述的: “为了向您提供搜索历史、浏览记录、收藏的商品或店铺、关注的店铺、购物车或订单商品或服务展示服务,我们会收集您的浏览信息、搜索记录、收藏记录、关注记录、加购信息、订单信息。我们会根据您的上述信息以及其他您已授权的信息,进行数据分析、预测您的偏好特征,在京东服务或者其他第三方应用中向您推送您可能感兴趣的商品/服务、商业广告、商业性短信及其他营销信息。”⑫这样的告知,于用户而言,似乎说了什么,又似乎什么也没说,用户对网站如何使用这些数据进行推送或产生推荐列表,仍然是一头雾水。2022 年,为应对算法黑箱问题,增加算法透明性和可解释性,政府推出算法备案制度,要求使用算法的企业向公众公示算法运行机制、使用的基本原理以及使用目的,但对用户而言,此举对用户知情权并无改善。因为用户对于算法知情的终极目的,不是要知道会收集哪些数据、采取的是哪种类别的算法,而是需要知道这种运算的算法对个体而言可能会产生怎样的后果,对个人权益是否会产生负面的作用? 未来要如何更好地利用算法发挥正面作用、增加信息多元化,避免信息茧房? 个体在算法面前,能不能有主动性或者决定性? 但这些问题对用户而言,都无法从所公示的信息中获得答案。
另一方面,算法解释或透明度原则虽然可能对算法黑箱予以适当纠偏,但过度依赖透明处理原则会陷入“透明陷阱”(transparency fallacy),即个体往往缺乏必要的专业知识来有意义地行使这些个人权利。⑬仅有当数据主体可以真正理解特定算法所依据的因素而做出决策时,算法解释的逻辑才是有意义的。因此,算法透明的核心要义在于能够在数据主体有疑问时提供有意义的、朴实的、普通用户能够明白的解释,从而使用户可以充分知悉算法作出决策的逻辑,继而行使质疑和问责的权利。
2.用户只能在算法推荐的范围内进行有限的选择
算法推荐技术在信息分发方面的优势,使用户可以摆脱传统专业媒体设置的“议程”,一定程度上,可以实现“我的信息我做主”,自主选择感兴趣的信息。或许有人认为用户至此掌握了信息的选择权,但实际上,这种选择权是对算法推荐结果的一种有限选择,而不是出于个体意志的自由选择。算法推荐所运用的过滤机制,其逻辑过于注重用户偏好,而忽视了诸如真实、客观、理性等其他价值理念,实际上是损害了用户的信息选择权。
用户能够选择的范围不是看或者不看什么信息,而是在算法推荐的范围内,接受还是拒绝算法推荐的信息。因此,用户选择的自主性是基于算法推荐的结果,而选择的范围也是基于算法推荐的结果。个体在算法环境下,根据机器计算结果,通过接受或拒绝模式,与机器进行对话和互动,再代入机器运算模型,继续维持或调整算法推荐结果,再进一步测试是否符合用户需求。在这样“机器—人—机器”的循环测试中,算法推荐的应用,并没有解决用户信息过载的问题,反而使用户更加依赖算法和机器。用户的点击、取消、拒绝、点赞、收藏等操作,其实是在和机器完成对话,进而不断地接受机器的分析、画像,甚至学习和模仿,从而给出看似最适合该个体的决策结果或推荐列表,但这一行为恰恰是没有将用户作为一个有自主意志的人对待,更像是一组代码或数据,缺乏对个体人格的尊重,而这正是对自主性原则的违背。
若长期使用算法推荐获取信息,则会对算法形成过度依赖,用户将怠于主动作为,不去积极寻求多元或多样化内容,而是习惯于在算法支配下的内容获取和选择,于是乎,用户逐步成为算法可以预测,甚至操纵的被动接收者。尽管用户可以与机器进行一些互动,例如点击“不想看到类似信息”,但是这并不意味着用户从此再也看不到类似信息。在商业利益驱动下,企业运用算法不断进行个性化推送,用户在技术包围下很难冲破算法权力的控制边界,所以个体主动性的发挥空间越来越被侵蚀和压缩,用户也从主动欣然接受算法到被动默认受算法驱动。
3.用户无法事前拒绝算法的介入,陷入“拒绝困境”
算法拒绝权在我国《个人信息保护法》中已有规定,其本意是为个体配置积极的控制性权利,防止信息处理者与个人之间因信息不对称而导致的地位不平等带来负面影响。但该法所规定的拒绝权,严格意义上说,不是拒绝算法,而是拒绝算法推荐的结果,而且是仅能拒绝对个人有重大影响的算法的结果。这种拒绝,只能事后且手动拒绝。因此,“通过个体行使控制性权利进行算法规制的效果非常有限”⑭。
以下选取我国目前用户过亿的5 个应用程序的《隐私政策》部分内容作为示例(见表1),涉及社交媒体、视频平台、电子购物平台,可以看到“允许”或者“同意”自动化决策都事先存在于《隐私政策》的“一揽子”规定之中,如果不同意该隐私政策,则不能使用该款软件,如果想关闭算法推荐,需要手动操作,有的还需要发送短信才能取消,如淘宝。即便是选择关闭,关闭的是基于个性化分析的算法结果,而不是算法推荐本身,如抖音。程序上看,与不同意就无法使用的“同意困境”类似,拒绝权的行使,也存在“拒绝困境”。算法推荐的“一揽子同意,事后拒绝”模式,使得个人“无法事前行使拒绝权”⑮,事后拒绝也因程序设置的复杂,难以完全实现。
表1 5 个应用程序《隐私政策》部分内容
四、用户自主性的规则重构
智能媒体正在通过算法或代码重建一个新的虚拟世界,人在虚拟世界按照程序和算法所设定的“轨道”运行,“代码就是法律”(code is law)的论断,预示着新型法律关系的产生,也清晰地表明代码在虚拟社会的强制性和权力性。个体在算法指令的规划和安排下,“人的自主创新和创造能力得到消弭,个体在不知不觉中成了米歇尔·福柯(Michel Foucault)笔下所描述的‘驯顺的肉体’”⑯。人如果完全沦为代码对象,“人是机器”还是“机器是人”的话题可能不是仅停留在讨论层面的问题,而会衍生成人类现实需要面对和解决的问题。面临技术失控的危险,人类也将陷入前所未有的社会风险。
因此,智能媒体时代,守住或者重塑人的主体性成为当前不可回避的任务之一。算法权力,主要掌握在开发算法的技术公司和应用算法的网络平台手中,相对于以政府为代表的“公权力”对社会关系而开展的治理权而言,技术公司和网络平台正在以“算法/代码”为基础,形成能够影响社会关系的“数字私权力”。作为对此“私权力”的规制回应,可以通过两个途径合力实现:一是完善以政府为代表的公权力的合理配置,对算法和企业进行监管或规制;二是对个人私权利予以赋权,使得个人有能力对不合理、不合法的数字化应用或其结果进行抵制。在政府、企业、用户所蕴含的“公权力—私权力—私权利”的三元博弈中,平衡算法的功能优势与尊重个体自主原则是算法未来发展的核心目标。
(一)自主性意识的构建
“自主意识有着强烈的表现自我、实现自我的欲望,这正是启动创造、施展创造的最深刻的内在根源,也是创造千姿百态、殊相万千世界的心态源头。”⑰用户自主性意识的构建和强化,不仅需要用户本身自主意识的觉醒,还需要能够控制或者影响用户行为的计算机程序或命令,在执行中体现出对用户自主性的尊重和认可,并给予实现这种自主性的空间和途径。
人工智能的运行逻辑或算法决策需要人在环中(human in the loop),无论是自动驾驶,自动飞行,还是智能医疗⑱,完全的算法或人工智能存在巨大风险。正因如此,世界各方正在从伦理和法律方面制定治理框架,强调人作为主体的自主意识。2017 年,生命研究所在阿西洛马会议中心召开人工智能伦理道德会议,提出阿西洛马人工智能原则,提出应尊重人类价值(第11 条),包括“人的尊严、权利、自由和文化多样性”⑲。2019 年4 月欧盟颁布高水平专家组撰写的《可信任人工智能的伦理框架》,提出AI 的基本宗旨之一为“确保尊重人的自由和自治”⑳。2021 年11 月23 日,联合国教科文组织193 个成员国一致通过《人工智能伦理问题建议书》,该建议书的目标之一即“在人工智能系统生命周期的各个阶段保护、促进和尊重人权和基本自由、人的尊严和平等”㉑。
尽管现在人工智能技术整体水平仍处于无自主意识的弱人工智能阶段,人尚且可以控制人工智能,但随着类似ChatGPT 等技术发展和进步,可能很快就会进入技术比肩人类的强人工智能阶段。为避免产生人与技术工具主客体颠倒的异化现象,以及规避个体彻底沦为被数据化客体的风险,人类更需要强化自主意识,尊重主体自主性。如果对人工智能不加限制地绝对相信,人终将走向铺满鲜花的地狱之门。
(二)自主性在算法功能设置上的具体体现
为避免人主体性的消解和自治性的丧失,需要赋予个体不同阶段不受算法决策影响的权利,让个体享有真正的意思自治,而不是成为数据化、客体化的对象和目标。现代社会,尊重和保证“人”的自主性和完整性的最佳途径,即是将算法权力限制在一定的制度规则之中。在功能设计上,可以考虑从事前、事中、事后三个阶段对算法予以重新构建。
1.事前拒绝算法的权利
建议改变目前我国有关算法应用的“一揽子同意、事后拒绝”模式,将是否使用算法的决定权提前至程序应用之前,通过单独的“知情同意”程序进行告知。虽然用户的拒绝权在事前及事后都可以行使,但二者之间存在较大区别:事前拒绝意味着自始拒绝,从源头上遏制算法对个人数据的收集,使机器无法启动针对个人的算法程序。而事后拒绝,实质上是一种救济手段,仅在产生特定的推荐结果之后,数据主体可以拒绝其结果影响。
源头保护的事前权利的行使,较事后行使,更能有效阻断算法技术的应用。可以参照欧盟《通用数据保护条例》(GDPR)的相关规定和做法,体现出主体对个人信息的自治性:第一,赋予数据主体事前拒绝算法决策的可能。如GDPR 第21 条规定,当数据集合的用户画像是基于直接的市场营销目的,数据主体有权在任何时候反对相关的自动化决策。第二,知情同意规则需要“充分”且“明确”。GDPR 明令禁止默示同意(opt-out)的规则,要对进行算法决策作出自主的(freely given)、特定的(specific)、知情的(informed)、明确的(unambiguous)同意,且需以清晰肯定的行为作出(opt-in)。第三,对企业应用算法决策进行限制。增加了事前告知义务、停止自动化决策处理个人数据的义务,以及对算法决策的事前与事后评估责任等一系列相关法律责任。
2.事中行权精细化
事中阶段,赋予用户各项权利是有效阻止算法技术的必要途径,借助删除权、知情权等权利,对算法施加人为干预。《个人信息保护法》对个人分别赋予处理权、查阅权、更正权和删除权。可以说一定程度上满足了个人在事中阶段对算法服务提供者行权的基础。但相比GDPR,我国相关规定在设计数据权利时,还不够精细化,可操作性不强。例如,《个人信息保护法》规定,对于自动化决策作出的决定,若对个人权益有重大影响,则个体有权对该决策结果要求予以说明,并且还有权拒绝未有人工干预的纯自动化决策的决定。但是何为“重大影响”? 如何要求信息处理者“予以说明”? 如果“不予说明”应当如何救济? 说明的语言应当达到何种清晰程度? 这些在我国的法律规定中均没有详细说明,因此条文规定本身的笼统性无法保障具体权利的落实和保障,时常让人不知所措。
3.事后救济途径
事后阶段的救济途径一般包括两类: 一是拒绝算法推荐的约束,二是事后司法救济。拒绝算法前文已述,目前我国法律并未表明个人享有完整的算法拒绝权,用户仅在某些情况下享有拒绝算法结果的权利,而非拒绝算法的权利。因为属于事后救济,行为人怎样行使拒绝权,行使拒绝权后是不是就能完全避免自动化决策作出决定,都具有不确定性。因此用户希望不要等发生了算法决策的负面结果再去拒绝,而是可以从源头上自始就拒绝使用算法进行决策。例如对于是否可以发放贷款的决定,用户不希望银行首先通过算法进行决策,做出不予贷款的决定之后,用户再实施要求解释或予以拒绝的权利,而是自始希望有人工参与决策,考虑更多不同的现实情况。因此对算法推荐的拒绝,应置于“事前阶段”,且需以单独、明示的告知方式,取得用户同意。
在司法救济方面,面对算法推荐的诉讼,结合已有部分诉讼案件,可以考虑适当提高平台责任或更加合理地分配举证责任。如在“算法推荐第一案”爱奇艺诉字节公司案,原告爱奇艺称享有电视剧《延禧攻略》排他性信息网络传播权,在该剧播放期间,被告字节公司在其所运营的今日头条APP 上,未经原告授权,即向公众传播《延禧攻略》一剧的各类短视频,包括切条、二次创作等多种形式。被告公司利用算法推荐技术,使得这些短视频被频繁推荐。被告辩称,今日头条APP 仅是为用户提供了信息存储空间服务,所有涉案短视频均系用户自行上传,被告并未上传任何侵权视频。另外,被告对用户上传的内容,均已尽到合理注意义务,主观上并不存在过错,侵权行为不成立。但法院认为,字节公司在本案中,提供的不仅是网络空间信息存储服务,被告利用技术优势帮助用户提高效率获得更多信息的同时,也在为自身获得更多商业利益和竞争优势,因此理应对用户的侵权行为负有更高的注意义务,故被告行为构成侵权。㉒在另一起关于算法歧视的“刘权诉美团外卖平台案”中,法院没有支持原告要求被告承担侵权责任的诉请,因为法院认为原告仅能提供两份订单,试图证明配送费的差距,是无法证明外卖平台存在“大数据杀熟”行为的。而且,两份订单下单时间不同,公司根据平台交易量对配送费进行动态调整,符合其自身经营行为,故原告败诉。㉓
在《延禧攻略》案中,被告在运用算法推荐技术扩大传播范围、获得更多优势和利益的同时,也理应承担其带来的风险,应对用户的侵权行为负有更高的注意义务,故法院判定其侵权成立。该案作为算法推荐司法第一案,为今后平台使用算法推荐时应承担的注意义务提供了范例。在第二起美团大数据杀熟案中,按照目前“谁主张、谁举证”的证明责任,原告需要证明被告存在算法歧视明显有困难,故建议考虑适当提高算法服务提供者举证责任。原告提供初步侵权证据,例如有遇到价格不公的遭遇,以此证明侵权行为的存在,之后,应当由算法服务提供者证明其作出该决策的过程,以及由此产生的结果是符合相关法律规定,公平、公正且合理的,这样可能更有利于用户行使救济权利。
总之,“人”的概念在技术权力的推动下不断“滑坡”,科技不仅是人类进化的工具和媒介,也逐渐成为人的欲望和力量的体现㉔,成为深刻改变人与自然关系的权力力量,尤其在智媒时代,所有人和物都可以通过算法生成和控制,人类生命的意义也不再那么崇高和绝对,仅是数据系统的一个组成部分而已。
算法带给社会的风险是隐秘的、扩散的、系统的,仅靠唤醒人的自主性及个体赋权,尚难以全面确保个体获得逃离算法操控的基础和能力。需要在具有共识的规则体系框架内,通过政府、企业、用户的多元协同合作,客观理性地认识算法风险,主动构建防御机制,增强个体权利效能,尊重“人”的自由意志,从而构建尊重个体尊严与权利,并利于技术发展的平衡、共生的“人—机”智媒传播生态体系。
注释:
① 单小曦、别君华:《人性化与自主性:媒介智能化进化的内在机制与双重结构》,《中国新闻传播研究》,2019 年第6 期,第51 页。
② 彭兰:《“数据化生存”:被量化、外化的人与人生》,《苏州大学学报》(哲学社会科学版),2022 年第2 期,第160 页。
③ Denise A Baker.Four Ironies of Self-Quantification:Wearable Technologies and the Quantified Self,Science and Engineering Ethics,https://doi.org/10.1007/s11948-020-00181-w,22 January 2020.
④ 隋岩:《群体传播时代:信息生产方式的变革与影响》,《中国社会科学》,2018 年第11 期,第124 页。
⑤ 於兴中:《算法社会与人的秉性》,《中国法律评论》,2018 年第2 期,第57 页。
⑥ 刘培、池忠军:《算法的伦理问题及其解决进路》,《东北大学学报》(社会科学版),2019 年第2 期,第119 页。
⑦ Neyland D,Mllers N.Algorithmic IF...THEN Rules and the Conditions and Consequences of Power.Information,Communication & Society,vol.20,no.1,2017.p.2.
⑧ 衣俊霖:《数字孪生时代的法律与问责——通过技术标准透视算法黑箱》,《东方法学》,2021 年第4 期,第79 页。
⑨ Stahl BC,Timmermans J,Mittelstadt BD.The Ethics of Computing:A Survey of the Computing-Oriented Literature.Acm Computing Surveys(CSUR),vol.48,no.4,2016.p.27.
⑩ 赵乐瑄:《APP 用户协议与隐私政策,你真的读过吗?》,https://mp.weixin.qq.com/s/cYBatGkuT3Oz6DW7DcZcKg,2022 年4 月29 日。
⑪ 光明日报与武汉大学联合调研组: 《保障安全的“权利书”,还是窃取信息的“任意门”——App 隐私协议现状调查》,https://baijiahao.baidu.com/s? id=1708521630294149131 & wfr=spider & for=pc,2021 年8 月19 日。
⑫ 京东隐私政策:https://about.jd.com/privacy/,2022 年10 月26 日。
⑬ Lilian Edwards & Michael Veale.Slave to the Algorithm:Why a Right to an Explanation Is Probably Not the Remedy You Are Looking For,16 Duke Law & Technology Review,vol.16,no.1,2017.p.81.
⑭ 谢琳、曾俊森:《个体赋权在算法决策治理中的定位》,《法治社会》,2022 年第1 期,第91 页。
⑮ 杨立新、赵鑫:《利用个人信息自动化决策的知情同意规则及保障——以个性化广告为视角解读〈个人信息保护法〉第24 条规定》,《法律适用》,2021 年第10 期,第27 页。
⑯ 卢卫红、杨新福:《人工智能与人的主体性反思》,《重庆邮电大学学报》(社会科学版),2023 年第2 期,第87 页。
⑰ 车洪波:《自主意识的由来与必然走向》,《学习与探索》,1997 年第1 期,第60 页。
⑱ 自动驾驶事故指2018 年3 月18 日,uber 自动驾驶汽车在亚利桑那州发生的交通事故。自动飞行事故指2019 年3 月10 日,埃塞俄比亚航空波音737MAX8 飞机坠毁,事故由波音公司安装的自动驾驶操作系统(MCAS)造成。智能医疗事故指2021 年6 月,世界卫生组织(WHO)发布“世界卫生组织健康领域人工智能伦理与治理指南”(WHO Guidance on the Ethics and Governance of Artificial Intelligence for Health),《指南》指出人工智能在某些情况下损害人类自主决策,动摇人类在知识生产中的中心地位,导致认知权威发生偏移。
⑲ Nancy Owano.Asilomar AI Principles: A Framework for Human Value Alignment,https://techxplore.com/news/2017-02-asilomar-ai-principlesframework-human.pdf,6 February 2017.
⑳ EU.Ethics Guidelines for Trustworthy AI,https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html,8 April 2019.
㉑ UNESCO.Recommendation on the Ethics of Artificial Intelligence,https://unesdoc.unesco.org/ark:/48223/pf 0000381137,23 November 2021.
㉒ 北京市海淀区人民法院一审民事判决书,(2018)京0108 民初49421 号。
㉓ 湖南省长沙市芙蓉区人民法院一审民事判决书,(2018)湘0102 民初13515 号。
㉔ 张旭:《技术时代的责任伦理学:论汉斯·约纳斯》,《中国人民大学学报》,2003 年第2 期,第70 页。