APP下载

从权力到权利:算法治理的路径

2022-11-08范玉吉李宇昕

西南政法大学学报 2022年1期
关键词:控制者权力权利

范玉吉, 李宇昕

(华东政法大学 传播学院,上海 201620)

一、引言

随着人工智能技术在现代社会的运用和普及,每个公民都仿佛成为了“透明人”,被算法所监视和操控。算法决定了每个公民在互联网中的“个人形象”,决定了每个人可以接收到的信息,潜移默化地操控着每一个公民。互联网时代,威廉·米歇尔说代码是网络空间的“法律”,而如今进入了人工智能时代,算法就是大数据的法律和规则,它决定了数据的分析和使用结果,并形成用户画像。但公民却对个人数据的被使用情况和自身的算法画像知之甚少,缺乏寻求救济的路径。胡凌早在2017年就指出:“即使人们跨越了‘数字鸿沟’,但仍然会被‘数据鸿沟’(DATADIVIDE)所歧视:算法会精确地根据各类信息识别社会主体的各类身份,将他们困在各自数据产生的无形茧房中,这不仅可能会剥夺人们接受教育、就业、贷款的公平机会,还可能给公共生活造成难以弥合的分裂。”而算法背后的平台以算法技术中立为借口,将算法作为工具,肆意剥夺算法相对人的权利,如选择权、言论自由权等。以算法为依托的平台逐渐形成了可单方面支配的权力,由于公权力的赋权、算法技术的专业性和复杂性,以及当前算法治理手段的滞后性,导致算法权力无限地膨胀,形成“算法霸权”。算法从一个工具逐渐变成了具有主体性的“掌控者”,用户的权利和义务、社会资源的调配和机制的运行更多服从于算法而非国家法律,于是算法和算法所掌控的生产性资源成为一个闭环的黑箱。然而,当前我国尚未出台算法相关的法律,许多学者针对算法治理的困境提出了算法治理路径,但均存在一定弊端,未从算法的本质出发去解决问题,故本文将基于算法治理的现状和治理困境,提出“从权力到权利”的算法治理路径,借助“权利束”这一理论对算法权利进行构建。

二、算法治理的现状和局限性

随着社会经济的发展及技术的进步,基于大数据和人工智能的算法服务正逐渐社会化、生活化。算法是用计算机执行计算或解决问题的一系列指令,是计算机执行命令的基础。从本质上看,算法是计算机在处理信息时使用的一套“决策支持系统”(Decision Support Systems,DSS),它通过一套复杂算法模型来统计和分析海量的网络数据,进而获得算法控制者所希望得到的结果。人工智能是一种算法革命,它如今已被广泛应用于社会生活中的各个领域代替人们做出决策。在大数据和算法的控制下,人们成了类似于库普曼所说的那种生存于统计学意义上的数字,人们的出行轨迹、网页浏览记录、消费信息等行为都逐渐被量化,被数字化,仿佛置身于全景监狱中,一举一动都处于被监视之中,算法逐渐由一项技术变成一种操纵社会和政治舆论的手段和工具,被算法控制者所利用。智能算法超越了以计算机程序为主的信息处理形式,以大数据和机器深度学习为基础,具备越来越强的自主学习与决策功能。随着算法技术的发展,其逐渐反过来成为支配、控制、奴役社会的力量。算法权力不断膨胀并出现了异化风险,各国都开始重视智能算法中出现的问题,并出台相应的政策以应对技术异化和算法权力的失控。

(一)算法治理的现状

当前,世界各国针对算法技术出现的问题纷纷采取了一系列措施。以欧盟为代表的立法者在数据治理框架下通过赋予数据主体新型算法权利的方式对算法决策者施加影响和控制。比如,欧盟《通用数据保护条例》(GDPR)中提到“算法解释权”,当算法相对人权益受到严重损害时可请求算法设计者进行解释。同时,GDPR中还设计了算法审计制度(AlgorithmAuditing),即对算法的技术和使用进行审查,以保证算法的合规性和可复审性。此外,欧盟于2020年发布《人工智能白皮书》,明确AI的发展必须以人的价值观和人权(如人的尊严和隐私保护)为基础。而以美国为代表的立法者则更加注重外部问责,其率先在公共领域通过组建专门机构和人员构成问责主体的方式建立算法问责制,对算法进行核查和评估,以加强算法的透明性,并颁布了《人工智能应用监管指南》以重构公众对人工智能的信任。

相较于欧美国家,我国算法技术发展较晚,国家近两年才开始对算法采取一定的治理措施,主要以法律手段为主,通过国家公权力对算法的编写设计和应用进行限制和调整,同时,加强算法控制者的法律责任和义务,以达成规制算法的目的。在《互联网信息服务算法推荐管理规定》颁布前,我国对于算法的规定主要集中在《电子商务法》和《广告法》,对大数据杀熟、精准推送广告等侵犯公民合法权益的行为进行规制。另外,我国最新出台实施的《中华人民共和国个人信息保护法》第24条也对“算法”基于个人信息的自动化决策方式作出了规定,即算法自动化决策应公平公正,不得歧视和数据杀熟,当个人认为自动化决策对其权益造成重大影响的,可要求个人信息处理者予以说明,并有权拒绝;个人还有权拒绝个性化的信息推送和商业营销,个人信息处理者不得以此作为使用服务的条件。这一条款间接增加了算法平台对重要事项的说明义务,国家试图通过加强算法平台的义务和责任来限制算法权力的膨胀。此外,我国还通过对个人信息采集、使用等方面的规定来间接限制算法的使用。然而,通过诉诸数据主体控制权和选择权的算法治理路径可能在治理效率、行业发展、集体行动和公共利益保护等层面存在局限,无助于解决算法危机。基于算法综合治理的需要,2022年1月4日,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合发布《互联网信息服务算法推荐管理规定》(以下简称《规定》),自2022年3月1日起施行。该《规定》明确了算法推荐服务提供者的信息服务规范和用户权益保护的具体要求,包括保障用户的算法知情权、算法选择权等,对于老年人、未成年人等特殊人群也作了特殊的保护规定,说明国家已经意识到算法权力化问题,并开始重视算法用户的权利保护,赋予用户权利以更好地实现利益平衡,是算法治理进程中的重要一步。

(二)算法治理的局限性

虽然,各国都基于现有的法律体系、规章制度,对算法应用中出现的风险和问题作出了基础性的规定,但从技术长远发展的角度看,仍具有一定的局限性。

首先,这种治理的局限性来自技术价值观的局限性,即将问题的产生归因于技术本身。当前算法技术是有其不尽如人意之处,但以算法技术为基础的人工智能却是未来技术发展的方向,因此,算法治理应当以促进算法技术的进步与发展为导向。任何技术都有两面性,也就是说技术也有其阴暗面,技术就如同是被打开的“潘多拉魔盒”,我们往往是在不了解未来结果的情况下开始追求技术的进步的。面对由技术产生的负面影响,人们总希望通过限制技术发展、规制技术行为来消除技术的负面影响。柏拉图在《理想国》中就将城邦的分崩离析归咎于与贸易、财政和战事有关的新技术。中世纪欧洲的行会和自治机构也常对技术革新的后果感到恐惧,总要设法阻止新技术的推广和应用。由技术产生的消极后果是在长时间积累下产生的,西方政治思想史将其称为“非故意的后果”,即行为的意义及其后果只有等到它的连锁反应已经完成时才能清晰显现,这类后果往往是消极或不受欢迎的,而且也是不受控的,但我们要做的并非限制技术的进步和发展,而是应使伤害最小化、利益最大化。技术大多时候只是作为一种工具,重要的是如何使用,而不应全盘地否认一项技术。同样,国家在制定规制措施时,也应当平衡技术发展与公民权利之间的关系,也不应一味保护公民权利而忽略算法控制者的经济利益和技术的可持续发展。

其次,治理的局限性表现在治理模式的局限性上。当前,大多数国家仍以公权力自上而下的治理模式为主,算法规制高度依赖拥有监管职权的行政机关,规制主体、规制手段和规制方式都很单一,根本无法应对当前不断出现的算法风险。以国家为主导的公权力治理模式,常常通过立法来对算法控制者施压,但任何法律和规章均具有一定的滞后性,不够灵活,无法应对多样的算法风险。同时,法律和规章的制定者往往缺乏算法技术的专业背景,对于算法技术的发展规律不了解,无法从根本上对算法进行治理。算法治理的主体应当是多元的,除了国家主体,还需发动相关企业、社会组织和公众的广泛参与,形成多主体、多元化的算法治理模式。在这种模式下,能充分调动算法控制者和算法相对人的积极性,让他们主动参与到算法规制过程中,弥补了国家单一治理主体的不足,同时也能使多主体间不同的利益得到平衡。有不少学者提出我国应借鉴欧盟对算法赋权的方式,设立算法解释权,赋予数据主体请求算法设计者或算法技术使用者对算法进行解释的权利,以提高算法的透明度。或是借鉴美国的算法问责制,在坚持政府主导和行业驱动相结合的原则下,建立算法侵权的责任分配和救济机制。但这两个治理模式均存在一定的缺陷,如赋予数据主体算法解释请求权存在治理效率低,公民技术专业度不够、加大算法主体义务影响行业发展等局限性,无法达到预期治理效果,而算法问责制也受阻于“技术鸿沟”,并将面临算法技术的知识产权和商业秘密等问题。现有的治理模式因治理主体单一化,且治理模式实操性较低,未能综合考虑国情、技术能力、行业发展、公民权利等因素,均不能从根本解决算法权力化的问题。

最后,治理的局限性还反映在法律关系的局限性上。当前,在算法权利义务的关系中多只考虑了作为算法控制者的网络平台一方,而作为算法相对人的用户的权利义务则未能得到应有的重视,导致算法相关主体的利益失衡。法律只重视对算法权力的制约,而对算法权利的保护则明显不足。对算法的治理不能仅仅停留在解决算法权力扩张的问题上,法律对算法的限制,就是要调节算法一方与算法相对人两个平等主体之间的利益冲突关系,即从对“权力”的规制转变为对“权力”与“权利”的双重规制。随着算法技术的发展,公众也可能掌握一定的算力,除了算法解释权、算法知情权等一些事后救济的权利,公众也应享有平等利用公共算力的权利。而算法控制者和算法相对人之间也不应是“利益对立”的关系,而应是“利益平衡”的良性关系,双方都以算法利益最大化为共同目标。真正对立的关系应是人与人工智能,即人类应当在算法面前保有独立的、最终的决定权和人格尊严,有权选择拒绝并对算法应用提出异议,使人在算法面前仍具有自主性。

目前,在学界有关算法治理的探讨也仍多从国家角度,即认为需通过国家立法和实施相应政策,加强公权力对算法设计和运用的把控,而忽视算法本身的特性和价值,未真正认识算法技术本身。但笔者认为,算法不仅是一项技术,更是一个“利益综合体”,其中包含了多个主体的利益,其不该也不应被单主体所拥有。当然,不可否认,通过国家强制力对算法进行把控是现行最有效的方式,但从长远来看,其并不利于算法技术和社会经济的可持续发展。此外,大多数学者在研究时只从单主体的利益出发,未将算法控制者和算法相对人置于一个相对平等的位置,不利于多主体利益的平衡。尤其是对于算法权利的研究,通过借鉴欧盟的“算法解释权”,赋予算法相对人一定的权利以保护算法相对人的权利。但并未意识到权利的前提应是主体处于相对平等的地位,双方彼此都拥有一定的权利和义务,而不能仅考虑单方主体的权利和义务。2022年1月4日颁布的《规定》中将算法用户权益保护独立成章,赋予算法用户一定的权利,说明国家已意识到了算法权利在算法治理中的重要性。故接下去,本文将通过对权利的概念和“权力-权利”的关系进行梳理,分析利用权利制约权力的合理性,提出新的算法二元治理的路径,并利用“权利束”这一概念从算法相关主体的整体视角对算法权利进行构建。

三、从“算法权力”向“算法权利”转变

权力是政治学、社会学和哲学领域的重要概念,当特定主体拥有足以支配他人或影响他人的资源时,就可以可称为权力。权力在一般情况下主要指的是国家权力,但在福柯的全景敞视主义视野下,现代规训社会中的微观权力无处不在,每个人、每个群体都在权力主体或客体两种身份之间变换来去,同样,权利的主体也不仅是个人,而是多元的。技术作为一种征服自然和改造自然的力量,一直以来都被看成是一种“中立”的力量,技术本身没有价值取向,也不具有权力的属性。但这其实是一种因无知而带来的偏见,英国技术哲学家汤森曾指出,我们由于过于依赖技术,所以对技术进步带来的明显缺点总是高度盲目,对技术所带来的负面特征反应迟钝,技术因其所具有的独特力量,正在成功地孤立和分离不同的社会阶层,老人、穷人等正在被孤立于技术的世界之外。如果技术对人的利益能够直接形成影响和控制,技术便失去纯粹性而具有权力属性。而权力的配置一开始是为了保障权利的实现、协调权利冲突,而现在却变成了制约权利。

在“三位一体”的算法社会发展中,个体权利被算法平台的私权力不断冲击,权力的增量要远大于权利的增量。算法的复杂性和专业性,加上国家在算法治理方面的滞后性,导致算法权力的无限膨胀和失控,这使得算法权力发生了异化。异化作为社会现象,是人的物质生产与精神生产及其产品变成异己力量又反过来统治人的一种社会现象。在人与物的关系中,人应当是主体,是中心,而物则是客体,是为主体人服务的,人是目的,而物是手段。“人-机”关系是人工智能组成的“智能世界”的核心关系,现在的问题是这个核心关系被“资本-权力-机器”的高度结合体搞颠倒了,在人机关系中抽离了人的社会性、主体间性、社会制度以及文化价值观等内容,从而使算法技术变成了异己的力量。对于算法权力而言,其并非掌握在国家手中,更大程度上是被企业所掌控,也就是被资本所掌控。资本的目的是使用技术来武装自己、改造自己。为实现此目的,资本就将人塑造成了一种“技术化”的存在物,也即人具备了某些机器所特有的特征,与其说人变得更像机器,不如说人不断地受到机器的“规训”而成为它的“附件”。技术和意识形态之间有着十分密切的关系,算法技术也具有意识形态性,技术是作为满足人类改造客观世界的需求而出现的,人们通过技术实现自己对外部环境的掌控,它的存在暗喻了人与自然、人与人在权力关系上的不平等地位。算法本身体现了算法设计者、控制者价值观,它的设计具有一定的目的性,并在潜移默化地影响、改变人们的行为、价值观和生活习惯。技术是人的能力的延伸,人类试图通过算法技术实现自身发展,但是,在不断激发算法技术力量的同时,却间接扩大了算法或算法控制者对个人的统治范围以及增加了技术抑制人性的力量。

在传统权利理论中,权利和权力是一组相对的概念,权利是用来对抗权力的。但现在也有学者提出,权利和权力并非相对的,权利是对实际力量关系的评价,不同的利益主体会将正当的权力和行为自由认定为自身的权利,即权利是正当的权力。因此,在算法治理时,还是应当回归到权利与权力的关系中,通过加强、完善算法相对人的算法权利来制约算法控制者算法权力的不当扩张,同时也应保留算法控制者正当、合理的算法权利。本文提出的算法权利是指算法相关利益主体具有通过算法获得正当利益的权利,算法相关利益主体既包括算法设计者、算法控制者,也包括算法相对人。当前,在算法赋权过程中的主要矛盾是赋权失衡,即作为数据主体的用户未能了解数据的使用以及算法的计算方式和结果,而拥有算法资源和算力的平台却能轻易掌控用户的信息,对其进行绝对判断,并要求用户遵守代码的规则,决定用户能接受什么信息。提出算法权利这一概念,一方面是为了对抗过于膨胀的算法权力,以调整算法相关主体间的不平等地位,使算法相关主体处于相对平等的位置,形成良性的对抗制衡。另一方面,算法权利的设立和完善可以加强算法的可信度,缓和算法相对人和算法控制者间的冲突和矛盾。算法可信度高低在很大程度上取决于算法相对人对于算法的把控范围和程度,即用户可以自行决定是否脱离算法的控制并知悉算法中对其个人的数据分析和主体角色定位等。只有把算法相关利益主体置于一个相对平等的地位,拥有相对平等的权利时,算法技术才能可持续发展,并发挥其最大效益。

当然,一项新兴权利要得到证成,首先要符合权利的概念标准,即被保护的合理性。这项新兴权利应当为既有的法律体系所容纳,即通过权利推定的方法证明,它可以从法律明文规定的基础权利中推衍出来,同时还要证明该权利有被实现的可能性。算法权利的提出无论对算法控制者还是算法相对人而言均具有一定的合理性和正当性。首先,从被保护利益出发,对于算法控制者而言,其投入大量人力和财力对算法进行开发、运用及维护,其应当享有由该技术所产生的合法利益;同时,为了算法在运行中更加准确和合理,算法控制者也应当享有对用户个人相关信息合法、合理使用的权利,只有当数据更加丰富、准确、全面时,才能尽可能避免算法歧视、算法偏见的出现。其次,对于算法相对人而言,自由、平等和个人尊严是公民的正当利益,应受到法律的保护,当自身合法权益受到算法技术的侵犯时,用户有权提出救济,当其与公共利益发生冲突时,仍具有初步的优先性。再次,从法律的可容纳性来看,算法相对人的权利主要来源于知情权、隐私权、平等权等现有权利,但现有权利无法保护相对人的合法权益,故需在基础权利上衍生出新兴权利,以适应社会的变化和发展。新出台的《规定》中明确了用户的算法知情权和算法选择权,这也是国家对确立新兴算法相关权利的进一步肯定。对于算法设计者和控制者来说,其权利主要基于算法技术的知识产权,包括控制权和使用权。但由于算法的特殊性,其使用必须基于大数据,二者缺一不可,故算法控制者在使用算法对用户数据进行分析时,不得侵犯数据权利主体,即算法相对人的合法权益,不得恶意使用、篡改数据,造成对算法相对人不良的影响。算法控制者和算法相对人是一对利益主体,在享有算法权利的同时,也能要求权利相对人承担一定的义务,以实现双方利益的相对平衡。

四、基于“算法权利束”的新构想

如前所述,算法实际上是个“算法技术+数据”的利益综合体,故算法权利在实质上应是基于算法利益这一客体,涉及多个主体的权利集合。在对这个权利集合进行研究时,无法避免陷入权利主体诉求不一样和研究视角不一致的困境。一方面是算法设计者和算法的控制者,他们以算法平台利益为主要权利诉求;另一方面是算法相对人,他们以数据所有权、个人信息权、隐私权和信息的选择自由权为主要权利诉求,二者的权利诉求具有本质上的区别。算法利益主体的多元化,导致利益诉求的差异化,权利间必然存在冲突。国家公权力能否介入算法权利,是否应当对算法进行行政干预和规制,算法权利中的人格属性和财产属性应当如何平衡,这些问题都是现实存在的。而“权利束”这一概念既能将各权利区分开,又能确保各权利间的界限,从整体上保持统一的范式和一贯的价值内涵。

“权利束”这一概念源于制度经济学,但随着社会的发展和进行,这一概念逐渐被应用于法学领域的权利研究中,一组权利基于共同的“利益束点”,以“权利束”的形式捆绑在一起,形成利益共同体。18世纪,英国法律人提出“权利球”的概念,即认为权利是排他的存在,是绝对的控制和支配权,如物权。但这一理念显然并不适应社会的发展,将数据或技术的价值占有化不符合其特性也不利于经济的持久发展。故在19世纪末20世纪初,有学者针对无形财产权的保护问题提出了“权利束理论”,在一项资源上配置多元财产权,加强对权利人的保护,防止公权力的侵入,平衡财产利益主体间的权益分配。“权利束”转变了“权利球”执着于数据或技术“物性”的核心点,其强调的是“人与人或权利与权利间的冲突协调”,并以权利相对性为宗旨,主张各权利间的完整和独立,权利间的位阶是动态、灵活的,应根据具体的场景、情形进行判断。“权利束”是自然主义向实证主义转变的产物,其起初被用于财产权领域,用于研究集合在某一种特定财产上的诸多权利。如同一财产上不断附加集体产权、国家产权,使之成为一种财产权利集合。以韦斯利·霍菲尔德为代表的学者率先从“物权”和“人权”两维度出发,提出财产权中包含权利、特权、义务、权力、豁免权等相关联的法律关系,是“权利束”而非单一权利和利益关系,权利间的界限并非是明晰的,会存在权利的交集,不同的利益主体可同时主张不同的、有限的权利。此外,“权利束”中各权利的效力位阶是灵活的,根据具体场景进行裁判,既调整了公权力、私权力、私权利主体间的利益配置,又实现了社会效率、经济利益、资源价值的最大化配置,符合法经济学的目标。“权利束”概念在社会主义文化思潮和社会经济的发展下形成,社会集体的利益成为国家发展的重要目标,而“权利束”中正好涵盖了多元的权利主体,也包含了权利类型的多样化,在同一资源上存在多元与多样的利益和可能,具有共同的利益性、享有性、开放性。

应用“权利束”这一概念构思算法权利,是基于算法权利的组成现状与“权利束”理论的契合性。算法权利并非一项类似于物权、知识产权这类简单的权利,而是多个主体权利的集合,它既包含了法律已经规定的人格权,也包含了一些新型权利——由算法派生的财产权,以及可能存在的知识产权、商业秘密等。这些权利能成为一个集合是因为其与算法有着直接的关系,均以算法利益为基础。算法控制者需要基于数据进行运算分析,但数据中又包含了用户的使用习惯、生活情况、通讯隐私以及其他各种可能识别出个人身份的信息,这就导致算法权利中必然包含了人格权的属性,也正是因为其具有人格权属性才衍生出了财产权属性,数据和算法的“合作”使其产生的新数据具有了新的价值性。算法的应用一方面给算法控制者带来了商业利益,另一方面也给算法相对人在“信息爆炸”的时代带来了便捷,我们不能一味的否认算法的价值,对算法进行制约,而应该将二者作为利益的共同体,使算法在应用时产生最大的价值和利益。以算法利益作为束点,对于算法模型设计者、算法控制者而言,其需要获取有效数据,利用算法对用户的各类数据进行分析,以形成对自己有利的算法分析结果,吸引广告商户的投资以增加经济收益,可拥有算法获利权、算法排他权、算法使用权、数据请求权等权利;对于算法相对人而言,其可通过算法获得自己感兴趣的信息资源,提高获取有效信息的效率,但也可以在权利受到损害时或有必须需求时,也可请求算法控制者告知算法分析情况以寻求救济,其拥有如算法解释请求权、算法知悉权、算法拒绝权等权利。虽然,“算法权利束”各主体的利益诉求不同,但均需通过算法才能得以实现,虽然算法决定了人在网络中的形象,但算法的价值也只有在获得公民有效数据的前提下才能实现。主体间形成相互牵制的关系。当然,各主体在行使权利时仍应具备一定的边界意识。个人和集体基于人格权对底层数据拥有绝对的权利,这是法律规定的基本权利,任何个人和组织都不得侵犯;算法控制者对数据拥有使用权,并不是任何数据都能被平台所使用,其应当保证数据在合法范围内被获取、分析、输出和使用,而不能在算法中加入歧视和偏见,侵犯数据主体的合法权益。当然,为了保证算法的合理性和准确性,算法相对人应提供真实、准确的数据,不应伪造虚假数据,只有这样才能保证算法运行的精确性。只有保证数据在算法相对人和算法控制者间的自由流通,才能保证算法的合理性和准确性。

此外,权利间也具有价值位阶,当面对诸多权利竞合时,应当做出优先保护何种权利的选择。“正当性”是权利束的价值前提,只有在正当这一前提下,权利才能受到法律的保护。算法权利束具有多主体、多层级性,具有一定的社会公益价值,它是仅在集体项下才能产生的利益,是算法控制者和算法相对人利益平衡的结果,缺一不可。算法相对人在贡献数据、促进数据流通的同时,促进了算法技术的进步,算法技术的进步本身包含着公共利益的内核;算法控制者通过算法加工而产生的新数据也已不是个人数据,而具有了公共利益的属性,它将在促进信息的精准传播方面发挥重要作用。当然,在算法权利束中,人格权的价值优先于算法控制者财产权的价值。人格权是公民的基本权利,受《宪法》保护,算法控制者对用户的数据应尽保护义务。算法利益本质上来源于用户数据的价值,保护好公民的人格权也是保护数据产业的资产基础。但也存在例外,出于公共利益、公共安全、国家安全等考虑,国家和算法控制者在紧急情况下可未经相对人同意利用算法对大数据进行分析和处理,以保障国家安全和公共利益。在保护好算法相对人人格权利的同时,还要保护好算法控制者(算法平台)的财产权。保障互联网产业、算法技术的健康有序发展,要注重公平原则,不能过分强调审查义务,致使算法维护成本过高,妨碍算法技术的发展,仅有当算法相对人主张算法结果严重不符、算法侵犯其名誉、隐私权时,算法控制者才有义务作出回应。

五、结论

猜你喜欢

控制者权力权利
我们的权利
从“控制者”变身“隐形人”
论人工智能的刑事责任能力与追究
不如叫《权力的儿戏》
浅谈中小学财务人员角色转换的紧迫性
数据控制者的权利与限制
论不存在做错事的权利
权利套装
与权力走得太近,终走向不归路
唤醒沉睡的权力