人工智能时代算法法律规制与数字人权保护问题探析
2022-02-05李文静杨洪斌
李文静,杨洪斌
一、选题缘由
“算法”这一名词源于9 世纪波斯王国的一位数学家,它被当作数字的运算规则。有学者认为算法在广义上是一种解决所有领域问题的操作步骤,是明确且具有目的性的。有的学者更倾向于狭义上的算法概念,认为它是一种纯粹性地解决问题的科学技术,主要应用于解决数学难度或者是电脑程序问题。还有学者认为算法就是一套有公式的指令。其实,算法并非简单意义上的数学算法,也不是仅指个人决策的算法,而是两者都是,是人机交相决策的算法。目前,算法深入到了人类社会的各个方面,例如借助消费者的个人信息和使用习惯等数据,实现用户需求和服务的快速精确匹配,又如司法系统应用算法来提高案件判决的效率与公正性。但是,不当应用算法会造成社会危害,比如过度采集用户信息侵犯个人隐私、大数据杀熟、不当操纵流量分配干预平台商家经营等。
算法作为一项技术,可以说是科技日益发展的结果,其应该是中性的,具有客观性。但算法也有其自主性,其借助统计方法可推到出新命题或者新的规律。互联网领域是算法应用的重要场景之一。在信息技术方面,算法是人工智能的焦点,是处理以及运用大数据关键环节。算法运用的结果会通过一定的途径传播给大众网民,网民通过算法大数据的结果获得信息,借助网络平台交流信息,这一过程会影响他们的知识、眼界、思维角度,也会影响他们对生活、社会、国家的看法。因为算法是有自己独立的逻辑以及方式,并非完全具有客观性,也可以是主观的,这就是学者哈贝马斯的观点“算法也可以是一种意识形态”。
技术也需要不断革新,回避坏的结果,实现自我完善。技术的不当使用可能会破坏社会的稳定和危害到个人的利益。算法作为一项先进的科学技术,一定的具有自主性,可能会引发风险。因此,需要对技术人员适当强调风险和注意义务。技术人员应及时根据不同的场景预估不同的风险,从而更好地应对不必要的危险。
科技日新月异的发展,虽然会带来一定的未知风险,但其因为具有先进性,在推动社会向前发展以及提高公民生活质量上发挥着重要作用。所以,在面对法律规制与科技发展的关系问题上,我们要找准平衡点,处理好两者的关系。对此,立法机关应完善、制度体系,维持社会稳定。
目前,具有代表性的相关研究主要有:沈伟伟在《算法透明原则的迷思——算法规制理论的批判》提到,与事后规制相比,算法透明度原则作为一种事前规制方法,其效力存在天然缺陷[1]。就算法透明性原则在算法规制中的合理定位而言,它应该处于非通用和辅助的位置。与本质性强、以算法透明度为代表的事前规制相比,以实用主义为指导、以算法责任为代表的事后规制更为合适。谭九生、范晓韵的《算法“黑箱”的成因、风险及其治理》认为,算法技术的复杂性、相关法律政策的缺乏、算法的局限性、公开算法的力量不足以及算法安全性的维护不足等因素导致了算法“黑箱”[2]。要治理算法“黑箱”,关键是实现“有意义的算法透明度”,这可以遵循建立政府责任和义务体系的路径,促进科技公司的对外开放,发挥社会组织监督作用。邓志宏、孙佳灵的《我国人工智能法律规制问题初探》的主要观点是:当前人工智能法律规制的难点在于人工智能发展阶段与法律规制范围的差异;法律只能规范已经发生的和社会上可以预见的风险;算法知识的盲区和有限的立法技术使得人工智能系统规制的目标难以实现;法律规制应更加关注人工智能应用的特定领域,即遵循中国采用的分散立法的保护方式,合理借鉴国外的保护方式,结合具体行业进行规制[3]。苏宇在更深层次上讨论了该算法的规则,并对其价值目标和机构设计进行了分析。他认为,任何规制活动都应在具有法律价值的特定目标下进行。因此,确定算法规制的价值目标是解决法律规制这一重大问题的关键。确定价值目标的具体选择应由立法者决定,因此由行政和司法机构在立法决定的框架内通过法律程序加以解释。赵学刚、马羽男在《算法偏见的法律矫正研究》中指出,无论我们多么强调对算法的监督,不扼杀创新和行业竞争力都应该是管理的底线。如果苛责太多,因噎废食,我们将落后于时代。可以建立一个新的内部和外部监管机构来监管数据公司[4]。本文在借鉴上述研究的基础上,将欧美等西方国家的相关立法制度与我国现行的算法法律规制相比较,分析了我国现行法律规制的不足之处,并提出了建立未来立法规制体系的可行性建议。本文的创新点主要有以下三个方面:一是在详细梳理、分析相关的法律法规以及指导性文件基础上,提出算法法律规制的路径;二是扩展了研究视点,不局限于研究特定应用场景下的法律规制和技术手段的完善;三是在研究内容上,较为全面地总结了算法的不透明性以及算法可能导致的算法歧视等法律问题,并分析了这些问题背后的真正原因,较为系统地阐述了规制算法的具体方式。
二、人工智能算法法律规制面临的困境
(一)算法的不透明性
作为一种新兴技术,算法本身具有技术的难度和复杂性,算法的应用过程还不为普通大众知晓。这也是算法迅速发展壮大路上的绊脚石。
首先,算法透明化缺乏可操作性。算法透明,换种语言可以说是算法公开。算法公开其实是对算法数据运算的发布,还包括对数据代码的公开。算法的不透明性,本质上是算法技术的复杂性造成的,并不是人们主观故意使然[5]。不是学习专业代码技术这类人,即使算法公开透明,也无法理解其内容。算法究竟是如何运转的,即使是有一定专业技术知识的人也并不十分清楚。
其次,算法透明的实现面临风险挑战。假使算法的透明性部分实现,算法具体向相关主体披露或解释,那么,算法的透明性可能仍然存在是否可取的问题。例如,算法一旦实现其透明性,有的人就可能通过设置相应的参数和制造数据,利用计算类方法达成自己相关意图,进而对其他人的正当权益形成损害。算法的公开还有可能导致算法的知识产权受到侵犯。从原理视角上分析,不管是基于劳动价值论还是基于促进投资的功利主义原则,将算法作为商业秘密来保护知识产权都是正当的[6]。人们会简单地将算法彻底公开等同于算法正当,忽视了算法隐含的价值观念以及对公共事务产生的影响。
再次,算法黑箱普遍存在。算法是一种典型的技术工具,应该是客观中立的,但由于其身特性和技术应用不当,算法黑箱化现象比较普遍。算法黑箱的存在,在一定程度上会损害个人的合法权益,影响公众对算法的认知,造成政府法治现代化推进的缓慢[7]。算法黑箱使得人们无法保护自己合法信息方面的相关利益,黑箱运作是一个专门的场域,公众不知道也看不到其中的规则,参与不到决策的流程,那么,风险的规避就无从谈起,只有默默无奈接受最后的结果。算法可以说不光是在预测,更是在帮助、主导用户的行为[8]。
(二)算法正义遭遇危机
作为一项技术,算法是客观中立的,所以大部分人认为应用算法技术得出的结果,也是客观的,会有效避免人为操作可能造成的不公正问题的发生。其实不然,在人工智能算法决策中,算法歧视和不公正现象并不鲜见。
所谓算法歧视,是指人们在操作人工智能时采用的算法运算导致不公平或者错误结果出现,造成用户基本权利的损害。比较常见情形是价格歧视,大数据“杀熟”现象屡见不鲜。出现算法歧视的原因,一方面是算法编程人员或者使用人员的主观偏见。设计者带着自身的偏见与歧视,将其编入算法程序,自然算法决策出来的结果也是不公正的。除此之外,收集数据的过程可能也存在许多歧视机制。算法在不停更新学习自我完善的过程中也体现这种趋势。大数据合集的不完备性依赖于人类社会相关不确定性和复杂客观事实[9]。有些歧视可能造成不了什么影响,可是假如算法歧视牵涉到个人或者企业的信用评估、犯罪风险预测等重要事情,算法决策相关结果可能会牵涉到贷款额度、刑罚轻重等问题。这类情况则需要引起我们足够重视。
面对日益扩张的信息鸿沟,用户普遍缺乏足够的能力和必要的知识对抗实力悬殊的数据掌控者,但又难以拒绝诱惑而不得不在鱼或者是熊掌之间艰难抉择。最终的结果很可能是为了获取便利而逐渐舍弃对平等权的守护[10],这必然使得用户识别算法歧视的阈值越来越高,长此以往,用户就会产生耐受心理,甚至对社会不公表现出“格式化”和麻木的心态。这种情形势必会给平等权保护带来可怕的后果。
(三)规制算法的针对性条款存在欠缺
为应对大数据时代的潮流,维护社会稳定,我国立法部门也对算法进行了法律层面的规制。主要包括我国的《网络安全法》《数据安全法》《个人信息保护法》,此外,我国最新颁布的《民法典》中“人格权编”也对此有规定。但是,我国这些法律是偏回应型的,更偏重对算法结果的规制。法律规范文件多而密集,反映出立法机关对这一问题的高度重视,但是,从另一方面看,法律规范文件的纷杂也不是好现象,这可能引发数据主体的滥用风险。
《网络安全法》对行政机关监测网络和维护网络相关职责的规定,重点涉及网络运行与信息安全维护。单从文本上看似乎是科学合理和清晰的。可是我们对照实际情况会发现很多问题。例如,该法第41 条规定:“网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。”但负责网络运营的人怎么公开以及明示信息,其公开明示义务在何种程度上可以满足信息被收集者相关了解范围?网络运营者实际上可以应用算法自动关联技术规避这条规定,即这条规定没有办法阻止数据主体的个人信息被单方面收集。由于其自动关联性,该算法仍然可以绕过上述规则,在未经用户授权的情况下提取个人私密信息。
我国《民法典》制定了数据保护规则,意义重大。这主要体现在该法典第1035 到1039条。但是除了规定保护个人的隐私权益,规定对自身信息的查阅、删除、更正等权利之外,该《民法典》中并没有对一些类似于“私密空间”“私密话语”进行范围界定[11],也并没有认可诸如限制处理权、数据可携权。其规定个人信息处理的法律原因是个人同意,这没有办法打破强制束缚,没有更多有针对性的权利,例如拒绝算法自动处理数据的权利。
三、人工智能算法法律规制的完善
(一)做好算法透明的顶层设计
在顶层设计上,政府需要对算法公开的相关内容以及公开的度,完善相关的法律法规。
这里的算法公开,应该是根据不同的算法内容区别处理,即不同的算法内容,公开程度是不一样的。作为一般原则,算法都应该采取一定的方式进行公开。开放式算法在不侵犯知识产权的情况下,有关部门决策者需要借助算法进行决策的,应尝试以普通人能够理解的方式对算法进行逐一解释并予以公开。在这种情况下,算法相关开放性和透明性为法律讨论供给一条良好途径[12]。此外,可以就算法引发的危害进行等级划分,不一样的等级采取不同的公开方法。这种体系的构建必须有个前提,即在算法中的任何一风险等级,用户都有权拥有最简单明了的基本操作方法,并告知用户有对算法结果提出异议的权利,对于不理解的地方也享有要求对方解释的权利。风险可以大致分为三个等级:一级风险、二级风险和三级风险,风险等级依次递增。算法中的一级风险和二级风险,可以设定恰当的公开范围,同时把征得用户同意的依赖程度降低。具体实施上,对于一级风险的算法数据,技术公司在公开的时候不用征得用户的同意,减轻公司企业的压力。具有二级风险的算法,应当让用户以显著的方式意识到风险的后果,并采取积极主动的措施,减少应对风险的迫切需要。如果用户不愿意做出一些措施去降低风险,就应该立即停止算法的运作。高风险场景的算法应重点公开,对于数据的收集分析要经主体同意,告知其数据处理的情况以及涉及的逻辑信息与处理的重要性与后果。在面对第三等级算法风险时,收集数据信息时需要征得主体同意,同时需要告诉他们处理相关数据的具体情形、收集这些数据的必要性以及需要面对的后果,这是需要重点公开的方面。另外,我们还可以采取小规模披露的方式。所谓小规模披露是指算法可以向企业的决策者披露,也可以向企业的其他人员披露。在企业决策体系内部设立算法专业法律委员会,选举产生部分专业委员,加强对算法的评审[13],通过这样的方式去保证算法运行的合理合法性。
(二)加强算法监管
为了能更好监管算法,防止算法歧视,需要加强算法监管。2022 年3 月1 日起施行的《互联网信息服务算法推荐管理规定》,将算法推荐服务全面纳入监管。该文件规定,算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。该规定涉及的个性化推荐如何更加规范,仍然面临挑战。但是,该规定的出台促进了互联网平台的算法技术进步,有利于推进相关行业的数字化转型与平台经济的健康发展。
算法监管可以从两个方面双管齐下,其一是算法制定者的内部监管,即设立数据保护负责人团队。负责人需要拥有法律知识和技术知识,是复合型人才。为了有效决定自动决策算法,立法还需赋予数据维护负责人对自动决策算法结果的抵制以及上诉权利。数据主体享有数据访问权、算法拒绝权以及申诉复议权,在对自动决策算法结果不满意时,可以行使上述权利。算法控制者应当定期检测算法模型中的数据偏差,避免对服务对象产生歧视性影响,如果其未能履行此项义务,算法控制者就应该被问责。其二是加强外部监管。虽然这两年,国家有成立政府的数据监管局,但其职能更多体现在政务公开层面。所以我们需要建立一个专门的算法监督管理机构,来应对算法歧视的泛滥。数据主体可以通过专门算法监督机构去找寻政府救济,更好地保障自身相关合法权益。因此,这类监督机构,首先要保持自身独立性,可以借鉴监察委相关设立模式。同时也要保证其财政独立。对于哪些被算法监督机构监管,即监管相关对象必须明确。既可以是技术企业,亦或以是算法本身,也可是算法使用者。更重要的是算法监督机构人员的构成,必须要求是专业技术强,法律意识充沛的人。监管机构要把风险预防作为目的,通过对数据进行筛查、评估以及专业恢复等方式,加强对数据质量的剖析。
(三)细化立法条款,明确问责机制
细化立法条款,明确问责机制是一项挑战性强的工作,需要一个过程。但是,这项工作已迫在眉睫。
首先,对于已经颁布的法律,有些内容和法律概念应予以细化。由于算法的设计、操作是放在网络环境下进行的,所以,《网络安全法》的相关规定适用算法的规制。例如就该法的第22 条,网络相关产品以及服务应遵守国家标准强制性规定,那么,必须对恶意程序进行限制性约束,网络产品和服务符合不得设置恶意程序。法律禁止组织或个人使用算法侵犯他人权利或公共利益。但可以针对该法第41 条,对网络经营者的公开和明示义务作出规定,例如牵涉到公民个人利益的,在不侵犯其知识产权的情况才必须公开。
其次,还需明确算法责任制度。在算法问责主体上,可以将设计者、操作者或者第三方侵权人当作问责主体。如果算法内部出现问题,则将算法设计者当作问责主体。如果是使用过程中发生侵权事件,则追究算法操作人员相关责任。在归责问题上,过错推定原则具备正当适用性。关于侵权因果关系的认定问题,由于算法与客观损伤之间没有直接的因果关系,需要综合考虑算法模型、主观意图和损伤大小来确定[14]108。在算法侵权举证责任分配相关问题上,可以采取举证责任倒置更加方便举证以及质证。因为侵权主体一般都是拥有专业技术知识的人。算法侵权责任相关承担方式应包括赔礼道歉、经济赔偿、积极消除算法影响等类型。针对造成严重财产侵害的情形,可以建立惩罚性赔偿制度。由于我国关于算法规制的法律过于分散与模糊,立法机关也可以借鉴国外的相关立法经验制定符合我国国情的《算法责任法》,整合有关规制内容。
四、涉人工智能算法数字人权的保护
数字技术发展也应树立以人为本的理念。算法规制的实现离不开数字人权保护。数字人权的涵盖面极为广泛,数字技术的各个应用场景中,都存在数字人权保护问题。我国正在致力于构建人类命运共同体,加强数字人权保护可以增强中国在科技立法和数据治理方面的国际发言权。算法的法律规制手段只能解决算法公正的短期目标和中期目标,长远来看,算法公正需要借助数字人权保护来实现。
(一)数字人权理念
众所周知,前三代人权的内容主要是公众参与、生活标准和物理世界的公平发展,牵涉到实质层面上的人、物和行为,是不涉及到数据信息的。现在,随着数字时代的到来,一切从个人隐私到公共生活和财富,从服装、食品、住房和交通到公共安全,都在加速计算机化和数字化进程。离线状态下的纯活动较少。虚拟世界和现实世界的区别正在失去其原有的意义,所有人的数字生活将更加详细。因此,所有人权,包括生命和财产、工作和就业、社会保障、文化和教育,通过计算机化和数字化,如:隐私和个性、智能政府和公众参与、保护虚拟财产、网上言论自由等,已经被解构和重建;或者迎接了数字分形、算法歧视、算法霸权、公司监控等新的挑战。在当今,数字生活中由数据信息填满,不可或缺。它也成为新时代人权的新载体和日益重要的表达,人权内容或人权形式正在从前三代人权的物质支持转变为当前人权的数字支持,这构成了第四代人权的发展动力和基础。
当今数字时代,海量信息数据是人们身份、行为、关系的具体显示和场景再现,是人的数字属性、数字定位和数字生态的必要资源,也是构成人的资格的核心要素。算法的黑匣子,算法的霸权和算法的差别等问题被强调和普及,人脑的决策也日益会被算法这类自动化决策所替代。目前,核心问题不再是合同自由和产权,而是数字人格,包括个人电子信息的知情权和个人电子信息不被非法披露、篡改和破坏都是个人人格权的重要内容。因此识别数字人格是保护数字人权必然途径。
(二)数字人权面临的压力和挑战
首先,黑箱阴谋现象正在变得越来越严重。用户最终选择接受结果,是因为他们无法看到规则、表达不同意见和参与决策过程。因此,有的算法“不仅是预测,而且有助于控制用户行为”,这当然会构成各种“阴谋”的黑匣子,歧视、不公正、不当利润甚至欺诈在所难免,人权保护自然面临挑战。其次,没有监测方向的扩张。一些国家的贸易组织和政府经常随时以各种名义监测和检查个人数据信息。再次,数据控制的严重不对称非常突出。所有数据都是我们自己生成的,但所有权不属于我们。个人背景的透明度越来越高,外人对各种信息的收集和了解甚至超过了自己,加之,一些新黑科技的应用,网络窃贼可能正利用你的脑电波窃取个人信息,因此,一般公众很难知道他们有多少个人数据和信息被他人控制。这意味着日益增长的“信息垄断”和“信息鸿沟”可能危及个人隐私,自由平等和人的尊严,损害数字时代的公平机会、社会教育、工作和社会保障等各项人权。
近年来,种族、性别、身份、宗教和健康状况等方面的算法歧视在不少领域都有发生。借助自动信息处理,算法运营主体可以绕过反歧视限制,对特定群体进行分组。因此,掌握算法的公司和政府机构依靠一系列隐藏而强大的信息和精确的计算能力,通过虚拟空间实现远程存在,为所有特定对象提供其所需要的资源,并实现抽象和广泛的自动识别。其后果具有普遍性、长期性和深远性,自现代化以来严重侵蚀了反歧视人权。事实上,信息隐私和算法歧视都不是简单的个人现象,其在一定程度上已经演变为一种社会现象。在其他领域,民众参与智能政府决策、网络言论发声、虚拟社会组织,平等和正义等权利的变化也很普遍。在这些场域,民众的私人权益往往处于更为脆弱的地位,难以得到有效保护。
事实表明,自计算机问世以来,技术变革的主要问题是权力的转移,这导致人类从工业社会向算法社会转移。最初,算法社会的主要目标是提高智能和人类的自主性。这些自动化系统已经从简单的行政工具转变为主要决策者,收集了大量个人数据,使政府和私营公司能够采用新的监测、控制、歧视和操纵形式。人们自己去主导的时代,已经被高效便捷的算法来主导。有学者预测,人工智能可能会逐渐成为国家和国际经济的主导者,这一趋势说明经济自由和资本主义结束了。因此,加强个人自主权,反对集权。
(三)数字人权保护机制的构建
首先,将人权和道德的相关价值观融入算法中。算法和价值选择的优缺点与互联网公司可以获得的用户数量和流量有关,也关系到互联网公司的利益。只有通过完善规则和管理人性,我们才能充分享受科技的红利。在数字技术驱动的数字经济和数字社会背景下,研发公司的知识产权保护必须严格遵守尊重公民人权的原则,如隐私权、数据权和知识利益共享[14]117。科技发展的最终方向是人。互联网公司开发和应用新技术的目标应该是最好地为人们服务,在服务提供过程中获利,不是为了利益而伤害人们。当下,我们必须高度警惕推荐算法正在改变信息披露的逻辑和规则。要确保符合主流价值,以主流价值取向控制算法,大幅提升舆论导向能力,我们可以确保算法的识别和应用不会偏离轨道,更好地服务于社会。我们不仅要注意从技术层面对数据和算法的区分,还要从价值层面对数据控制员进行引导,避免基于自然利润需求引入偏差数据和算法。
其次,促进数据和信息自主的制度化进程。对于数字人权这一概念具有重要影响意义的就是“信息自决”这一概念了,这一概念的提出对保护数据信息以及权利具有划时代的意义。其意义主要体现在,个人数据不受国家的无限收集、存储、使用和传输。但它不是一项绝对的权利,实际上它受到一定程度的限制,与其他原则一样,这影响着数字化的发展前景。我们应找到平衡点,并予以制度化,以更好地保障信息权益和数字人权。
再次,我们必须确立算法的伦理原则。算法歧视、算法控制和算法投喂等问题的解决,仅靠法律的外部规制是不够的,最基本、最频繁的是决策算法的内部自律。公正的实现需要借助算法的质量监控。因此,有必要将人权和法治的必要价值纳入算法决策中,并定义算法自律的标准,即:在国家立法、行业自律和社会评价中确立算法符合“良法”的伦理原则,以尊重人权价值,维护数字人权,促进社会公平正义。