APP下载

政策导向下算法控制法律风险及其治理

2022-02-05王琳琳

警学研究 2022年1期
关键词:决策算法

王琳琳

(吉林警察学院,吉林 长春 130117)

从上世纪90年代开始,数字经济经历了互联网经济、数据经济至算法经济的迭代发展。从技术上讲,算法是编码程序,是代码中起决策作用的部分,或者说算法是为迅速实现预期结果而编译出的一系列逻辑步骤。从法律政策角度看算法特指决策算法,OECD(经济合作与发展组织)明确将算法界定为能够做出影响现实世界或网络空间的预测、推荐或决定的机器系统,算法虽有不同层次的自主性,但其目标均由人类确定。[1]目前算法决策被广泛应用于私人领域和公共领域,它可以用来接管、替代、补充或辅助人类判断、预测、决定。在私人领域,算法决策已经成为诸多商业模式的基石;在公共领域,算法辅助决策因具有强大的统计预测能力、推荐能力,能够用来解决人类难以决策的复杂问题。①例如,美国利用COMPAS算法对“未来罪犯”概率预测评分,虚拟律师Ross在Baker &Hostetler律师事务所提供法律服务,电子商务平台按用户购物习惯推荐商品。当然除决策外,算法还可以有多种用途,如围棋机器人AlphaGo可以与人类展开对弈,绘画机器人AARON能够自主创作。本文与OECD一致,算法主要指预测、推荐、决定算法,本文统称为决策算法。一般来说,划时代的新技术总会推动社会变革,社会关系的变化必然引起法律规范的调整,因此新技术的法律治理充满挑战。算法经济时代,算法渗透到生活方方面面,随着算法决策的广泛应用,算法变成了一种新的控制机制,成为国家和市场之外的新制度和新力量。本文主要研究算法控制性及其产生机理,梳理了算法控制社会表现及法律风险,以政策为导向提出算法治理原则和法律逻辑,并在此基础上提出了算法治理的法律策略。

一、算法控制的形成及表现

计算和大数据无处不在,算法决策已经成为公共服务创新和商业模式创新的基础。当我们想要认知算法及其产生的力量时,视其为单纯的代码似乎是不正确,算法是社会生态系统的一部分,我们应找到其作为独立实体与社会所发生的相互作用关系。[2]算法决策改变了算法运用管理者与公众(算法被决策人)之间的关系,也改变了社会的制度构成和权力结构。因此算法也被认为是一种新机制,具有约束控制的特性(governance)。[3]

(一)算法控制产生机理

算法作为一种技术,能够直接影响和控制人的利益,算法因此失去了纯粹性而具有权力属性。[4]算法控制力与国家权力、行政权力不同,它是非科层化、具有自执行性、多元网络实体间的分布式控制力量,它的形成有独特的机制和机理。

1.从技术特性上看,网络是有自组织性的生态系统,算法是构架网络生态系统的重要组成部分,通过运算网络信息流处理逻辑,形成去中心化的调控模式。21世纪的互联网是超级网络,即每个端点都可以与其他端点相连接的网络。依据群体感应原理,超级网络社会是由网络要素(包括个人、机构、协议、信息、机器、程序等)所组成的均衡、协作且能够自我调节和自我组织的生态系统,即具有自组织性、能够摆脱人为控制的有机体。超级网络的自组织性并不是一种直接、单一的因果性力量,它的组织过程比较微妙,其生命力不来自网络上某一个交流或交易,而是来自持续变化即动态发展的交流或交易。因此,这种自组织模式是非中心化的调控模式,其控制不由某个人或某个机构所决定,而是多元主体通过网络工具及机制相互作用形成,并以信息流的方式呈现出来。当算法引入信息流时,信息处理由算法完成,算法编辑信息流的计算逻辑,回应信息流并根据信息流情况进行操作。当出现失灵或错误时,算法通过不断的试错、纠错提升其适应网络生态的能力,使其随着网络发展不断进化,可以说算法具有控制性,它以代码的形式重塑了网络的控制规则。

2.从控制形式上看,网络环境下算法控制是数字化、自我执行、多元网络实体之间的分布式过程控制。我们能体验到的是,人类尤其是算法的研发、运用管理者控制着算法,实际上,算法也在指引和控制着我们的交易和交流。当我们的生活被信息化、数据化时,资本、人口、产品、基因、传媒内容等均以数字的形式在网络空间传播,算法的计算逻辑便成为组织生活的标准和原则。如算法通过建立在个人信息基础之上的市场行为或国家监视行为,将人们打分、评价、分类并贴上标签。人们被算法逻辑控制,算法影响个体及集体的行为、影响人们的选择、影响社会秩序的建构。也就是说,算法之下隐藏着算法的组织力、行动力和控制力。算法凭借其在通信网络中的监视、分类、组织、过滤、决定、传输数据等力量实现控制,其执行力不来自外部,不依赖管理机构强制执行,也不由人们的信赖和信仰来保障,因此算法控制是无等级且具有自我执行性的力量。算法控制力分布在网络中,遍及网络每一个角落,其控制过程是非人类的,不模拟人类决策,换句话说,算法控制是在网络交易和交流中产生的,一种以代码形式存在的调控性力量。[5]

3.从技术功能上看,算法是问题解决机制,它在自动决策过程中充当守门人角色,即通过控制网络信息传播,限制或促进某些行为喜好,建立调控基本构架或确立调控的主要决定性因素,进而决定商品、服务或是传媒内容的生产、分配和消费。可以说,随着算法应用日趋深入,算法在思想意识、行为模式及社会秩序等方方面面发挥着形塑和构建作用。网络社会中,市场、政治、公共关系、传媒等都要通过信息与社会公众发生互动。算法对网络信息进行再分配,能决定哪些参数是相关的(评价排序)、什么内容可以被看到(个性推荐)、可预测趋势是什么(犯罪预测)、何种产品应当被生产和消费(算法编辑)。如新闻聚合平台根据信息流算法对其用户进行个性化新闻推荐,决定用户能够看到什么并不断强化。因此,算法在组织活动、实施行为、施行功能的过程中,不仅决定公众接受的信息,而且能够向公众灌输价值观、调整人们行为。算法是准社会制度,它像政治法律制度和市场机制一样,起到构建公共秩序的作用。

4.从应用效果上看,算法不是中性的技术,政府或企业基于公共利益或企业利益的需要,可能将管制思想嵌入算法中,政府或企业监管不直接作用于人,而是间接由算法规制来实现,算法的安排本身便是权力的安排。网络空间构架经历了由自由范式向管控范式的发展,算法是其主要的技术支撑。也就是说,虽然算法是种技术,但在受政府或企业影响的社会化进程中,监控理念逐渐嵌入其中,例如早期TCP/IP协议仅有数据包传输功能而不能查看内容,随着网络监控思想的产生,TCP/IP协议被植入新的算法,网络管理员被赋予了审查网络数据包内容的权限,算法加强了网络的规制力。[6]从私益角度看,一些公司基于监管思想,利用算法阻拦所有包含即时聊天内容或与外部进行邮件往来的数据包,甚至是截取电子邮件来对员工工作能力和表现进行评价分析。可以说,算法编译出网络空间的权限或权力规则,并且由于算法调控的自我执行性,算法权力安排成本更低且更加有效。

5.从应用场景上看,算法主要有四种应用类型,这四种应用场景产生不同层次的算法控制。

(1)互联网基本构架算法——网络社会意识形态的技术表达。它发挥互联网基础设施作用,决定网络社会意识形态——是自由还是规制。此种算法控制是全局性算法控制,针对互联网上所有用户,重塑国家、资本和公民的关系,具有构建社会的力量。

(2)平台算法——算法与资本的结合。平台算法是在平台上以低成本、高效率的方式匹配商品、服务、资讯的生产与消费、供应与需求,通过组织分配各种资源获取收益的算法。平台尤其是为数不多却主宰市场的超级平台,具有数据、注意力、技术等优势,能够产生规模效应,大规模用户使用平台就要受平台算法的约束与规制,算法也因此掌握了较多的价值和较强的控制力。

(3)辅助公共决策算法——算法与公权力的结合。它指应用于失业、救济、财政预算、税收管理、社会治安、公共安全等公共事业领域,辅助公共决策的自动决策算法,其控制力来源于公权力对算法形式理性的依赖。这一领域,算法逻辑便是权力行使逻辑,是配置公共资源或提供公共服务的逻辑,其结果是“把官僚制的工具理性弊端推向新高度”。[7]

(4)私人领域自动决策算法——算法对现实空间的直接作用。它指应用于现实的私人活动空间,替代或辅助人工决策的算法,适用于辅助医疗、法律服务、银行贷款、入职测试等方方面面。这种算法通过补充或替代专业人才的技能和经验,对影响人们利益的事项作预测、评价和判断,进而控制人们的社会生活。算法控制能够催生强力,伴生歧视、不公等技术风险,算法治理不仅要实现算法控制理性化,也要规避算法控制产生的各种侵害。

(二)算法控制表现

信息时代,社会关系可以由数字形式展现出来。算法控制遍布网络空间,作为独立实体,算法是社会生态系统的一部分,它能够塑造文化、分配资源、调控行为,算法对现实社会的形塑作用是算法控制的外在表现。

1.算法塑造文化。

(1)调控思想市场。网络传媒环境中,信息是海量、复杂且碎片化的,网络导航、传媒内容的生产消费等过程须由算法辅助完成,搜索引擎算法、内容推荐算法能有效帮助人们检索信息或选择浏览内容,无技术支撑的人力筛选则力有不逮。在思想市场中,算法的价值甚至要重于内容的价值,算法计算思想市场上的大数据,分析思想市场需求、预测精神产品趋势。算法传媒消费数据是算法传媒生产的驱动性资源,算法逻辑替代专业标准,对精神产品生产、传播进行决策。当然不同算法之间会有竞争,竞争情况反过来又共同影响算法传媒消费。换句话说,传媒消费活动以数据的形式反馈给算法,算法决定在搜索和推荐过程中如何应用和处理这些数据,作为其处理结果的算法输出又反过来建立或是限制传媒消费的体验。[8]因此,算法发挥调控思想市场的作用,它指引精神产品的生产、分配和消费。

(2)形塑集体意识。第一,在智能社会,算法提供、聚合信息并对其进行组织和分类,通过选择或回避某些信息、知识,算法强化了某种道德观、价值理念的产生和传播,并凸显了它们在社会中的作用。[9]也就是说,算法通过逻辑计算调控传媒内容,进而影响人们的思想观念和行为意识。算法因此成为塑造个人认知和集体意识的机制,社会行为秩序是社会共同意识和共同信念体系的产物,凭借知识、文化和价值观的力量,算法构建了社会整体的行为模式。第二,在电子通信时代算法是大众传媒技术,任何一种传媒技术都会带来革命性变化,它不仅改变人们的交流方式,而且促使背后的意识、文化、社交、法律和权力结构发生改变。[10]正如印刷术催生了古腾堡革命,印刷机的发明对天主教的没落起到极大推动作用,影印文化推动了知识爆发,开启了文艺复兴和启蒙运动之路。算法技术兴起给生产消费模式、资源分配模式、政府监管模式都带来巨大改变。计量我们日常生活、交易和通讯的理性分析计算机制被算法标准化,人类被算法“圈养”,算法统治成为常态并成为人类的共同意识,算法已经引发了一场新的革命性文化。

2.算法分配资源。

(1)互联网中注意力是稀缺资源,算法能够用来分配注意力。技术生产力不是孤立或单向运行的,它是关系性的力量。注意力体现了信息网络技术时代新的社会技术关系属性。网络时代是信息爆炸的时代,在海量数据面前,人类信息处理能力捉襟见肘,消费者注意力的竞争成为商业竞争的主要内容,这也被称为注意力经济。注意力经济下,资金不一定是稀缺的,但时间和注意力却是商家必争的稀缺资源。[11]算法的力量在于,依据其所确定的参数和权重对信息进行选择和分类,算法决定了在公共领域内,什么可以被看到或不被看到,可以以何种方式被何人看到。算法分配注意力资源的过程实际也是利益的分配过程,一方注意力的获得是以他方注意力的缺失为代价的,因此算法成为了注意力资源的分配工具。①据Facebook统计,平均而言,与Facebook整合的媒体网站,其推荐流量增长了300%。Danny Sullivan,“By The Numbers:How Facebook Says Likes &Social Plugins Help Websites”,https://searchengineland.com/by-the-numbers-how-facebook-says-likes-social-plugins-help-websites-76061,last visited on 17 September,2020.

(2)大规模网络共享平台是各种市场要素的集散中心,平台算法是新的经济组织形式。共享平台是依靠算法为供需双方匹配交易的网络平台,它以大量的分散契约为特征,形成动态、复杂、扁平、点对点的交易结构。共享平台对生产、交易活动有规范、控制和保障能力,直接在个体之间组织大规模的服务、商品的交换。这种对生产、交易活动的组织作用,与传统经济中公司通过资本投入,雇佣个体集中化地生产、销售产品或者提供服务,在实质功能上已无差别,[12]因此共享平台算法是超越公司的新型经济制度形式。

(3)公共领域算法辅助决策发挥公共服务和公共资源分配作用。例如犯罪热点算法预测软件,通过大数据绘制犯罪热点图,可以看出哪些地方犯罪高发,何种犯罪的犯罪率高,从而使警方可以有针对性地向犯罪高发地段配置更多的警力资源,实现预防和控制犯罪的目的。

3.算法调控行为。

(1)算法以轻推(nudging)方式引导行为。算法可以以不被察觉的方式潜移默化地引导人们的行为。2010年Facebook做了一个实验,测试推送信息对选举产生的影响。实验证明推送附带“你的朋友投票”这样的社会信息,比推送单纯的竞选信息更能影响投票人。这一实验说明Facebook有通过发挥“守门人”作用引导人们行为并改变选举投票率的能力,而实验过程并没有通知任何被测试人,也未获得被测试人许可。[13]

(2)算法改变行为界限。有研究表明,人们担心电子商务环境下个人信息被滥用,但当共享信息能够换来免费服务时,人们仍愿意做出让步。[14]当互联网已经嵌入人们生活方方面面时,人们对隐私问题也不再如从前那样焦虑和不安。[15]这意味着,算法改变了人们对隐私的敏感度,人们对一些由算法带来的风险变得越来越宽容。[16]

(3)算法制定网络行为规则。算法有权力特质,它以数据化、自动化、联通性、虚拟社区甚至是社会基础设施的形式,规范人们之间的社会关系和互动状态。比如算法在屏蔽垃圾邮件或要求用户提供个人信息时,它发挥的是政策制定者的作用,即算法以默认的方式确定了网络行为规则。享受网络服务就要被动接受算法规制,因此算法通过制定网络行为规则产生了调控社会秩序的能力。

二、算法控制的法律风险及挑战

算法是复杂的控制机制。在商业领域,算法由企业运营管理,企业实现了对算法控制的接管,常会发生商业利益与社会公益的矛盾;更甚者,因为技术优势,平台企业被国家赋予了新的私人执法权,这种权力转嫁不但导致行政权力行使规则遭受破坏,而且加重了企业商业自由与社会责任之间的冲突。在公共领域,算法辅助决策的正当性和合法性受算法自身逻辑风险和算法黑箱风险的制约。因此,与任何调控机制一样,算法也有自身局限,存在失灵危险。

(一)算法应用逻辑风险

算法应用逻辑风险是算法作为社会生态系统一部分,随其广泛应用而自然产生的外部效应,是算法处于中立状态下,没有外部力量干扰时发生的无主观恶意的技术风险。

1.算法监视有侵害隐私的风险。大数据背景下,算法已经使数字监视变为现实,我们的活动轨迹和隐私以数据的形式被记录和存储,政府或企业根据活动数据对人们进行性状分析,这就是数字监视。[17]在商业领域,网络平台越来越依赖用户和消费者的网上行为轨迹去进行产品、服务和媒体内容的预测分析或定向投放,网络平台公司有足够的经济动机去搜罗网络用户的个人信息。它们时刻关注、追踪、搜集用户的轨迹数据,用户浏览了什么、点击了什么、购买了什么都在平台公司的掌控之下。尤其是大平台公司,俨然已经成为网络数据生成、储存中心,例如“谷歌已经创建了复杂的数据监控基础设施,能够为使用其产品的数百万用户创建强大的数字档案”。[18]大平台公司就像信息黑洞一样,不断释放并累积增加其在网络空间中吸收信息的能力。相较于传统监视而言,算法监视对个人信息的搜集和追踪具有相对的不可感知性、独立性和不可避免性,因此它也更加复杂。不仅如此,国家及公共安全的需要更是强化了算法监视的生存空间。算法联合大数据的使用,改变了国家监视模式,使其由定向审查转向规模监控、由训诫转为控制。算法监视使国家可以大规模、不特定地过滤、分析、评估、存储个人信息,国家可以用最简单、高效和有价值的方式实现公共安全目标。个人被算法量化并被标签分类,在国家面前,个人变得前所未有的透明。[19]

2.算法个性化有削弱民主的风险。算法建立在共享现实的基础上,但却产生了个性化的技术特点。算法应用是由大数据驱动的即时性、自动化决策过程,具有情景依赖性和个人定制性,个体人口特征、行为习惯及交往信息等能够影响算法对个体的评价,进而产生了个性化的计算结果。个性化同时也激化了个体化和碎片化,而它们恰恰会对民主造成伤害。个体化和碎片化会侵蚀一般行为准则和公共制度,进而会降低社会一致性并威胁社会秩序。为了抵消个体化和碎片化带来的风险,需要加大有效控制和训诫,因此也就削弱了个性化所允诺的自治和行动自由。[20]不仅如此,个性化算法使网络形成了“过滤泡”,它加强了相同人之间的联系,强化了相同的体验、观点和文化,因此丧失了网络空间人与人关联的多样性。也就是说,“过滤泡”产生了“回声室”效应,它可能会扩大政治两级分化,因此算法使我们得以在网络空间中彰显个性,但也可能会侵害我们的自由和民主。

3.算法评价有损害公平的风险。算法评价打分被广泛应用于金融、雇佣、搜索推荐等领域,人们的生活、信誉以及搜索相关性等被算法打分并分级。算法评价打分本应该是中立的,但由于算法评级要依据一定的标准和尺度,这些标准可能带有天然的“歧视”或“不公”;或者由于人类行为的输入,算法被间接地嵌入了具有偏向性的价值观。这就使算法“打分”产生了不公风险,特定个体或弱势群体很可能因算法评级而遭受不正当评价甚至歧视待遇。无论是故意的还是间接的,强化这些标准是算法打分系统的固有特征,算法每一次更新调整都有可能造成“歧视”的扩大。[21]除一般性“歧视”外,算法打分还可能是特定指向的,即针对某一特定对象,此时算法结果受人为操纵,可能用来排挤竞争对手、用来保持自己的竞争优势或是赚取广告利润。如Search King,Inc.v.Google Tech.,Inc.案中,Search king与Google存在广告业务竞争关系,Google被诉持续恶意降低Search king在其搜索引擎中的排名,给其商业机会带来巨大损失。[22]

(二)算法黑箱失控风险

目前对算法尤其是AI算法最主要的诘难是算法黑箱。算法黑箱使算法不具有完全的可理解性和可控制性,“黑箱” 幕布导致公众与算法应用管理者之间产生信息不对称,不但使公众无法预判自己的行为后果,而且引发了算法应用管理者的道德风险,算法黑箱为主观恶意行为打开方便之门。

1.算法黑箱降低了人们对算法应用的预见力和控制力。AI决策采用的是机器学习算法,即通过输入数据和预期目标,输出能够产生新算法的算法。[23]换句话说,机器学习过程中新算法推演由算法自我编译完成,很多情况下,人们不知道新算法如何产生,也不知道算法会如何做出决策。即使是一些简单的机器学习算法,它的设计者也不能对其进行完全解释,何况模拟神经元网络的深度学习算法更加复杂。虽然这不意味着以后的AI技术会朝着不可知的方向发展,但深度学习从本质上来讲是一个巨大的黑箱。甚至有观点认为直到深度学习算法可以被人类理解或能够对人类使用者负责,它都不应被大规模的广泛应用。[24]

2.算法黑箱与数据瑕疵耦合,不断强化算法决策潜在风险。如果训练数据有瑕疵,比如数据反应性别、种族等歧视性价值观,而算法恰将其作为决策参数进行评估,那么系统做出的决策很有可能是不公正的。算法系统又因受反馈回路影响,随着AI持续决策,偏见和歧视便被嵌入算法中并被不断固化和扩大。[25]或者,每个人都有可能在数据库中被贴上不良标签,若不良记录是因网上无意的“失误”行为引起,而这些不良信息恰是自动决策参数且权重较大时,将会引起一连串无法控制的不利后果。“一旦某个软件将某人归类为不良信用者、好逸恶劳者或边际消费者,那么其他的经济系统决策时都会参照这一定性。”[26]人们的偶然行为有可能成为定性标签,并且随着数据不断共享,不良标签的影响随之不断扩大。不幸的是,算法黑箱让人们无法知道其评估标准是什么,是哪个失误行为或特质让其付出如此惨重代价,因此也就难以对测评结果提出反对、质疑和抗议。

3.算法黑箱可能引发道德风险,用来掩盖不正当行为。算法具有复杂性,这为政府和大型企业以算法之名行不当行为之实提供可乘之机,算法黑箱使恶意的不公、歧视、垄断、扰乱竞争、侵害消费者权益等行为有了正当的假象。谷歌是算法黑箱文化的代表,多次因搜索排名问题被提起诉讼。谷歌被指控在其涉足或计划涉足的领域,通过降级排名或恶意过滤的方式,排挤竞争对手、压制收购目标,妨碍新兴公司发展。[27]由于搜索推荐结果是由算法做出的,人们无法确定降序或过滤是算法自然计算的结果,还是人为干预的结果,算法黑箱由此为运营者躲在算法之后覆上一层神秘的面纱。优步也被指责故意使用激增定价算法,制造出一个不准确反映供需关系的“虚假市场”,优步可以按自己的想法对用户收取更多的费用。[28]定价不公这种扰乱市场秩序、侵害消费者权益的行为,同样被算法黑箱掩盖了。算法黑箱为恶意行为打开了方便之门,此种情况下,算法风险不单纯来自算法技术本身,更多的是来自算法运营者的主观意愿。

(三)算法赋权异化风险

算法决策通常会发生算法、平台、私营公司三种力量的耦合,追求个人利益最大化的私营公司执行算法强大的控制力,生成特殊的私人权力。算法决策过程中商业价值与公共利益相互交织,产生了新的利益冲突,算法权力极易发生异化。

1.算法权力滥用扰乱秩序。算法或多或少来自私营者有目的的设计研发。受商业利益驱动,研发者、运营者倾向于强化能够实现其利益最大化的特殊标准。因此,算法在发挥调控作用、构建社会现实时,公共利益机能受到威胁,其所应承担的社会责任遭受冲击,最终巩固了已有的社会不平等或创造了新的社会不公,干扰了正常的政治秩序或经济社会秩序。尤其像谷歌、苹果这样的超级平台,虽然它们需要依靠第三方程序来吸引客户,但它们有多种方法去利用自己的算法权力。如优先保护自己旗下的产品,排斥与其存在竞争关系或相互冲突的程序;为广告收入而胁迫第三方程序开发者做出妥协等。由于第三方程序对超级平台极度依赖,程序开发者与超级平台间产生了严重的力量失衡,即便像优步这样的应用程序,也逃离不了谷歌或苹果这种超级平台的噩梦。[29]

2.算法权力垄断形成算法霸权。当算法赋权使互联网平台成长为超级平台时,算法注意力分配优势配合大数据垄断地位,使网络效应急剧扩大。超级平台不但能化解来自外部的竞争压力,如采取防御性措施打击对其主导地位产生威胁的新兴行业或创新企业,而且能够决定链接其上的第三方应用程序的生死命运。超级平台是规则的制定者,它既可以通过降低注意力将应用程序踢出其生态系统,也可以以相反的方式成就某一程序。这也就使超级平台有能力完成产业链上的垂直兼并,从而占据互联网的下游产业。互联网下游产业乃至消费者都被圈养在超级平台下,算法使超级平台拥有了强者越强的超级霸权。[30]

3.公私权力错位甚至合谋侵蚀权利。算法编译了互联网构架,创设了互联网特征,具有构建社会的力量。算法编写主要采用私营化的商业模式,即算法尤其是网络基础设施算法和社会影响力较大的平台算法主要由大科技公司设计开发,政府直接管制算法经营者便能间接管理社会。网络服务商或平台经营者因此成为政府关注的焦点,并成为极具价值的合作伙伴,互联网平台成为算法秩序下的守门人。这种做法实际上是“迫使平台加强对用户内容的私人审查,从而协助甚至替代监管部门完成整饬市场秩序的公共目标”。[31]对经营者来说,相较于挑战国家审查政策,与国家合作能够带来更多的利润,从商业理性出发,合作是经营者的优先选择。也就是说,算法的背后是权力机关与经营者间执法转嫁的事实,而从规范治理角度看,这种转嫁需要有法律授权、经过正当程序,否则极易造成权力错位,甚至公私合谋。进一步说,平台算法虽然具有较强控制力,能够引导市场交易,但其经营者不具备执法的资格和能力,算法私人执法程序、方式等方面的规范建设尚不健全,平台守门的正当基础和行为规制尚需完善。不仅如此,执法转嫁使平台经营者担负了过重的失察问责义务,其成本最终极可能转嫁到平台用户身上,造成对私法关系的侵扰和私人权益的侵害。

三、算法治理的误区及政策导向

算法控制主要有两类风险:一类是产生非理性化的算法权力;另一类是侵害公认的价值和利益。算法治理,其目的是通过多种策略的运用防控算法控制风险,在人类与算法之间形成和谐共存关系。算法治理不是单纯的法律技术问题,它需要在理性的法律政策指引下展开。算法能够驱动创新发展,能给社会经济带来巨大红利。目前欧盟和美国关于算法政策已趋于达成共识,如何使本国在算法国际竞争中获得领先地位,是欧美各国制定算法政策时所关注的主要问题。因此,算法治理的政策核心是使算法的运用能够满足人的需求,能够提升社会效益和人类福祉,同时又能将算法控制的负面效应和法律风险降到最低。

(一)多元治理原则

多元治理旨在综合运用多种治理措施实现治理效能最大化。算法治理有多种可选择措施,每种治理措施的激励机制、调控力度、适用条件及治理局限都不相同,没有一种措施可以解决所有问题,算法治理更宜采用多元化治理方案。

1.以技术创新为助力共同防控算法控制风险。社会系统由四种力量调控:市场、法律、社群规范与构架。①社会系统由四种力量调控:市场、法律、社群规范及构架。算法作为构架调控的一种,与市场、法律和社群规范是相互制约和依赖的。网络空间中四种规制应当保持平衡,算法规制并非不受约束,其能力要接受市场规律、法律规范或社群规范的检验,否则就有可能受到市场机制或法律规范、社群规范的惩罚。参见〔美〕劳伦斯·莱斯格著,李旭,沈伟伟译:《代码2.0:网络空间的法律》,清华大学出版社2009年版,第132页~第137页。政府监管仅是风险防控的一种手段,技术进步、市场调节等,同样可以治理算法控制带来的风险。尤其是在算法经济时代,“技术正在创造新的机会,它比算法透明更精妙、更有弹性,使自动决策更符合法律和政策目标。”[32]当政府监管无效时,技术防范可能更加有效。在互联网平台商业关系中心化之际,数据资源掌握在互联网巨头手中,各个平台公司基于垄断形成数据孤岛,数据资源滥用丑闻不断爆出,②2018年3月,Cambridge Analytica被发现利用用户行为数据操纵美国大选;同月,文章《大数据“杀”你没商量:住同样酒店,你就得比别人贵》揭露,携程和滴滴利用大数据对用户进行差异性定价。区块链技术因其分布式记账特点,能够实现开放、透明和民主,成了打破数据垄断壁垒、重构数据大资产、重建互联网商业生态的重大武器。目前,全球首个人工智能与区块链结合的自治网络Singularity NET已经建立,它成功搭建了针对算法的去中心化平台。在决策的可理解性方面,卡内基梅隆大学研究出了定量输入测量方法,不需要分析代码就能测出算法系统里每个因素的影响程度,为解决算法透明与商业秘密冲突问题提供了可能性。[33]可以说,一种算法设置某种控制,便有可能产生抵消这种控制的另一种算法。

2.政府监管应与企业自治形成复合治理。人们担心智能算法的安全性、公平性及其给人类生活和公共利益带来的各种风险。实际上,企业自身也在积极实施应对之策,算法运营公司多以企业社会责任形式确立算法运营公共利益原则或建立内部质量评估制度。尤其是算法应用的大公司,通过确定搜索中立原则、数据最小化原则或建立风险评估机制、投诉调查机制等,对算法应用进行内部审查或外部咨询,以实现算法的安全、有效和符合伦理。“政府、市场和社会的现实关联和协同互动直接影响着国家共同体内各个领域的运行、发展,以及相应的组织和规则的建设。”[34]市场在资源配置过程中起基础和决定作用,为避免消费者“用脚投票”、维护企业长期盈利能力、促进企业长期发展,互联网航头企业有一定的风险防范和约束权力的主观愿望。在市场失灵领域,政府为维持宏观经济稳定,制定和实施一系列优化公共服务、保障公平竞争、加强市场监管、维护市场秩序的政策和措施,但它们并不一定恰当有效。GDPR就被指责过于严格,对AI行业发展不够友好。欧盟对数据处理的监管将会限制AI发展潜力,数据保护正在为AI产业制造壁垒,损害了欧盟在AI产业的竞争优势。[35]而政府监管失灵这一问题却有可能依靠企业自治纠正,如Facebook正在积极开发区块链技术,以期解决目前算法技术所带来的假新闻、网络霸凌,数据隐私保护和过度商业化等问题,以去中心化思路实现权力向个人的下放。[36]算法的企业自治还包括产业或行业自治,即产业或行业通过实施各种措施,如确定行业规范、产业标准或建立认证机构、伦理审查机构等来维护公共利益,实现促进产业发展的目的。

(二)分类治理原则

分类治理原则将算法决策区分为商业领域算法决策和公共领域算法决策。通过对照不同领域算法决策特点,结合不同治理措施在激励机制、利益冲突及管理力度等方面的差异,有针对性地优先适用恰当的治理策略和措施。

1.商业领域要注重市场因素及行业自治对算法治理的影响。商业领域算法治理首选市场机制。市场机制是需求方解决机制,依赖消费者反应和技术供给,法律要给予充分尊重。相对于制造风险的算法,消费者会选择对隐私、歧视、审查等风险提供技术解决方案的算法。如果算法使用了匿名化技术、加密技术、无追踪技术等,该算法平台将更受消费者青睐。商业领域算法治理要尊重市场力量,允许算法运营者以改变商业策略或对算法进行技术改进的方式减少算法风险。否则不但不利于商业模式的多样化发展,而且强行干扰了消费者的市场选择,是对公共利益的双重侵害。例如个性化推荐算法有降低人的知识多样性及侵害民主的风险,但作为一种产品营销模式,应当由消费者来决定其市场,通过个性化推荐算法标识技术及赋予终端消费者关闭个性推荐的选择权来实现算法的共同治理。当然算法市场调节有自身局限,市场调节前提是市场是开放自由的且有可替代选择,存在能够防治风险的算法技术且该技术不会降低消费者的体验,除此之外消费者还要知道潜在风险的存在。行业自治也存在局限,它受行业碎片化和异质化限制,而算法决策恰恰应用于不同领域和场景,这意味着算法决策要依适用领域建立各自的治理标准,这对新兴行业来说具有一定的难度。[37]因此,当市场调节和行业自律失效时,则应当发挥政府干预的作用。

2.公共领域算法决策要遵守既有法律对权力行使的规范要求,符合公共决策的条件、标准和流程。如公共领域在启用算法时,要对算法进行决策影响评估。纽约大学人工智能研究所(New York University’s AI Now Institute)提出了公共领域评估算法影响的初步框架,确立了确定算法损害何时发生、如何发生的主要步骤。[38]再如,信息公开、信息透明对社会正义至关重要,关系到公共决策是否公平和正当,因此当司法领域运用算法决策时,可以要求公开源代码,使公共领域算法决策实现最大化公开,以便决策更好地接受公众监督。[39]另外,公共领域算法应用,因缺少替代性市场选择或市场控制比较集中,导致市场机制无法发挥作用,更应加大政府监管力度。若商业领域出现算法歧视,用户可以选择不使用算法产品或平台,有瑕疵算法因此会遭受市场淘汰,私营公司有更迭算法技术的动机。但在公共领域,因缺少市场规制,算法运用者缺少主动改进动机,因此较为严厉的监管措施,如算法问责,更能实现算法风险防控的目的。

(三)治理效益原则

治理效益原则旨在促进算法技术进步和产业创新发展。算法治理具有成本,无论选择何种治理方式我们都应在成本和收益之间进行权衡,选择出最佳治理形式。技术创新与技术风险总是相伴而生,治理效益原则利于在有效监管中鼓励技术创新和产业进步。

1.以成本——收益为评估准则。新通信技术的产生总是会给社会带来巨大变革,从口语交流、手抄文字、印刷革命到电子通信,每一次技术更迭,都会在新旧秩序之间形成巨大的价值张力,新技术在监管与放任之间的斗争从未停息。一种技术最终能否获得信任并盛行,并不取决于它是否有利于维护旧秩序的安定,而是由其在社会经济发展中产生的效用和功能所决定。[40]智能算法也不例外,一方面算法提高了效率、方便了生活、促进了协作,另一方面它也存在加剧不公、侵犯隐私、形成垄断的风险。是否对AI算法进行监管,给予何种程度的监管,是利弊权衡过程中成本——收益的比较,而不是单方面看它给旧价值、旧秩序体系带来怎样的冲击。这是一种手段和目的的分析方法,即算法监管力度与其风险应成比例,算法监管应是妥当的、必要的,给被监管者带来最小损害而不是过重负担。《通用数据保护条例》(GDPR)是这方面失败的例子,GDPR出台后,搜集、分享、使用数据已经成为制约欧盟AI产业发展的最大障碍。如第17(1)条的删除权(right to erasure)与无监督机器学习算法相冲突。无监督机器学习算法从其所处理的数据中不断推演新算法,此种算法需要记住其训练数据以维持其计算出的规则,删除数据不仅会降低算法准确性,甚至有可能对算法造成整体性破坏。第6条的数据再利用禁止权(prohibition on repurposing data),使公司难以利用数据进行创新功能、改进服务的实验,不但增加企业成本,也降低了消费者体验。[41]因此,GDPR遭遇诸多指责。欧盟成员国开始意识到,与美国和亚洲国家相比,GDPR将使欧盟AI产业丧失竞争力,GDPR改革迫在眉睫。[42]2019年12月17日,在欧盟委员会最后一次听证会上,主席冯德莱恩提出了指导欧盟数据战略的四大目标,提议修订GDPR,修改对企业搜集使用数据的不必要限制,欧盟算法治理开始呈现出数据驱动创新的新迹象。[43]

2.以疏导风险为监管思路。在对待新技术上,美国和欧盟采用了两种不同的思路,美国在数字经济领域内的技术创新和应用能够保持领先地位,很大程度上取决于其在监管上的鼓励创新原则,而不是如GDPR采用预防原则。预防原则会抑制创新——一部限制数据分享和使用的综合性数据保护法,会限制企业创新自由,对于想实现算法经济繁荣的国家,走预防性监管路线可能是个错误。[44]当然,风险预防有其优势,我们要警惕的是模式化、高成本的极端预防。我们的社会是风险社会,算法监管的目标是控制风险,即使风险降低、可控且可偿,而不是消除风险。创新必然伴随风险和错误,不是所有的风险和错误都不可容忍,尤其是当创新具有社会进步意义、技术更迭较快或国际竞争激励时,过度监管意味着高昂的机会成本。[45]技术创新风险监控目标应当是激励合目标行为,减少欲回避行为,而不是设定一刀切的防护栏。GDPR规定了自动决策的透明性原则,从高标准的解释权、知情权、公开义务角度,确定了算法自动决策运用管理者应履行的义务。如第13条~第15条授予数据权人算法逻辑重要信息获取权(right to receive“meaningful information about the logic involved”),但如果要准确解释每个个体决策的逻辑则会牺牲算法的准确性,这是算法技术的固有特点。所以,GDPR以防范风险和预防干预为目标,本意虽好,但高规格的透明性要求极易与运营者的商业利益或知识产权发生冲突。并且这些要求在人类决策时并未提出,反向激励了放弃算法决策的选择,从而抑制了算法经济发展。或者运用者为继续使用算法,也可能选择以违反义务、欺骗、设定复杂交易结构或对算法进行复杂解释等方式,逃避透明性要求,从而维护自身的商业利益,法律规则也便失去了实效性。“试图拉开复杂性之幕以防止不受欢迎的结果,即令人难以置信又威胁人工智能和机器学习的整体进步。”[46]算法监管应当有利于应用者在算法运行中试错纠错的修正行为,有利于以自主方式选择风险控制策略和措施,而不是为了追求零风险而使运用者裹足难行。

(四)治理客观原则

治理客观原则旨在保障算法治理合理、可行及有效。算法虽是技术,但却是关系性的技术。它不但普遍介入各种社会关系,并且引起了社会关系的革命性变革。算法作为社会事实,其治理应当尊重算法技术现实,唯此方能制定出客观、合理的治理策略。

1.尊重算法技术特点,确保治理切实可行。算法治理要遵循规范与事实之间辩证规律。法律是事实性与有效性之间的媒介,若算法治理不考虑自身技术特点,有可能导致算法治理难以发挥作用。算法透明性的诸多提议中,有一种观点认为算法代码应当公开。但算法向公众公开,意味着它同时要面临黑客攻击、恶意利用算法等问题(比如垃圾邮件投放、隐藏逃税行为等)。并且算法极为复杂,即便是向第三方机构或追责主体公开,哪怕拥有最权威的专家和最全面的信息,也较难解释算法如何工作以及每部分算法有何种作用,更何况理解算法逻辑规则并不等于理解算法决策规则。密歇根大学计算机科学家研究指出,即便算法公开,但该算法起到何种作用,专家之间是存在严重分歧的,算法风险评测较难实行,算法缺陷评估貌似合理但可行性较低。[47]并且对于一些高级的AI系统,它们依靠数千层仿真神经元解释数据,研发者也无法解释它是如何决策的。即便能解释,单纯针对静态代码的监管,无法确保它确实是被运用到特定决策中,还是在限定的数据集中按程序员所期望的方式运行,[48]算法解释的实际效果可能并不会让人满意。GDPR公布后,欧盟第29条工作组发布了关于自动决策的指南,明确指出透明性并不必然要求对算法进行复杂解释,或将算法全部公开,而是以简洁易懂的方式告知决策过程中的标准和原理,使人足以理解决策的理由。[49]

2.算法治理应立足于可预期的现实风险。不仅是GDPR,《致欧盟委员会的机器人民事法律规则建议》(European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics)也受到了不切实际、过度监管的指责。在报告草案阶段,欧洲机器人协会(EUnited Robotics)从机器人产业实际出发,对其做了回应性评述。该评述指出,《草案报告》提供了问题的解决方案,而有些问题实际上是不存在的,而且可能以后也不会存在,欧盟层面统一的管理准则,对欧洲产业确有一定益处,但过度的监管会阻碍进一步发展,不单会限制机器人的行业竞争,而且会对欧洲制造业造成整体伤害。举例来说,至少从中期看,人工智能增强了人的参与性而不是相反,机器人远未到达能够使其背后的人类或机构免责的自主程度,因此没有创设电子人格的必要,在专业应用领域也无需引入机器人技术强制保险制度。[50]欧盟过度监管有其文化根源,古希伯来人关于戈拉姆(Golem)的神话①Golem,希伯来传说中用粘土、石头或青铜制成的无生命的巨人,注入魔力后可行动,但无思考能力。,形塑了西方集体意识对人类创造物失控的畏惧情结。人工智能的严格监管,并不完全根源于可能产生的实际问题,而是反映了西方民众对机器人失控的非理性担忧。[51]而非理性担忧不但达不到风险防范、促进福祉的目的,反而会扼杀创新和进步。算法监管不是一蹴而就的,在整合既有立法资源基础上,采用渐进主义且务实、谨慎的监管路线更为合理。

四、算法治理的法律逻辑及策略

算法治理政策向法律策略转换,需要发现算法治理的法律逻辑。算法治理法律逻辑由算法治理目的和其结构性矛盾决定。算法治理目的主要是实现算法控制的理性化及算法侵害的可控化。围绕这两个问题,算法治理有两个不可回避的结构性矛盾:一是算法控制模式的非中心化与算法控制力的集中化倾向之间的矛盾;二是算法用途工具性与算法运作自主性之间的矛盾。算法治理结构性矛盾的化解路径,决定了算法治理的法律逻辑,决定了算法治理的权力、义务、责任关系和算法治理法律策略的选择。

(一)算法治理法律逻辑

算法治理有多种模式。欧盟通过赋予数据主体数据权来控制自动化决策和人像分析算法的应用,美国通过建立算法问责制实现对算法风险的管理和控制,我国以平台治理为路径来治理算法。[52]算法治理是人工智能时代的新课题,我们需要从系统角度构建相互协调的算法治理体系。无论何种路径,算法治理都有其所要实现的目的和所应遵循的法律逻辑。

1.算法控制理性化,即通过分散算法控制避免形成垄断性的算法权力,这是算法权力的配置逻辑。在网络这样的自组织生态系统中,算法通过处理信息流的技术优势和充当守门人的功能特点,既给人类社会带来前所未有的福利,也带来了前所未有的挑战。如何保障算法能够服务于人类,能够公正地分配资源、促进个人自由发展,是个重要的政治问题、政策问题和法律问题。

(1)从技术上看,算法控制不是单向的,算法决策各要素之间相互依赖,尤其是应用管理者、用户、算法的互动对算法控制有决定性作用,因此理性的算法控制应当体现用户(公众)的意志,应当是算法运用管理者、终端用户共同参与的控制,因此算法控制治理应是参与性的治理。进一步说,非外力干扰的理想状态下,终端用户影响算法反馈回路的判断,影响算法的修整和调试,用户在算法控制机制中发挥重要作用,算法应用管理和算法使用能够相互重塑。[53]因此有学者指出,算法守门人与传统守门人不同,它不是单向的中心化控制模式,而是去中心化的多方合力模式。[54]

(2)从功效上看,算法发挥着社会制度的作用,既对个体、集体和社会产生控制,同时又受其制约,制度要求对所有接受规制的人均应是正当的和可接受的,即制度应当体现公共理性的精神,[55]因此算法治理应当是开放、多元的形式。算法的社会控制模式不是理论性的科层化结构,而是分布式的、非中心化的网络结构,在网络空间中,算法对不同群体会产生不同的影响。比如信息流个性推荐算法,对平台企业来说能够实现定向广告精准投放;对个体用户来说虽然符合其兴趣、品味和爱好,但也使其不能获取多样化信息。站在不同立场,算法产生了不同效用。“公共理性的共同原则,产生于平等公民之间的反思平衡过程。”[56]因此算法是否具有正当性,不能是单向的判断标准,不能以一方意见压制或取代另一方意见,算法治理应是开放、参与及对话式的过程,这是对算法决策的约束,凸显出利益相关者参与、民主的规范化流程等措施在算法治理中的重要地位。

(3)从现实看,算法控制有向算法运用管理人手中集中的倾向,尤其是超级平台更是掌握了强大的算法控制力,向公众配置一定的算法治理权有利于实现理性化的算法控制。算法由运用管理人控制,并不意味着算法控制权必然分配到其手中。控制权的分配是以治理效果为标尺的,即将控制权分配到能控制风险的人手中。算法治理需要在算法运用管理人和公众之间形成平衡性的制约关系,而这种关系即便不是在公共决策领域,也不能很好地通过私权机制实现。虽然平台在终端用户初建账户时,可以通过合同约定双方权利义务关系,但算法是不断更新的,合同不能完全预判所有规则,因此不能完全适应具有变化性的长期关系。更何况终端用户只有接受或不接受的权利,没有“议价”能力。而支配性权利的弊端在GDPR中已经显现出来,因此建立公众参与的治理权机制,公众作为利益相关人参与算法治理,可能是更佳选择。

2.算法侵害可控化,即通过合理设定法律上的权责关系防范纠正算法对公认价值的侵害,这是算法风险的配置逻辑。依行动者网络理论(Actor-Network-Theory),任何能促使行为发生或引起行为变化的因素,无论是人类还是技术都可以成为行动者,行动者在由其行为所引起的相互作用关系中充当代理人角色。[57]算法的复杂程度决定着算法的可测度和可控度。对于复杂算法,如机器学习算法配合大数据和神经元网络能够挖掘事物之间不可测的相关性,也就是说机器学习算法决策有一定的不可测性,在结果预测度较低的情况下,算法黑箱又使算法难以理解和解释,因此对于应用管理人来说机器学习算法的可控性相对较低。但这不意味着算法不受控制,应用管理者可以预设算法所要解决和处理的问题,人类虽不直接向算法传递规则,但却编排了计算机化的规则创建过程。[58]因此,可以说算法应用管理者对算法进行了委托授权,只不过行动者网络理论的代理并不是标准的法律代理,它表明在算法与其运用管理人之间存在类似代理的关系,算法充当代理人角色或者说算法是准代理人(agent-like)。[59]算法代理对焦算法的风险负担问题。基于代理理论,算法应用管理人应当负担算法风险,应当对算法造成的损害承担法律责任,但此种责任具有有限性。算法充当其应用管理人的代理人角色,但不可否认的是,算法具有自主性、回应性、主动性和社会性。因此,无论在法律上算法是否能够成为独立的主体,在实际上算法都不完全受制于应用管理人,二者并不具有完全的行动一致性。即便算法由应用管理人设计、使用、控制,但数据、用户等情况都会对算法决策产生影响。从算法决策逻辑看,算法模型受训练数据影响,在终端用户产生新数据的基础上反馈回路又会推演新的算法,算法以“不为人知”的计算逻辑不断更新。从决策个案角度看,以利用社交媒体平台传播虚假新闻为例,虽然平台可能因算法模型激励或助推了假新闻的制造和传播,但假新闻产生和传播是多方行为的结果,改变推动假新闻的激励结构并纠正其可能造成的伤害,平台和其他参与者都应参与其中。因此,在算法风险负担上,应用管理人并不是承担算法风险的唯一责任人,或者至少应用管理人不宜承担算法的全部责任,这体现了算法公正的要求。

(二)算法治理法律策略

OECD将算法应用分为四个阶段:第一阶段是数据、设计和模型阶段,即规划设计、数据收集处理以及模型构建;第二阶段是验证和确认;第三阶段是部署使用(deployment);第四阶段是管理监控(operation and monitoring)。[60]算法治理应对照算法应用阶段,寻找每一阶段的治理侧重,并依算法治理法律逻辑设计有针对性的治理策略。

1.利益分享的权属结构。在信息社会,算法之所以重要,是因为人们需要在海量数据中做出判断、选择和决策,这是人力所不能及的。因此,大数据与算法共生共进,数据治理可以用来治理算法,这也被称为源头治理。作为源头治理的数据权是典型的束状权利结构,它是一种框架性权利,在不同主体手中体现不同的利益需求、显现不同的特性。数据权涉及数据生产者与数据使用者、数据私利与数据公益之间的矛盾,不宜从单一角度做权属规定。因此对于数据权来说,可以从利益形态和法律之力等方面做多维度分割,形成利益分享式的权属结构。

(1)对个人来说,数据权的意义在于保护自然人的基本权利和自由,特别是避免泄露个人隐私,但除了权力——服从这一法律之力形式外,数据权还可以采用请求——义务形式,即数据使用人承担不侵害个人隐私的义务,通过反射利益形式保护个人数据权益,这一义务履行方式是灵活多样的,比如采用匿名化的数据脱敏技术。实际上,许多欧洲公司已经承诺,如果可以扩大GDPR规定的权限,它们愿意承担保障人权的义务。[61]

(2)对企业来说,企业对数据资源控制与数据自由流动的公共利益之间的冲突是数据权的又一矛盾,这一冲突可以通过合理解读数据法律属性解决。数据首先是种公共产品,不具有排他性和独占性,只是为实现算法经济优势,法律才保护企业对数据的控制及交易,鼓励企业充分挖掘大数据的使用价值。由此可以看出,数据的控制和操作规则是平衡数据主体、数据控制者、社会利益的结果,不宜采用传统的私权规则。[62]并且欧盟部分成员国,已经着手实施了鼓励数据流通和共享的战略。德国的策略是让研究和开发人员更广泛地访问公共数据,这有可能使GDPR确认的个人数据使用“默认禁止”规则演变为“默认开放”规则;芬兰拟实施公私伙伴协作战略,以促成数据在公共部门和企业间自由流动以及在市场上二次利用;法国提议要善于利用公共利益条款,使个人数据能够被有效地加以利用;英国建议建立数据信托制度,通过确立信托义务实现数据共享的公平和安全,这一制度可能会促成敏感和专属数据的共享。[63]

2.参与性的公众治理权力。网络空间是公共、开放、自治的空间,算法应尊重这一事实,但由于算法由大互联网企业所掌控,资本的介入使得算法较难保持中立,因此算法民主格外重要。算法民主要求算法治理体现公共理性,赋予公众算法治理权。

(1)知情权框架下的算法解释权。算法运用管理人应当向终端用户或利益相关者解释算法系统如何设计及所涉数据的基本信息,或者解释算法所要解决的问题、所发挥的功能、所欲实现的目标及有可能产生的结果。并且从广义角度看,知情权要求算法解释要明确何种条件下可以对算法系统实施人为干预、什么情况下公众可以对算法决策提出质疑。[64]但解释权并不一定要解释有关算法决策逻辑的详细信息,否则会导致算法运用管理人因“算法黑箱”而难以履行义务,也可能侵犯其专有信息或知识产权。

(2)守门性的选择控制权。算法民主要求建立算法应用管理人与公众对话、制衡的协同守门机制,分化算法应用管理人对算法的控制。法律设定标准化的规范要求,被监管人按法律规定履行相应义务是独白式的算法治理模式。能保证行为的合法性,但较难兼顾行为的合理性。算法治理应当反映公共事务,应当有利于形成公众的集体行动。如在网络反不正当竞争领域,浏览器屏蔽视频播放器广告是否违法,应当加入对消费者因素的考量,通过赋予消费者“in”或“out”的选择权,综合判断新的干扰算法是不正当竞争行为,还是一种受保护的新商业模式。又或者在数据应用层面,可以通过赋予数据产生者告知权或一定的控制权,来免除其遭受侵犯隐私或第三方侵扰的担忧。[65]数据控制权的“度”不以私法上的绝对权为标准,而是达到能够对数据运用起到守门作用即可。

3.约束性的算法应用规则。算法产生算法权力,算法应用管理人开发使用算法时要遵循一定的规则,制约和规范算法权力行使,避免算法权力滥用。

(1)透明公开原则。透明公开原则旨在使算法权力接受公众监督,即权力的行使不应因其采用算法而躲避正当性规定。该原则要求“在一定范围内将技术性的构成和功能加以披露,转译成普通人可理解的文字,以增强技术产品的可信性”。[66]或要求义务人发布透明度报告,以便对错误率、数据质量、数据使用和紧急偏倚等问题进行基准测试。不过监管机构应作加密承诺或允许算法应用管理人使用加密工具,以保护商业秘密或隐私。要指出的是,透明原则并不特指算法代码透明。主张代码透明者认为,公开算法代码和决策数据,有利于公众识别算法侵害,因此即便基于商业秘密的考虑,代码及数据不向社会公众开放,也应向监督机构公开。但问题在于,即使代码公开,公众也较难分辨和识别真正有用的信息。因此,代码透明不是透明原则的硬性要求。当然,为了获取公众的关注和信赖,算法运用管理人可以自主选择是否开源代码,以供公众查看或监督。在算法解释可行的情况下,如算法评估所依赖的变量较易判断,运用管理人也可以对其公开的算法进行解释。

(2)安全有效原则。算法运用管理人有义务保证算法是安全且有效的,即在正常使用、可预见使用、错误使用或是在其他不利条件下,算法功能正常,不会造成不合理的安全风险。[67]当然这并不是要求算法完全无误才可以适用,而是当算法出现一定错误率时,应当改进算法或是选择人工审查方式。例如置信措施(Confidence Measures),要求某些算法在预测或决策时使用多种统计措施来评估其置信度,如果某一决策其置信度不高则应转为人工审查方式,而不是停止决策进程。[68]或是要求算法应用管理人能识别、记录、阐释算法及数据风险的产生来源或不确定性的产生来源,以便公众能够预期及理解最坏的情况。

(3)公平正义原则。对算法决策来说,公平正义既是其程序性要求,也是实体性要求。在程序正义方面,如决策标准一致是人类决策应当遵守的原则之一,它对算法同样适用。决策标准一致,要求算法决策应当使用相同的策略,决策策略在数据输入之前应当确定下来并记录在案,并且决策结果可重复。[69]实体正义方面,要求算法决策要符合实体性的政策选择,如非歧视原则,因算法能将歧视系统化和隐秘化,该原则对算法决策极为重要。要强调的是,算法决策规则和法律规则有所不同,前者是标准化、硬性的、技术性准则,后者是模糊、有弹性、衡量性的规范。因此,政策制定者需要确定能为算法识别、运用和操作的公平正义标准。有学者提出了判断算法非歧视的事后标准,即如果我们无法从结果中推断出被决策主体的属性,那么决策就是非歧视性的。[70]

4.动态化的风险监控义务。参与性的治理权能够分化算法控制,但与算法侵害防范并不具有必然的因果联系。算法风险监控义务,要求算法应用管理人以尽最大努力降低算法侵害的方式,尽责地测试、监控算法所能产生的潜在风险,即面对未知风险,要求算法运用管理人通过算法试错纠错识别、检测其有可能产生的损害,并对错误进行修正改正,使算法风险降到最低。风险监控义务贯穿算法设计研发、投入使用全过程,是动态性、过程性的义务。

风险监控义务的优点是:(1)使风险归属于最能对其进行掌控的人。风险配置的一项原则是将风险分配给最容易控制风险的人。AI算法具有自主性不等同于其具有自主意识,总体上说AI是按照人的意愿工作的,AI自主性的提升不代表人的责任随之减弱。[71]大脑与算法是不同的系统,人类决策依靠大脑思维,算法决策依靠的是信息处理,即使是超级人工智能,它虽有强大的计算能力,但还不足以拥有人类大脑的全部认知,更何况我们目前也没有任何可能实现这一目标的技术。[72]即是说,就目前而言我们的AI算法是执行特定任务的专用人工智能,它用来完成人类指令、扩展人的意志。在本质上算法是逻辑计算,其训练数据由人类掌控,参数权重可受人为干预,因此算法本身无关善恶,算法风险治理不仅要关注算法,更要关注算法应用管理者的行为,使算法风险归控于最能对其产生控制的人手中。

(2)降低算法道德风险。算法不独立于它的运用管理者,与任何技术一样,它可能被不道德、不负责地使用。由数据驱动的机器学习算法,它虽不采用人工规则而是依靠数据训练摸索规律,但算法目标是由人确定的,机器学习探索出的模型是让人们更接近目的。[73]比如搜索引擎推荐结果,是“将判断嵌入算法对事实进行组织、分类形成事实集合,判断和算法代表了搜索引擎公司的观点,反映公司关于向用户呈现何种内容的主张”。[74]因此,算法风险可能来自其运用者主观意图的嵌入,因外部主体很难断定算法运行逻辑和其发挥的作用,在算法运用管理主体和社会公众之间产生了信息的不对称。若仅从算法解释入手,由于算法解释具有专业性,有可能使解释权沦为运用管理者掩盖主观故意和过失的投机工具。而风险监控义务,不仅强调算法决策透明和公开,而且从风险控制过程和结果角度为运用管理人设定行为规则,因其以风险监控为基准,不考虑行为人的主观恶意,在一定程度上降低了滥用算法的道德风险。

(3)符合算法技术特点。传统决策所遵循的是因果律,将决策看作是动机——目的——行动——结果的过程,强调决策的可理解性和可解释性。而AI算法技术的特点或说优势,正是在于它在海量数据中,通过机器学习找到了数据之间所含信息的相关性,这种相关性某种程度上替代了因果关系,使人们在难以揭示因果关系的情况下也能形成决策,消除了不确定性。[75]换句话说,AI技术的核心思维是相关性,而不是因果关系。风险监控义务从输入和输出环节入手,不需要对算法决策因果关系进行解释,从数据的客观公正及结果试错纠错角度,建立起符合算法思维的防控方式。2016年白宫发布的一份关于大数据与民权方面的报告,将这一义务称之为算法系统的“设计责任”。[76]比起透明度,更好的解决方案是对算法的结果进行系统测试,以评估其后果的性质,而不是针对算法本身。即便算法产生不可预测结果,因它仍是在人为设定的框架和限制内运行,对算法结果进行系统测试仍具可行性。

5.弹性的问责机制。问责制的基本原则是,算法系统应有多种控制措施,目的是确保算法能够按应用者意图工作,使算法风险能够被应用者识别、控制,损害后果能够被纠正。从字面上看,问责意味着,发生损害时一方有权就损害相关问题进行询问,另一方有义务给予回应,并且被问责主体有责任时需要遭受否定性惩罚。其有三条基本准则:一是追责主体享有执行监管处罚的权力;二是被追责人有义务以公开透明方式行使权力;三是被追责人能够修正不正当的行为。[77]

问责制的优点在于:(1)可以基于风险是否发生、风险类型、算法运用管理人的意图等情况对运用管理人进行追责,使责任人不至于承担过于严苛的负担,即是说算法问责一方面是运用管理人责任的确认机制,另一方面也是排除其责任的衡量机制。算法问责制确定了算法决策发生侵害时的可归责性,明确了追责的具体要件和标准,根据损害情况、被追责者主观情况及其对风险的控制情况,决定是否对算法运用管理人追责及给予何种程度的惩罚,被问责主体不会承受明显高于收益情况的过重风险防控负担。算法问责可以让运用管理人更好地设计和实施预防损害的政策和策略,运用管理人可以依自身情况选择多样性的技术和程序机制,算法治理因此具有较强的弹性和灵活度。如果有证据证明会发生损害或不公结果时,监管部门可以介入调查追责。

(2)算法问责能够将多种监管措施纳入责任制度框架。算法问责通过规定构成要件确定责任认定标准,构成要件可以以概念涵摄的形式将算法监管相关措施纳入其中。如在算法复杂性较低、算法解释可行的情况下,公开义务、解释义务的履行可以用来判断运营人的主观意图,即通过判断算法运用管理人是否采取相应措施保证算法按其意图进行工作,判断其违法行为的主观状态。[78]所以,算法追责是一个综合多种治理措施的框架,它不是驯服权力的某一项具体的法律技术,多概念的涵摄使追责制更加包容,适用范围更加广泛。

(3)算法问责可以促进其他治理措施得到更好落实。如公开义务、解释义务的履行情况可以用来辅助判断算法运用人的主观意图,风险监控措施或置信措施等可以用来判定算法运用人是否违反法定义务,因此追责制从惩罚角度促使责任人去积极履行各种义务,促进多种治理措施落到实处。算法运用管理人有动力实施这些治理策略,不仅是出于对公众安全的考虑,而且还是为了证明他们负责地识别、纠正了潜在的有害后果,从而使其能够免于追责。[79]

互联网时代的产业革命,算法决策技术广泛运用,给旧秩序带来深刻的冲击和挑战。算法以代码形式重塑网络行为规则,能够形塑认知、意识和价值观,分配注意力、产品和服务,引导行为、塑造秩序,它成为新的控制机制,产生促进社会变革的力量。有控制便可能有失灵,算法也不例外,算法监视、算法歧视、算法黑箱、算法权力异化等风险,侵蚀着算法带来的巨大红利。算法产生风险,但现阶段,它仍是经济社会发展核心竞争力的重要组成部分,各国都在积极寻求治理算法风险的可行之策。算法是变革性技术,在社会结构升级过程中,算法治理牵涉多维矛盾关系,需要确定理性的政策导向,在政府监管与技术创新,个人价值与产业发展之间寻求平衡。算法治理的法律任务是明确目标、聚焦问题、确定底线,运用法律技术化解结构化矛盾、构造合理的权利义务关系。本文提出的法律策略,无论是利益分享的权属结构、公众参与的治理权力,还是约束性的算法应用规则、动态的风险监控义务、弹性的问责机制,都是在综合考量现实侵害、技术特点及产业发展基础上的思考,尽管不够成熟,却映射了算法治理切实可行又有持续生命力的美好愿望。

猜你喜欢

决策算法
抑制OFDM系统峰均比的DHT-SCF联合算法
为可持续决策提供依据
基于Lévy飞行的一种改进鲸鱼算法
Travellng thg World Full—time for Rree
决策为什么失误了
进位加法的两种算法
决策大数据
决策大数据
一种改进的整周模糊度去相关算法
一种基于L-M算法的RANSAC图像拼接算法