大数据时代的算法解释权:背景、逻辑与构造
2019-02-04张恩典
张恩典
(南昌大学 法学院, 江西南昌 330031)
一、问题的提出
人类社会已经进入大数据时代。大数据给人们的生活、工作乃至于思维方式都带来了重大变革。大数据之所以能够给人类社会带来诸多变革,所依靠的则是计算机算法模型对海量数据进行自动分析。基于大数据的算法决策正弥散于现代社会,充斥于商业领域与公共治理领域之中,对人们日常公共与私人生活产生着深刻而复杂的影响,并逐渐显现出取代人类决策的趋势。有学者将这个由大数据算法逐渐占据统治地位的社会形象地称为“算法社会”。[注]Jack M.Balkin,2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data, Vol.78 Ohio State Law Journal(2017), p.1226.在算法社会中,一方面,人的智性得到前所未有的发展,但是,另一方面,人的心性和灵性却逐渐被侵蚀,相关论述请参见於兴中:《算法社会与人的秉性》,载《中国法律评论》2018年第2期。以色列历史学家尤瓦尔·赫拉利更是大胆预言:“随着机器学习和人工神经网络兴起,有越来越多算法会独立进化,自我改进、从自己的错误中学习。这些算法分析的数据量是天文数字,绝非人力可及,而且它们也能找出人类找不到的模式,采取人类想不到的策略。”[注][以]尤瓦尔·赫拉利:《未来简史:从智人到智神》,林俊宏译,中信出版社2017年版,第355页。从目前的情形来看,这一正深度渗透人类生活诸多方面,对个人权利和利益产生重大影响的算法决策是建立在大数据挖掘分析基础之上,隐藏于算法“黑箱”之中,令普通公众难窥其中奥秘。
为了缓和乃至化解现代社会中大数据算法决策的“黑箱”效应,法学理论界与实务界进行着艰辛的理论和制度探索。在众多规制方案中,设置算法解释权便是充满创见而又备受争议的一种方案:言其充满创见,是因为其旨在回应大数据时代算法决策的“黑箱”效应这一基本问题,言其备受争议,是因为对算法解释权的存在及正当与否,学者们仍然存在着重大分歧。[注]关于算法解释权的理论争议,参见Bryce Goodman, Seth Flaxman, European Union Regulation on Algorithmic Decision-making and a “Right to Explanation”, https://arxiv.org/pdf/1606.08813.pdf,最后访问时间:2018年7月20日。S.Wachter, B.Mittelstadt, L.Floridi, Why a Right to Explanation of Automated Decision-Making Does not Exist in the General Data Protection Regulation, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2903469, 最后访问时间:2018年7月20日。Andrew D.Selbet, Julia Powles, Meaningful Information and The Right to Explanation, Vol.7 International Data Privacy Law (2017).可以毫不夸张地说,目前,无论是在理论还是实践维度,算法解释权都处于“重重迷雾”之中,究其原因,在于学术界对算法解释权这一现代算法社会兴起的重要权利形态缺乏足够的研究。[注]相较于近几年来法学界在被遗忘权方面的丰硕研究成果而言,目前关于算法解释权的研究成果,无论是在相对数量还是在绝对数量上都非常有限,这与大数据时代算法解释权的重要性似乎呈现出一种不均衡的状态。根据笔者在知网数据库的检索,截止2018年8月28日,国内法学界有关算法解释权研究主题公开发表的研究论文仅有1篇,张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学》2018年第3期。面对这种情形,亟待法律学者拨开笼罩在算法解释权“迷雾”,以使这一算法解释权更具理论意蕴与实践功能。本文不惴浅陋,尝试从算法解释权的兴起背景、权利逻辑、争论焦点与基本构造等方面,对大数据时代兴起的这一新型权利类型展开研究,以期对算法解释权的理论探索与制度实践有所助益。
二、算法解释权产生的背景:大数据算法决策的兴起及其引发的问题
(一)大数据时代算法自动化决策的兴起
算法是种古老的技艺。在人类社会漫长的发展过程中,人们都在运用算法来解决生活中的问题。正如美国学者克里斯托弗在考究算法历史时所指出的那样:“千百年来,人们一直在设计、修改并分享着算法,这一活动早在算法这个词出现之前就开始了。……巴比伦人处理法律事务时会用到算法,古时候拉丁语老师检查语法时会用到算法,医生靠算法来预测病情,无数遍布全球的普通人曾试图用算法预测未来。”[注][美]克里斯托弗·斯坦纳:《算法帝国》,李筱莹译,人民邮电出版社2014年版,第42页。但是,公允而言,受制于数据存储和处理能力,彼时,算法的功能和影响力毕竟是有限的。只有到了大数据时代,算法才真正发挥了其潜在的功能和广泛的影响力,以大数据为基础的算法自动化决策遍及私人生活和公共治理领域。
在私人生活中,算法决策广泛运用于广告营销、就业、银行信贷等诸多领域。当我们作为消费者进行网络购物时,算法向我们推荐产品;当我们应聘某一岗位时,算法决定着我们是否能够胜任这一岗位,进而决定着我们能否获得就业机会;[注]目前,国外已经有公司运用大数据算法来寻找理想职员,参见Matt Richtel, How Big Data Is Playing Recruiter for Specialized Worker, The New York Time, April 27, 2013.当我们向银行申请贷款时,银行所使用的大数据算法对我们进行信用评分,进而决定我们是否能够获得贷款以及获得贷款的额度大小。不仅如此,金融算法大量运用于金融投资决策之中,美国学者将金融算法形容为开启现代金融帝国大门的新密码。[注]参见Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University Press, 2015, pp.59-100.大数据算法之于已经迈入互联网时代的现代金融业的重要地位由此可见一斑。
在公共治理领域,算法决策也逐渐受到青睐。在刑事侦查中,以大数据算法为基础的预测警务被用于预防和打击犯罪。美国情报部门为了打击恐怖主义以维护国家安全,逐渐开始运用大数据算法识别和发现潜在的“恐怖分子”。美国学者佩德罗·多明戈斯在谈到学习算法之于现代国家安全的重要性时指出:“在网络空间之外,学习算法是保护国家的壁垒……恐怖分子可隐藏在足球比赛的人群中,但学习算法能辨认他们的相貌,恐怖分子可以在国外制造爆炸事件,但学习算法能找到他们。”[注][美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版社2017年版,第24—26页。同时,算法决策还被运用于刑事审判之中,作为量刑的重要依据。美国威斯康辛州初审法院基于罪犯改造部门提交的一份载有被告艾瑞克·鲁米斯的再犯风险评估内容的COPMAS调查报告,进而对其作出了监禁6年外加监外管制5年的判决。在接到一审判决之后,被告以初审法院根据COPMAS评估作出判决侵犯其正当程序权利为由提出上诉,但最终被威斯康辛州最高法院驳回。
算法不仅决定了执法资源的分配,而且还在很大程度上决定着国家扶贫资源的分配。为了实现精准扶贫战略目标,目前,我国贵州、安徽、海南等中西部欠发达地区纷纷运用大数据来精准识别贫困户,进而决定国家扶贫资源的合理分配。虽然各地“大数据+扶贫”战略在具体实践中有所差异,但是总体上遵循如下思路和做法:一是通过相关部门多维度数据对比分析,自动预警、实时推送异常信息,帮助扶贫干部实现对贫困户的精准识别。二是以“扶贫云”的建档立卡贫困户数据为基础,通过相关扶贫部门数据对贫困户进行精准画像,实时掌握国家、省、市、县、乡、村各级帮扶干部情况及对应帮扶贫困户信息。三是可根据贫困实时信息,自动比对和身份识别,推送给教育、财政、扶贫等相关部门,实现“一站式”精准扶贫。四是通过大数据可视化,将帮扶企业对各贫困村、贫困户的帮扶情况呈现出来,实时掌握企业帮扶贫困户情况和贫困户被帮扶进程。[注]参见罗以洪、吴大华:《数过留痕!大数据让扶贫变得更精准》,载《经济日报》(百家号)2018年5月3日。
由此可见,算法决策已经弥散于私人和公共领域之中,并且伴随着大数据不断发展,算法决策还在向社会其他领域渗透蔓延开来。在现代社会中,算法决策之所以被广泛运用,一个重要的原因在于算法决策有助于实现精准决策。客观公正是人类决策的重要目标,然而,受到人类认知偏差的影响,人类决策一直为精准性所困扰,现代社会的复杂性更加剧了精准决策的难度。大数据为复杂社会治理提供了难得的历史契机。一方面,现代互联网技术实现了海量数据的存储,人们日常生活的点滴都被记录下来;另一方面,借助于大数据算法,公私决策部门能够对个人的偏好、行为进行精准预测,从而作出相应的决策。而且,算法决策还能固化乃至形塑个人的偏好。当我们浏览网络时,大数据算法基于我们的浏览历史和消费记录,向我们推荐网页新闻和营销广告,将固化和形塑我们的偏好和认知。从功利主义视角观之,大数据时代盛行的算法决策符合效用最大化的功利原理,这也是算法决策在现代社会备受公共部门与私人机构青睐的根本原因。
(二)算法自动决策面临的新问题催生算法解释权
大数据时代的算法决策展现的是一种典型的技术理性。算法决策依靠的是大数据挖掘技术。大数据挖掘范围最典型的特征在于,“其转变了传统的围绕特定认知对象或假设而进行的数据搜集模式,取而代之以基于广泛、全面、深度的数据搜集而形成认知对象或假设的过程。”[注]裴炜:《个人信息大数据与刑事正当程序的冲突及其调和》,载《法学研究》2018年第2期。近年来,伴随着算法决策广泛运用,其在因精准化而备受青睐赞誉的同时,却也因算法决策引发的风险而遭遇到越来越多的批评与质疑。概括而言,目前,作为技术理性产物的算法决策所面临主要是隐私风险和歧视风险。
从隐私维度看,算法决策对生活于其间的个人隐私构成了严重威胁。算法决策是以海量数据为基础的,用于进行算法决策的算法模型就是基于所搜集的历史数据训练而形成的,亦即机器学习过程。用于训练算法模型的历史数据来源广泛,囊括个人购物偏好,行踪轨迹、生理特征等诸多方面,其中包含大量涉及个人隐私的数据信息。在算法模型运用于特定主体时,仍然需要对个人的上述诸方面的数据信息进行搜集。因此,在很大程度上,大数据时代的算法决策是以牺牲个人隐私来换取所谓的便利和高效,人们的私生活和个人隐私被现代物联网技术暴露无遗。置身于大数据时代,“进行数据收集、创建、存储和分析的电脑数量呈爆炸性增加,使得技术能够侵犯你的隐私。记录你的生活细节的数据采集点越多,任何想要了解你的人可获得的信息就越多。”[注][美]特蕾莎·M.佩顿、西奥多·克莱普尔:《大数据时代的隐私》,郑淑红译,上海科学技术出版社2011年版,第19页。无怪乎美国学者洛丽·安德鲁斯发出大数据时代下个人“隐私死亡”的警告。[注]参见Lori B.Andrews, I Know Who You Are and I Saw What You Did: Social Networks and the Death of Privacy, Free Press, 2013.值得特别注意的是,与传统技术聚焦于个体隐私信息的搜集与利用不同之处在于,现代大数据分析技术在隐私信息的搜集和运用上,已经呈现出超越个体层面,逐渐向群体隐私聚焦的趋势。[注]参见Lanah Kammourieh et al ., “Group privacy in the Age of Big Data” , in Taylor, Luciano Floridi, Bart van der Sloot(ed.), Group Privacy: New Challenges of Data Technologies, Springer, 2017, pp.37-66.之所以会带来这种变化,原因在于,以大数据算法决策是建立在分类的基础之上。这意味着,大数据时代,不仅仅要关注单个个体的隐私保护问题,还需要关注大数据分析技术带来的群体隐私威胁和保护的问题,这也给传统以个体为中心建构隐私权的理论、制度和实践带来了挑战。
从决策的平等性角度观之,自动化算法决策在引发隐私风险的同时,也造成了歧视风险。[注]参见Kate Crawford, The Hidden Biases, Harvard Business Review, April 01,2013.德国学者克里斯多夫·库克里克将现代大数据算法统治的社会称之为“微粒社会”,以区别于传统的“粗粒社会”,微粒社会的典型特点是借助算法对人和事物进行高度的解析、评价和预测。因此,微粒社会也是一个借助算法进行预测和打分的“评价型社会”。然而,由算法所进行的评价并非技术专家所标榜的那么客观和中立。基于算法所做出“评价和预测不是中立的,它们介入个体的生活之中,考验着我们对于民主体制中平等的理解。”[注][德]克里斯多夫·库克里克:《微粒社会:数字化时代的社会模式》,黄昆、夏柯译,中信出版社2018年版,第110页。这意味着,算法决策给传统的平等观念和价值带来了严重的挑战,也引发了歧视风险。如果说隐私风险是源自于大数据的开放性特征,那么,歧视风险则是源于大数据的排斥性特征。在技术乐观主义者看来,大数据具有开放性和包容性,能够很大程度上消除传统人类决策中的偏见与歧视。然而,大数据并非如那我们所设想的那般,只具有开放性,而是兼具包容性特征与排斥性特征。[注]参见Jonas Lerman, Big Data and Its Exclusion,Vol 66 Stanford Law Review Online (2013), pp.55-63;又参见Edith Ramirez, Julie Brill, Maureen K. Ohlhausen, Terrell McSweeny, Big Data: A Tool for Inclusion or Exclusion?, Federal Trade Commission, January, 2016.而恰恰是由于大数据的排斥性特征,引发了大数据算法歧视的问题。
目前,算法决策的歧视问题呈现在私人与公共决策诸方面。例如,在招聘就业领域,算法自动化决策带来了对黑人和女性等特殊群体的系统性歧视。[注]关于就业领域的算法歧视问题,参见Allan G.King, Marko J.Mrkonich, Big Data and the Risk of Employment Discrimination, Vol.68 Oklahoma Law Review(2016), pp.555-584;又参见Pauline T.Kim, Data-Drive Discrimination at Work, Vol.58 William&Mary Law Review(2017), pp.857-936.在银行信贷领域,算法决策使得在相同条件下,黑人和其他有色人种获得银行贷款的机会明显减少。[注]关于金融信贷领域的算法歧视,参见Danielle Keats Citron, Frank Pasquale, The Scored Society: Due Process for Automated Predictions, Vol.89 Washington Law Review(2014), pp.1-33.美国学者伊恩·艾瑞斯表达了他对于金融信贷领域算法决策种族歧视的担忧:“尽管几乎不可能明确根据种族来制定房贷或保险计算程序,……不过,形式上没有种族歧视的计算程序有时也会被质疑为促进了某种实质性的歧视。地域性歧视是历史延续下来的做法,即拒绝向少数群体地区提供贷款。实质性歧视类似于拒绝向数据表明有少数群体聚集的群体提供贷款。让人担心的是放款人可以通过数据挖掘到与种族相关的特征,并把这些特征用作拒绝放款的借口。”[注][美]伊恩·艾瑞斯:《大数据思维与决策》,宫相真译,人民邮电出版社2014年版,第172页。牛津学者布莱斯·古德曼和赛斯·弗兰斯曼认为,“在一定意义上,运用算法画像来进行资源分配本质上就具有歧视性:当数据主体根据各种变量进行分组时画像就发生了,而决定的作出则是以某一主体归属于特定的群体为基础的。”[注]Bryce Goodman, Seth Flaxman, European Union Regulation on Decision-making and a “Right to Explanation”, https://arxiv.org/pdf/1606.08813.pdf,最后访问时间:2018年7月20日。在市场营销方面,各大互联网平台通过对消费者历史消费记录的大数据分析,可以精准掌握潜在消费主体的消费偏好和需求,并基于消费者对特定商品和服务的喜好程度来对其进行“差别化定价”,提供所谓的“个性化”消费体验。然而,这种个性化定价的背后,则可能构成“价格歧视”。[注]国外学者阿里尔·扎拉奇、莫里斯·E.斯图克认为,歧视性定价行为指的是商家在向不同的消费者提供相同等级、相同质量的商品或服务时,基于后者的购买意愿与支付能力,实行不同的收费标准或价格政策。而商家成功实施歧视性定价行为需要满足两个条件:一是差别化的定价能力;二是有限的套利空间。大数据时代,商家凭借其掌握海量消费数据和具备自我学习能力的定价算法,能够逼近完全的价格歧视。参见[英]阿里尔·扎拉奇、[美]莫里斯·E.斯图克:《算法的陷阱:超级平台、算法垄断与场景欺骗》,余潇译,中信出版集团2018年版,第113—118页。在预测警务执法领域,算法自动化决策则涉嫌歧视黑人群体和有犯罪记录者。[注]关于预测警务中的算法歧视问题,参见Tal Z.Zarsky, Transparent Predictions, Vol.2013 U.Illinois Law Review(2013), pp.1503-1569.
在现代法治社会中,基于个人种族、肤色、宗教信仰或其他一些特征所作出的公共或私人决策都将受到决策平等性的质疑。然而,在大数据算法的帮衬下,决策者可以“绕开这些反歧视约束,实现对特定人群的分组。通过自动化的开发和改进分组的过程,算法将特定种族、婚姻状况、年龄、性取向和宗教信仰的人划分到了一起。”[注][英]阿里尔·扎拉奇、[美]莫里斯·E.斯图克:《算法的陷阱:超级平台、算法垄断与场景欺骗》,余潇译,中信出版集团2018年版,第164页。这意味着,借助于算法程序,歧视现象将变得更为隐秘,难以为人们所察觉。但是这并不意味着歧视并不存在。实践中。屡屡见诸报端的“大数据杀熟”等大数据歧视现象表明,算法决策并非如我们所设想的那样公正客观,而是同样存在着偏见和歧视,人们固有的偏见与歧视将通过数据搜集和数据训练等一系列行为而得以延续,甚至加剧。学者形象地将其称为“偏见数据进,偏见决策出”。
算法自动决策所引发的隐私与歧视风险,在不同程度上都指向大数据算法决策的“黑箱效应”。所谓算法决策的“黑箱效应”,是指那些对人们生活产生重大影响的决策,是由大数据算法在人们无法察觉和认知的隐秘状态下自动作出的,具有高度的模糊性。究其原因,算法决策黑箱效应缘于算法决策具有高度的技术性和隐蔽性。正因如此,大数据算法成为公共和私人机构推诿责任的工具和屏障,当决策失误时,他们便可以决策是由技术中立的算法模型作出为理由而拒绝承担责任,从而引发了算法决策的可责性问题。凭借大数据算法,一些商业机构和公共部门正在获得一种新的权力——算法权力。而如何从法律制度层面对这一权力加以有效规制,成为亟待法律学者回应的重要理论与实践命题。
2016年4月14日通过并于2018年5月25日正式实施的欧盟《一般数据保护条例》,被认为确立了算法解释权。在大数据时代背景之下,作为一种新兴权利形态,算法解释权兴起所展现的,实则是试图通过强化对算法自动化决策的解释,进而提高算法透明性,并最终达致克服算法模糊性和技术性特征所引发的隐私和歧视风险的制度性努力,亦即旨在通过赋予数据主体有权获得算法自动决策的解释权利,来达到规制算法权力,进而缓和乃至消除算法决策隐私和歧视风险的目的。
三、通过增强透明性规制算法权力:算法解释权之控权逻辑评析
透过上文的分析,我们得以洞悉算法解释权产生的现实情境,但是,公允而论,作为一种新兴权利,其正当性并不仅取决于宏观层面大数据时代所面临的形形色色的现实需求,而更多地取决于这一权利类型究竟能够在多大程度上回应和解决现实的难题。在大数据时代,各种权利话语呈现泛滥趋势。加拿大学者萨姆纳便对现代社会中权利膨胀与贬值现象提出批评,在谈到权利话语的问题时,他将经济学上的通货膨胀与权利膨胀相类比:“通货膨胀使得货币贬值,降低了购买力。权利要求的扩大也使权利贬值,降低了权利论争力。权利要求的扩大是有意义的,但往往缺乏基础或比较轻率”。[注][加]L·M.萨姆纳:《权利的道德基础》,李茂森译,中国人民大学出版社2011年版,第14页。目前,围绕着算法解释权的实然存在性与应然正当性,学界仍存明显分歧。为了更好地明确算法解释权的价值,避免算法解释权的制度建构沦为一种缺乏理论基础的轻率产物,殊有必要梳理和检视算法解释权的控权逻辑,并澄清和回应目前学者围绕算法解释权的理论争议误区。
(一)算法解释权的控权逻辑:增强算法透明性
在算法决策逐渐占据统治地位的算法社会中,各大互联网商业巨头和公共机构正在掌握一种算法权力,而支撑这种新型权力的则是各种功能强大的学习算法。大数据算法的重要特征在于其高度的专业性和模糊性,这些特征使得算法决策呈现出显著的黑箱效应,并最终引发了算法决策的责任性危机。为了克服算法黑箱效应,进而强化算法决策的可责性法律学者和技术专家等进行了艰辛的理论探索和制度建构,算法解释权则是众多方案中极具代表性的一种。从控权角度观之,算法解释权基本遵循了以权利制约权力的控权逻辑。具体而言,算法解释权制度的建构逻辑如下:算法决策存在严重的黑箱效应,并导致算法决策责任性缺失,为了重塑算法决策可责性,则需要通过算法解释权来提高算法决策的透明性。
欧盟《一般数据保护条例》便基本遵循了这样一种以通过赋予解释权提高算法透明性进而增强算法决策可责性的算法权力规制路径。欧盟《一般数据保护条例》第13条第2款第(f)、第(14)条第2款第(g)项、第15条第1款第(h)项均规定了控制者在获取个人数据时,为确保处理过程公正和透明之必要,应当向数据主体提供如下信息:“本条例第22条第1款以及第4款所述的自动决策机制,包括数据画像及有关的逻辑程序和有意义的信息,以及此类处理对数据主体的意义和预期影响。”该条实则确立了算法解释权。从立法目的上看,该条款明确指出了设立算法解释权的目的,即旨在“确保处理过程的公正和透明”。从权利主体上,该条款将解释权的权利主体界定为数据主体,而将解释权的义务主体界定为数据控制者,即各大互联网平台和公共机构。从适用对象上,算法解释权适用于基于算法所做出的自动决策,该《条例》第22条第1款进一步对算法自动决策加以界定:“如果某种包括数据画像在内的自动化决策会对数据主体产生法律效力或对其造成类似重大影响,数据主体有权不受上述决策的限制。”从解释内容上,则主要包括“数据画像及有关的逻辑程序和有意义的信息,以及此类处理对数据主体的意义和预期影响”。透过对欧盟《一般数据保护条例》的梳理可以发现,算法解释权的权利构造以及立法目的大致遵循了上述以数据主体算法解释权制约数据控制者算法权力的控权逻辑,且遵循借由提升算法决策透明性来达致算法决策可责性的规制路径。
(二)算法解释权控权逻辑之批判——来自反对者的观点
至于算法解释权背后的控权逻辑是否能够成立,则有待进一步分析论证。为了增强分析论证的针对性,在此,笔者将通过梳理目前学界关于算法解释权的理论争议,来进一步厘清算法解释权控权逻辑的潜在价值和局限性。为了有针对性地回应反对者的观点,笔者重点梳理和考察对算法解释权持否定与批判态度的学者的观点。概括而言,目前反对者主要是从否定算法解释权的实存性与正当性两个层面上来批判算法解释权。
第一、否定算法解释权是实然的法定权利。以布莱斯·古德曼和塞斯·弗拉克斯曼为代表的学者认为,欧盟《一般数据保护条例》规定,数据主体有权利获得“包括数据画像及有关的逻辑程序和有意义的信息”,确立了算法解释权。[注]Bryce Goodman, Seth Flaxman, European Union Regulation on Decision-making and a “Right to Explanation”, https://arxiv.org/pdf/1606.08813.pdf,最后访问时间:2018年7月20日。持相近观点还有美国学者安德鲁·赛尔贝特和茱莉亚·波尔斯教授,参见Andrew D.Selbet, Julia Powles, Meaningful Information and The Right to Explanation, Vol.7 International Data Privacy Law (2017).而桑德拉˙瓦切特等学者则否认欧盟《一般数据保护条例》的上述规定确立了算法解释权,而认为该条款只是确立了算法知情权(Right to be Informed)。[注]参见S.Wachter, B.Mittelstadt, L.Floridi, Why a Right to Explanation of Automated Decision-Making Does not Exist in the General Data Protection Regulation, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2903469,最后访问时间:2018年8月10日。还有观点认为,真正确立算法解释权的是该《条例》序言第71款。安德鲁·伯特认为,序言第71款“可能是欧盟《一般数据保护条例》中最清晰的表达算法解释权”的条款。[注]参见Andrew Burt, Is There a ‘Right to Explanation’ for Machine Learning in the GDPR?,https://iapp.org/news/a/is-there-a-right-to-explanation-for-machine-learning-in-the-gdpr/,最后访问时间:2018年8月10日。但是,在他看来,问题在于,因为《条例》序言部分没有法律效力,使得该条所谓算法解释权无法发生法律约束力。在笔者看来,解释权之所以会造成上述分歧,直接的原因在于,在2016年出台的欧盟《一般数据保护条例》中并未明确出现“解释权”(Right to Explanation)的字眼,从而给予了学者们理论阐释和解读的空间,甚至于直接否定算法解释权是一项法定权利。
第二、质疑算法解释权的正当性。除了从法律文本上去否定算法解释权的实然存在性,还有学者则从权利正当性这一更深层次质疑算法解释权的合理性。具体而言,对于算法解释权正当的质疑主要包括以下三个方面:第一,否认算法解释的可能性。一些学者认为大数据算法不具有可解释性,进而直接否认解释权存在的可能性。第二,否认算法解释的必要性。持这种观点的学者认为,人类所作出的很多决策,尤其是私人机构所作出的决策并不需要进行解释,因此同样不需要对算法决策进行解释。第三,认为赋予算法解释权不但不能达到增强算法决策责任性的目的,反而会影响算法自动决策的效率,甚至造成不必要的损失,特别是会泄露商业秘密。[注]参见Lilian Edwards, Michael Veale, Slave to the Algorithm?Why A‘Right to An Explanation’ Is Probably Not The Remedy You Are Looking For, Vol.16 Duke Law & Technology. Review(2017), pp.18-84.正是基于上述理由,学者们对算法解释权持怀疑甚至是坚决反对的态度。
(三)对反对观点的理论回应
笔者认为,上述观点均在某种层面反映出算法决策的复杂性,具有一定道理。但是,其中一些观点殊值商榷。以下分述之:
第一,算法解释权已经成为一项法定权利。虽然目前学界对算法解释权是否一项法定权利仍存争议。但是,通过梳理和比较欧盟《一般数据保护条例》的相关条文,笔者认为,该条例第13条第2款第(f)、第14条第2款第(g)项、第15条第1款第(h)项,以及第22条第1款之规定,实际上已经从法律上确立了算法解释权。有学者所谓的算法知情权,实则是对算法解释权解释内容和解释标准的一种片面的理解而已。实际上,从该学者之后发表的有关解释权研究成果中,可以发现其也是承认算法解释权的。[注]参见Sandra Wachter, Brent Mittelstadt, Chris Russell, Counterfactual Explanation Without Opening the Black Box: Automated Decisions and The GDPR, Available at: https://ssrn.com/abstract=3063289. 最后访问时间:2018年8月20日。
第二,目前现实中的算法决策多具有可解释性。诚然,算法决策确实面临着解释的难题,这种解释难题一方面缘于大数据算法自动决策所运用的算法模型具有较高的专业性;另一方面缘于算法决策是建立在相关性基础之上,而并非建立在因果关系之上,按照惯常的决策解释方式,难以对其进行恰当解释。然而,我们不能就此完全否认算法决策的可解释性。实际上,就目前运用的算法模型而言,大多数算法决策还是具有可解释性的。首先,“虽然某些模型缺乏可解释性确实是一项挑战,但总体而言,可理解的解释的前景并非毫无希望。许多算法决策不依赖于难以理解的深度学习和神经网络,而是较不复杂和更易解释的模型,例如决策树”。其次,“即使是在复杂的多层模型中,模糊性的问题也被高估了,在不试图打开黑箱的情形下仍有多种方式能够解释某一模型所做出的特定决策”。[注]Reuben Binns, Algorithmic Accountability and Public Reason, Philosophy and Technology, 2017.这意味着,目前,大多数算法决策仍然是具有解释可能性的。
第三,算法解释权有助于缓和算法决策的复杂性。我们认为,那种将以人类为决策者所作出的决策直接与大数据算法自动决策直接等同的观点是值得商榷的。因为人类所做出的决策,通常是能够为常人所理解的,人们通常不需要描述决策 的过程,而更多的是解释作出决策的原因,以体现决策的合理性。实际上,“当涉及到人类决策者时,当某人做出我们不理解或不相信的次优决定时,我们常常同样会想要一个解释。”[注]Finale Doshi-Velez, Mason Kertz, Accountability of AI Under the Law: The Role of Explanation, https://dash.harvard.edu/bitstream/handle/1/34372584/2017-11_aiexplainability-1.pdf?sequence=3,p.3,最后访问时间:2018年8月25日。在算法自动化决策中,解释的内容不仅涉及到描述算法决策作出的过程,还涉及特定算法自动决策作出的原因与理由。换言之,在算法自动决策中,数据控制者实际上承担了更重的解释义务。透过算法解释权,原本具有高度复杂性的算法决策能够在很大程度上为人们所理解。
第四,算法解释权有助于增强算法的责任性。正如前述,算法解释权的控权逻辑实则是通过提高算法透明性来达致增强算法责任性的目的。而否定者则认为,通过提高算法透明性来提升算法决策的责任性的路径收效甚微,且会严重影响算法决策的效率和数据控制者的竞争力。必须承认,否定者所表达的观点以及隐含于其中的对算法透明性的担忧是有道理的。首先,因为将算法毫无保留的向公众公开是一件极不明智的选择,这不仅将危及公众的隐私,而且将使得算法自动决策的功能被完全架空。基于此,通过完全地、毫无保留地将算法彻底公之于众是我们坚决反对的。[注]参见Paul B.Delaat, Algorithmic Decision-Making Based on Machine Learning from Big Data: Can Transparency Restore Accountability, Philosophy and Technology, 2017.但是,这并不能构成我们反对算法解释权的理由。因为算法解释权这一制度设计所意欲实现的并非是算法模型的“完全透明性”,而毋宁是在寻求一种“适当透明性”。[注]Frank Pasquale, The Black Box Society, Harvard University Press, 2015, p.142.这一制度设计并不要求算法模型和决策过程的完全公开,而是要求其对算法模型的逻辑和有意义的信息进行解释说明。其次,算法解释权通过对算法决策内在因果性和相关性的解释有助于增强算法的可责性。在现代社会中,可责性既是一种美德,也是一种具体机制。作为一种机制,可责性所指涉的是解释和为特定行为进行辩护的义务。具体到算法决策领域,算法应责性价值的实现,主要体现为以下三个方面:(1)告知算法决策具体实施的行为;(2)阐释说明算法决策的正当性;(3)承担算法决策所带来的制裁后果。算法解释权透过对算法模型的解释、特定算法决策过程的描述以及算法决策对数据主体预期影响的解释说明,能够提升算法的可责性。再次,算法解释权作为一种反思机制有助于提升算法责任性。众所周知,大数据关注的是相关性,而非因果性。大数据算法决策也是试图发现事物之间的相关性,以实现算法决策的精准性和客观性,但是,在很多情形下,相关性并不能保证决策的精准性和客观性,算法解释权通过赋予数据控制者对其算法模型和算法决策的解释说明义务,实则是给予了其对算法决策进行反思的机会。诚如学者所言:“通过呈现决策背后的逻辑,解释可以被用来防止错误并增加信任,解释还可能被用来确定在产生争议的情形下,运用的某些标准是否适当。”[注]Finale Doshi-Velez, Mason Kertz, Accountability of AI Under the Law: The Role of Explanation, https://dash.harvard.edu/bitstream/handle/1/34372584/2017-11_aiexplainability-1.pdf?sequence=3,p.4,最后访问时间:2018年8月25日。这一点,对于公共领域的算法决策尤为重要。公共决策并非单纯的个人欲望、偏好和利益的满足,而是要接受公共理性的检验。此时,算法解释权要求数据控制者对算法决策加以解释说明,恰恰给予公共领域的算法决策接受公共理性检验的机会,从而促进算法决策的可责性。[注]参见Reuben Binns, Algorithmic Accountability and Public Reason, Philosophy and Technology, 2017.
综上,我们认为,在大数据背景下,伴随着算法自动化决策的兴起,算法解释权作为一种应对算法决策黑箱效应的新型权利,通过提升算法透明性来重塑算法决策的可责性,具有正当性基础。
四、算法解释权的基本构造:两种解释权模式的比较分析
肯认算法解释权在现代算法社会中具有正当性的同时,我们也需要看到,算法解释权作为一种新兴权利,在理论上仍面临着诸多争议,在实践中亦将遭遇许多问题,而回应争议和解决问题的最重要途径是进一步理清算法解释权的基本构造。通常而言,一项权利的基本构造涉及权利主体、客体、内容等方面。具体到算法解释权,其基本构造包括算法解释权的主体、客体、内容等诸方面。青年学者张凌寒博士已经从主体、解释标准和内容层次上对算法解释权的构造作了开创性的研究,具有重要意义。[注]参见张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学》2018年第3期。为深化对提高算法解释权利构造的理论认知,本文将从解释主体、解释标准、时机等方面总结算法解释权构造的两种模式,并探讨两种模式运用的具体情境。
从动态角度审视算法决策的形成过程,会发现算法决策过程实际上包含了两个基本阶段:第一阶段为算法模型的建模阶段,第二阶段则是将算法模型运用于特定主体,并在此基础上形成自动化算法决策。基于以上两个阶段,可以将算法解释权界分为以“算法功能为中心”的解释权模式与以“具体决策为中心”的解释权模式。[注]Andrew D.Selbet, Julia Powles, Meaningful Information and The Right to Explanation, Vol.7 International Data Privacy Law(2017).还有学者将算法解释模式区分为“以模型为中心”的解释模式与“以主体为中心”的解释模式,实际上,这种类型学区分与本文采行的界分标准有相似之处,参见Lilian Edwards, Michael Veale, Slave to the Algorithm?Why A‘Right to An Explanation’Is Probably Not The Remedy You Are Looking For, Vol.16 Duke Law & Technology Review(2017), pp.18-84.两种算法解释权模式在解释主体、解释标准和解释时机上具有明显差异。
首先,从解释主体上,算法解释权主体包括算法解释权的权利主体和义务主体。前者指享有获得特定算法解释权的主体,而后者则是指负有算法解释义务的主体。两种解释权模式在权利主体范围上有所差异。以算法系统功能为中心的解释权模式的权利主体主要是数据主体,义务主体则主要是特定算法模型的开发者,以具体决策为中心的解释权模式的权利主体则主要是受到特定算法自动化决策影响的相对人,例如在被特定自动化算法决策拒绝聘用的相对人,其义务主体则是特定算法模型的使用者,例如用特定算法模型作出雇佣决策的公司。需要特别指出的是,因为算法决策的过程具有较高专业性和复杂性,作为特定算法模型的开发者负有协助解释的义务。
其次,从解释标准观之,数据控制者对自动化算法决策的解释标准不同,意味着其为数据主体提供的“有意义的信息”所包含的具体内容并不相同。以算法的系统功能为中心的解释权模式主要聚焦于对特定算法模型的系统功能的解释说明。在这一模式下,特定的数据控制者提供给数据主体的有意义的信息主要包括:“自动化决策系统的逻辑、意义、设想的后果和一般的功能,例如规范指南、决策树、预定义模型,标准和分类结构”。[注]张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学》2018年第3期。以具体决策为中心的算法解释模式则主要聚焦于基于算法模型所产生的“具体决策”进行解释,这种解释模式所提供的有意义的信息包括:特定自动化决策的基本原理、理由和个体情况,例如,特征的权重、机器定义的特定案例决策规则,参考或画像群体的信息。由此可见,两种算法解释权模式在解释标准上存在显著差异。
再次,从解释的时机观之,以算法的系统功能为中心的解释权模式的解释行为通常既可以选择在算法模型建模完成之后而特定算法决策做出之前,也可以选择在特定决策做出之后。而以具体决策为中心的算法解释模式,其解释行为通常是在做出特定自动决策之后进行。
由此可见,两种算法解释权模式在解释主体、解释标准和解释时机上存在显著差异。但是,需要指出的是,根据算法决策的时间阶段不同对算法决策解释权作出类型化界分,旨在明确各个阶段的解释权的具体标准和内容,而并非是意在在算法解释权运用中对两者进行排他选择,更不是指对所有的算法决策统一选择某种解释标准。有学者认为,在解释标准上,算法解释权应当聚焦于特定决策,并认为对特定算法模型“系统功能”的解释是法律上“无意义的信息”。[注]张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学》2018年第3期。我们认为,上述观点有一定道理,但亦有值得商榷之处。实际上,算法“系统功能”与特定算法决策的结果密切相关,不能因为系统功能的解释本身具有较高的技术性特征便认为对其解释是无意义的。这种理解既不符合欧盟《一般数据保护条例》的“有意义的信息”的立法涵义,也不符合算法解释权的立法目的。
结语
在大数据时代,伴随着算法统治时刻的来临,如何从法律制度上对这些广泛而深刻影响人类权利和利益乃至于人的尊严和完整性的大数据算法进行有效规制,成为现代“算法社会”中法律人义不容辞的使命与责任。诚然,赋予数据主体以及受特定算法决策影响的相对人以算法解释权,只是众多规制方案中的一种。作为一种赋权规制路径,如同其他规制方案一样,算法解释权既有其不可替代的功能,也存在着局限性。但是,无论怎样,以提高算法决策透明度和可责性为重要目的的算法解释权规制方案,在捍卫人的尊严和完整性方面,发挥着无法取代的重要性,而人的尊严和人的完整性的侵蚀恰恰是现代算法社会所面临的根本性挑战。从这个意义上,作为其中可资利用的一个新兴权利形态,算法解释权在捍卫和实现算法社会中为人们所共同珍视的隐私、包容等关系人的尊严的重要价值方面具有重要制度功能,值得我们憧憬和认真对待。