APP下载

算法偏见的法律矫正研究

2020-12-24赵学刚马羽男

关键词:个人信息算法

赵学刚 马羽男

(西南大学法学院,重庆400715)

当今信息化社会中,实现了全球海量数据的集中与分享,这种环境下推动了云计算、大数据、人工智能等现代信息技术的迅速发展。尤其是算法①算法是在有限的步骤内,将输入值(Inputs)转化为输出值(Out-puts),其意义在于减少计算机完成任务的效率。为了提高效率,解决同一种类问题,可将其处理问题的过程模式化,就形成了算法。技术,其依托着数据信息的几何倍数增长以及机器学习技能的提升,对社会整个领域产生深远的影响〔1〕。然而,以统计学为支撑的算法,考察的是事物之间的相关性和盖然性,而非必然的因果关系,其决策结果可能是根据偶然性因素做出的,并不能保证正确,所以先进的算法技术给社会各方面带来极大便利的同时,也潜藏着诸多新的社会问题。着眼于全世界而言,算法偏见或算法歧视、算法操控等社会问题已频繁暴露出来,如通过COMPAS 罪犯再犯概率预测系统评估的结论显示,黑人再犯罪率明显高于白人,前者是后者的两倍;美国每周有超过1000 人被机场使用的算法错误地标记为恐怖分子。相对于无端的歧视与腐败而言,这种披着科学外衣显示出的结果通常很难引起民众的广泛质疑,相反,融合了自动算法与人工智能形成的决策机制得到民众的信服,但同时也使得人们更容易受到歧视并且限制了民众的自我选择〔2〕。目前学界多关注事后救济措施,并未着眼于算法偏见的源头,因此其制定的策略可行性严重不足。如何对算法偏见进行有效规制是当今信息化社会中的焦点问题。

一、算法偏见的常见类型归纳

现代社会中,算法自动决策系统在各个领域的应用极为普遍,算法偏见问题也比较频繁。由于本文篇幅有限,在此只对算法技术呈现出来的价格、就业、信用三方面偏见的弊端进行具体考察分析,发现其中的基本特性,总结出算法偏见治理过程中的症结,为后续应对策略的制定提供参考。

(一)算法的价格偏见

价格偏见是指在交易条件、交易商品质量、等级相同的情况下,供应商针对不同的交易对象提供差异化的价格。企业实施价格偏见的目的追根溯源不过是为了赚取消费者剩余②消费者剩余,是指消费者愿意为一种商品支付的最高价减去实际支付的价格。。一般来说,价格偏见的落实在如下三方面条件缺一不可:首先是企业在市场竞争中占据明显优势,拥有定价的话语权。若不具备竞争优势,在市场完全竞争状况下,企业也就不具备定价的能力,商品价格由市场形成;其次是企业需要全面掌握众多消费群体的支付意愿与消费能力,以此作为差异化定价的依据;最后对于以较低的价格购进商品的购买者,企业需具备防止其高价转卖以获得价格差利的能力。若以较低的价格购进商品的购买者以较高的价格转售商品,对于企业获利产生严重影响,其很难获得较高的出售价格的利润,价格偏见的目的就不容易实现。因此,企业全面掌握消费者最高支付意愿是实施价格偏见策略的重要前提。然而在具体实践中,企业在这方面信息的获取中存在较多困难,限制了其价格偏见策略的实施。随着数据挖掘、分析工具等新的人工智能技术的进步,上述困难得到了有效解决。企业借助于先进的算法技术,根据消费者消费明细、网上浏览记录等信息,统计分析出消费者的消费偏好、支付意愿与能力等众多详细信息,进而通过针对性地定价进行验证,得到较为准确的消费者偏好与能力信息,以此为差异化价格策略的制定与实施提供科学指导。即人们常说的“大数据杀熟”。这种环境中,借助于大数据,那些在市场中不具备明显竞争优势的企业也可以轻松地获得消费者偏好、支付意愿等信息,进而为价格偏见策略实施提供指导。

(二)算法的就业偏见

数据挖掘等人工智能技术的不断发展与普及,催生了算法技术在人力分析系统中的广泛应用。近来,更多的用人单位在员工招聘、考核、升迁、淘汰等人事调整中依靠算法技术做出决策。有些人认为,算法技术在人力资源管理中的应用大大提高了效率,同时也提升了决策的客观性,避免了人工决策的主观性。然而,也有些人指出,算法技术会对现有的偏见产生恶化,相关数据不具备天然的中立性,甚至会产生新的偏见。通过广泛的研究也发现,算法技术在人力资源管理中的应用引发了严重的就业歧视现象。如某个用人单位通过员工家与单位的距离来评估员工工作的稳定性。若以此为员工招录的依据,则对于那些家庭住址距离公司较远的应聘者构成了歧视。研究者Latanya Sweeney 分析表明,通过谷歌系统搜索,输入非裔美国人比输入白种人的名字,软件出现的犯罪审查资料就会多一些〔3〕。由此表明,算法能够跟名字和种族密切相关,同时对少数种族人就业情况有不利影响。研究者Anja Lambrecht 等人分析指出,被推送的有关科技与科技数学或者工程等名词广告中,男性高于女性很多。在卡内基梅隆大学研究者AmitDatta 等分析探究关于求职人员性别和发送招聘信息间的联系,先根据系统性能拟定一般使用者浏览求职网站,之后通过统计谷歌发送“年薪20 万美元以上的相关工作信息数据”,总结出男士用户得到的推送要远高于女性用户,其中男士有1852 次,女性只有318 次,分析看到女士受到高薪工作的推荐只占男性的六分之一比例〔4〕。此类研究表明,算法本身肯定不具备种族与性别的特征偏见,一旦算法设计者具有自身偏见,则歧视就会充斥到其中且一直被使用。

(三)算法的信用偏见

如果征信行业发展兴旺,必然会带来诸多正面影响,首先通过提高金融风险识别方式有利于加快金融业发展,促进信用消费,有助于提高经济发展效率,增加经济收益,同时促进低碳经济。但是其也存在问题,在于征信业具有的信用歧视一直以来并不能受到重视。每个国家都有关于征信的法律制度规定,不允许按照不同民族以及信仰、籍贯、年龄与性别等诸多因素针对某个人的信用做出不恰当评判或者直接差评待遇,但是相关的信用评分系统总是背道而驰。此时,算法在信用歧视中发挥的用途重点表现为,研究征信行业歧视相关情况的原因均来自信用评分算法,类似于黑盒,以商业机密对其保护致使外部以及国家监控部门均不能进入。征信行业的代表提到,保证算法秘密性的目的在于防止消费人员出现信用欺骗;还有部分人指出,即便了解算法也不能理解它的繁杂。信用评价在美国具有重要意义,成为金融的必备证件,决定个人是否拥有工作和贷款以及保险或者汽车租房等事项。美国的征信市场在其发展过程中,始终面临着问题:一方面是错误率较高,据有关部门调查分析得出在消费群体中大约25 个百分点的人的信用报告出现不止一处影响评分的错误;另一方面信用评分的因素与信用降级的原因均不明确,当消费者发现报告存在错误时又很难被救济,有关征信部门难以针对低信用评分说明原因,甚至于,企业根据此类信用报告对部分群体产生歧视,包括女士以及少数民族与残疾人员等,造成此类弱势群体在就业、安家以及贷款等事项上要付出更高的代价。

二、算法偏见的缘由分析

算法偏见追根溯源,最主要的两个方面原因即机器学习偏见以及数据的偏见属性。这两种原因又在运算的过程中相互影响,导致算法偏见的问题愈演愈烈,规制起来困难重重。

(一)机器学习偏见

所谓机器学习,就是计算机程序由经验E 学习同时完成任务T,机器学习就是提升完成任务的性能P,使其伴随积累经验得以提升。应用于垃圾邮件分类中,经验E 的身份指邮件集合,任务T 的身份指识别邮件同时把它分出类别,所谓的性能度量P 是等同于精准度的比例。如此运行程序的过程就是训练,邮件集合指训练数据,所谓机器学习即程序依靠实例提取方法同时逐渐优化的过程,促进不成熟的算法与模型通过实践逐渐得到优化的过程〔5〕。根据阶段划分,把机器学习可划分成为两个阶段,一是机器学习训练阶段,二是模型运用阶段〔6〕。又将第一阶段细分为九个步骤,具体如图1 所示。

图1 机器学习阶段简图

算法设计人员把自我价值判断融入整个过程,包括收集数据、清洗与分割等过程。也就是说,数据中隐藏的社会歧视与算法设计人员的个人意识被融入了模型训练中。所以,机器学习中存在的偏见来源于问题定义,通过模型训练逐渐成熟,在应用过程中得以强化。机器学习偏见重点来源于两个方面:

1.算法设计者的个人意识。纵观机器学习进展情况,算法设计人员的评判糅合在机器学习的每个过程,从拟解决问题的转换到收集数据再到模型的完善与评估,都由算法设计者主观决断,其评断决定着输入与结果的变量以及收集数据的范围与如何选择数据特征。其主观意识贯穿于模型中,使之成为饱含个人偏见的模型。

2.后期学习过程中出现的偏见。不论在模型的训练过程还是应用过程,都使用机器学习技术,人工智能的运用最终实现机器智能化。根据实践经验逐渐吸收优势用以补充模型完整,模型运用的过程会由于新数据囊括的偏见使算法异化。2016 年曾推出的机器人Tay,发布不到一天的时间便展现出其种族歧视、性别歧视与反犹太人的“不良一面”,因此被迫下线。

(二)算法偏见的数据属性缘由

1.数据的偶然性

各种样本存在的地位差距较大,数据具备偶然性,必将造成算法出现歧视现象。样本多与少决定大部分族群以及少数民族的差异性。如何对算法数据进行训练?大多数依赖于抽样,但很难保证随机性,有关少数族群的数据就不容易被选择,因此导致训练的结果偏向于在统计上占多数的族群。

另外,多数与少数族群对于特征空间具有的表现存在差异,出于方便设计,算法会不经意间将少数族群部分不显著特征的数据纳入多数族群的不正确数据内,而非仔细研究其是否正确,是否归于少数族群。若某个算法可以保证85%的精准度,它的精度已经达标。在实践中已经应用在芝加哥警局的工作助力算法,即便所有黑人族群的计算结果不正确,也无太大影响。因为其数量少,占有百分比低,不会使全部预测精准度有大的改变。

2.数据的不敏感属性

数据本身是具有敏感属性的,但是在大数据时代,这些被隐藏的属性很难被保护。因为收集的数据丰富,源头较多,其内部间很强的相互联系性以及相互印证等因素,决定了大数据具有多样性。大数据算法拥有的很大的优势,是能够根据现有数据属性预测出当前未知属性,比如性别与种族。原因在于,部分原本受到保护的属性,显式或者隐式地通过编码出现在多样化的特征空间内。

例如,若设定大数据算法不可以依靠网页与运用过程得到使用者精准的族群资料。但这样却没有对现如今大数据算法造成困难。没有这些信息,大数据依然可以依靠其他方面维度的印记,认知并标识指定群体。比如在美国,大数据算法单纯依靠使用者姓名的独特性质,同时依靠其他维度的相关历史背景特点,使得大数据操作者相对精准地标识黑人群体。原因在于,从前历史中记载,非洲黑人起初被运至美国时,名字比较特殊,均由奴隶主赐予。比方利用白人常见姓名约翰与威廉,稍微修改为杰克和威尔,就赐予了男性奴隶;比方某个男性姓名是杰克并非约翰,根据历史记录,那么很大程度上其会被标识成黑人。同样道理,如果见到姓名为热依汗古丽,就很大概率定位为新疆女性。因此研究得出,某些数据曾在保护中的敏感性质,应用多维算法后,失去了私密性。

3.数据的偏见性

在计算机科学领域,有一个知名度较高的“GIGO 定律(Garbage In,Garbage Out)”,指计算机运算过程中如果输入的是垃圾数据,那么输出的也是垃圾数据。面对大数据算法存在的歧视性,也存在类似的说法。《自然》社论中,通过“偏见进,则偏见出(Bias In, Bias Out)”对此进行阐述〔7〕。

在大数据时代,收集数据人员与算法设计者均存在自身的偏见却不自知,会将其带入数据本身隐藏在其代码内,最后得出带有偏见的结论。现实中,跟银行关于企业贷后监管实施合作过程中,识别到某个指定籍贯者创办的企业出现数额贷款且不能按时偿还情况,此数据结论显示给银行后,便会对股东人员内对应籍贯与法人注册在本地区的单位,增加更高的要求,同时特意收紧贷款业务。这并非完美的处理方式,却造成数据与模型更加复杂。此地域存在的高风险情况,很大程度上可能由于本地的特殊经济形势,如实践中在鄂尔多斯由于能源价位降低出现系统性经济风险,在温州由于违法集资现象使整个范围受限制。当状况结束后,出现的问题会得以缓和且消失。但是,这些情况一旦出现,数据的偏见均存在其中,以前的技术人员可能已经进行了调动,而新的技能管理者并不能很好地了解此类特殊的数据采集与风控模型的思维和逻辑,因此造成此类针对特殊区域的风控偏见将始终存在并延续下去。

三、算法偏见法律矫正的必然与必要

自网络形成至今,与网络相关的法律也不断成型和完善,即便如此,法律对网络的约束仍始终存有一定的疏漏和缺失。社会的进步,离不开先进技术的开拓者,更离不开基本价值的守望者。随着人工智能技术的快速崛起,法律对这一领域的引导与规制更应引起足够的重视。

(一)为强化人的主体地位来规制算法

一旦我们将重心过多地投向于大数据产业发展,而对我们的基本权利以及自由保护予以严重的忽视,势必会对我们的生活造成巨大的威胁。人并非数据,无法像电子一样进行数据化、进行整合,更无法像数据一样进行自动化区分、评分和决策〔8〕。通常情况下,算法权力并不会将我们视为“主体”加以对待,久而久之,在算法规训下,人们逐渐成为可计算、可预测甚至是可控的客体〔9〕。试想,一旦我们的投资观念、消费心理等无不被机器学习算法分析所捕获,并基于此推出让我们无法拒绝的“套餐”,则多数人势必会将选择的自由权主动出让,并对自己所获得的服务给予认可。

人是世界的主体这一观念是世人所共识的,沙特因向机器人赋予公民身份而备受关注〔10〕。随着这一事件的轰动,标志着世界科学技术水平已然发展到相当高的层面,机器人在意识以及创造性等方面与人类正在日趋同步。但是从法律层面来看,机器人的法律主体仍是由人所赋予,换言之,法律应然和实然主体始终是人类。

德沃金表示,在众多个人权利中,关怀与尊重的平等权利尤为重要。具体来说,即每个人都应享有“作为平等的人对待”“社会应当予以尊重,承认其尊严以及平等考虑”的自然权利〔11〕。鉴于此,算法的暗箱操作需要破除,通过对算法法律规制的重新梳理与强化,确保这一算法与社会伦理基础、价值基础更加贴合。在信息技术快速覆盖和普及的现今,活跃于网络社会中的人更应对平等对待给予关注,凸显人这一主体,正视网络技术,从而充分利用和发挥这项技术,更好地为我们服务。

(二)为保护数据的权利来规制算法

纵观计算机技术快速发展,其参与人们生活的程度也随之深入,基于传统媒体进行传输的信息均转化为数据上传至网络。现如今,数据分析技术在数据处理方面日渐庞大。齐爱民教授曾表示,“电子档案中的信息和载体可分离”〔12〕。在人工智能的大环境下,数据是绝大多数信息的载体。与此同时,信息和数据两者间又存有显著的差异,《网络安全法》对此给出了详尽的阐释①《中华人民共和国网络安全法》第76 条规定:网络数据,是指通过网络收集、存储、传输、处理和产生的各种电子数据;个人信息,是指以电子或者其他方式记录的能够单独或者与其他信息结合识别自然人个人身份的各种信息。。

网络中,数据实则是可编码的“0/1”字符,而对于信息载体的数据来说,其是不具备价值判断的。波斯纳大法官曾指出,在经过载体、编译代码、服务协议等一系列操作后,数据才会形成实际法律关系,进而具备天然工具中立性〔13〕。信息在实质上是人对数据的主观理念与认知,其中囊括人的情感。并且,受当时情绪、知识背景等因素的影响不同,对数据的解读也会形成差异。不仅如此,可量化是数据最显著的特征,因此,数据是可被存储、传输乃至交易的。最近几年,大数据交易平台对其财产属性更是给出了进一步的强化②我国北京中关村、贵阳和武汉等地相继设立了大数据交易平台,在数据交易的过程当中数据的财产属性得以凸显。值得注意的是,只有成规模的数据才具有高额的价值,针对个人而言一条数据仅需数角人民币。。

综上所述,数据被机器识别,信息则由人们把控,也正因如此,加强主体对数据的控制应是算法规制的重中之重,换言之,便是对数据权利的法律给予足够的维护和保护。相反,当对数据主体的数据控制权益给予过度的强调,数据流动将不再充分,服务以及价格也难以享有到最优和最佳。针对这一点值得注意的是,在数据保护与数据流动两种利益中,数据权利保护成功的关键,主要取决于两者间的平衡与恰当。

(三)为引领技术的发展来规制算法

现如今,互联网已然将整个社会全部覆盖,亿万网民通过这一平台获取所需信息、彼此交互,无论是对他们的思维抑或对价值观念,都或多或少产生了一定的影响〔14〕。也正是如此,对互联网技术发展、应用的适时引导便显得尤为重要,而法律对算法的规制是确保这项技术始终依照合法轨道发展的关键。维系科学与人们生活的核心来自科技,从另一个角度分析来看,科技只有合理、正常地被运用,人们的生活才会向着良性的一面发展和改善〔15〕。将这种模式放到数据方面亦是如此,数据的准确性、有效性是为用户提供更优质服务的前提,唯有如此,才能实现对用户体验感知的提升和优化,比如前阵火爆网络的中国科技大学隐形资助贫困生就是极具说服力的一例③中科大学生资助管理中心利用一卡通系统留下的就餐数据,分析筛选家庭确有困难、每个月在学校食堂消费超过一定次数而不超过一定金额的学生,在不公开宣布的情况下对之进行“隐形资助”,缓解了学生燃眉之急的同时又保护了学生的自尊心。。由于每一主体基于“数字化生存”迹象的不同认知和理解,从而对我们就算法精准分析与定位的忧虑给予了充分的印证。

法理学始终围绕的课题之一即是法律和科学间的关系。鉴于自然偏好的逻辑是技术治理所遵循的重点,而社会共识逻辑又是法律治理遵循的关键,对技术治理的归化与引领显然需要为人类制度生活载体而生的法律来实现〔16〕。其中,以法律价值对技术发展引领最为重要。譬如在技术治理过程中,人们可以自觉参照相应的法律价值选择适宜的工具,以此实现对网络社会技术治理手段的有效疏导〔17〕。科学的飞速发展同时,法律也应最大限度地发挥其作用,保持与科学发展的同步。

四、算法偏见的个人信息保护的立法矫正

在短期内,对算法偏见的各个方面分别立法规制所需投入的成本过高,因此,可脱离这些部门法的拘束,以个人信息保护法的形式加以规制。其理由包括三点:第一,一切所涉及的算法都来自收集、使用个人信息,因此,基于法律调整对象的层面来说,在个人信息保护法中增加个人信息的非歧视性利用具有十足意义;第二,针对商业目的或非商业目的的数据非国家机关数据处理主体,可以提出信息披露、收集和处理资格、义务以及规范等方面的要求;第三,《个人信息保护法》早在第十三届全国人大常委会立法规划中被列入第一类项目,条件相对比较成熟,以此规制算法歧视的可行性较高。

(一)《个人信息保护法》应明确被遗忘权的保护

如今,人们视庞大的数据分析理解为深度学习的过程,增加机器看与听的感知便是数据分析理解这一过程的最终目的〔18〕。但是不可否认,算法也有一定的缺陷,以冷启动最为典型。由实例分析来看,产品链接新用户后需要先行对用户相关数据加以收集,试想基于数据缺失的前提下显然是无法进行全面、有效的分析,算法的作用也将难以充分发挥。算法的优势更多地体现在对数据的获取,人们一旦控制了数据,同样也就控制了学习算法〔19〕。一位学者将算法与数据两者间的关系比喻为食谱与食材,即算法为食谱,数据为食材,只有严格依照食谱将食材给予合理的搭配,才能制作出可口的菜品〔20〕。由此可以得知,实现算法法律规制的首要前提,便是从源头对数据加以强化和保护。

当下,世界范畴内对数据保护的路径可归结为以下三种:第一,美国以对市场规范路径的重视,实现对企业收集个人数据的规制,其对数据产业发展给予了十足的保护,而个人数据权利并未给予过多的要求,发生数据侵权主要交由FTC(联邦贸易委员会)全权处理;第二,德国在对个人数据的保护方面主要采取联邦数据保护专员制度来实现,这也是其数据保护法中尤为重要的一个组成部分,其中明确规定了自动收集、处理和使用个人数据的公共机构以及个人组织均需要书面任命一名数据保护官,并要求数据保护官需要具备过硬的专业知识和必要的责任意识;第三,欧盟对数据的保护则主要采用制定详备的法案。譬如于2012 年发布的《通用数据保护条例(草案)》(GDPR 草案)至2016 通过再到2018 正式生效已历经六余年的时间,在此过程中,GDPR 对数据的规定也进一步完善和细化,这一法案的巨大反响引起了全世界的高度重视。

被遗忘权的实现问题,可以说是控制数据、制约算法的重中之重。部分学者将数据和数据权利进行了细化:“用户对含有个人信息、使用痕迹的底层数据享有所有权;数据控制者对匿名处理过的数据拥有受限的所有权;数据控制者对经过数据清理、加工后产生的衍生数据享有所有权”〔21〕。”对底层数据的控制,可经由与关联主体脱钩的方式实现数据被算法遗忘的目的,而删除并非唯一的方式,还可采用数据脱敏的技术降低数据黏性,在搜索结果中劣后排列、表明争议内容。

(二)《个人信息保护法》应提出算法结果拒绝权

1.算法透明和解释的不可行性

在探讨如何规制算法时,很多学者提出了要增加大数据算法的透明性,认为“技术只有透明才能获益”〔22〕。有的学者提出应赋予个人对算法的解释请求权,以“限制算法权力”。其要求是鉴于合同法、侵权法和消费者保护法等都没法充分救济当事人,法律应赋予个人事后的算法解释权;相对人可对自动化决策及算法具体决定对相对人有法律上或经济上显著影响的算法使用人提出异议,要求其对具体决策给出合理解释〔23〕;自动化决策的相对人即算法解释权的主体,譬如量刑、假释辅助算法决策相对人以及经过算法评估不被雇佣的候选人等〔24〕。但是,笔者认为算法的公开和解释权并不可行。首先,从技术上就难以实现,因为自动决策算法依赖大量的数据和强大的硬件的支撑,就连算法的设计者也无法完全解释决策产生的依据;其次,就算算法真的公开,由于其专业性质普通群众也难以理解;最后,根本的一点在于这两种解决方法并不适用于现代商业。其具体原因如下:

首先,公开算法逻辑侵犯商业秘密。如果法律强行要求企业解释算法的过程,数据企业唯一的选择就是将自动决策算法程序给予公开,这等同企业将自身辛苦研究的成果进行公布,将自身完全地暴露在竞争对手面前。企业对算法秘密的保护是维护自身竞争优势与商业机密最为有利的举措,这一点对于竞争日渐残酷的市场来说尤其重要〔25〕。算法解释请求权在根本上干扰了互联网企业的经营行为。

其次,算法解释权扰乱商业模式。自动决策算法的使用需要海量的数据和强大的硬件支持,强如谷歌、苹果、阿里巴巴等互联网巨鳄对大数据的处理都感觉吃不消。实体企业出于节省成本、降低技术难度等考虑也倾向于将业务外包,借助外部数据公司的辅助,在控制风险的同时实现收益的最大化。所以在这种外包模式下,算法解释缺乏实质意义。

2.数据主体应享受算法结果拒绝权

受限于数据库规模及算法的价值判断局限,哪怕数据主体被处理的个人数据并不存在瑕疵,算法决定也可能是不合理的。所以,我国《个人信息保护法》可以借鉴欧盟《通用数据保护条例》第22 条的规定,赋予数据主体对算法结果的拒绝权。具体而言:首先,算法结果拒绝权针对的是自动决策算法的运行结果,以决策树为基础的简单决策算法并非该权利的规范对象;其次,算法结果拒绝权为事后的防御权,数据主体不得事先拒绝自动决策算法的应用;再次,算法结果拒绝权旨在防止和个体有关的决定仅仅通过对个体特征的自动评估而做出,防止个体成为计算机的客体。如果自动决策算法仅仅发挥辅助作用,最后结果实质由人工做出,此时就并不存在个体沦为算法客体的危险,也就没有算法结果拒绝权的适用必要;最后,数据主体应遭受算法结果的严重影响。不利影响并非限于法律状态的改变,也包括对类似利益的影响,如支付方式和支付条件等。

3.数据企业应享受正当的豁免可能

法秩序对自动决策算法的监管,绝非以牺牲技术创新和社会进步为代价。数据主体的权利同时也是数据企业的负担。如果我国《个人信息保护法》承认算法结果的拒绝权,那么也应提供数据企业在下列情况的豁免可能。笔者认为,《个人信息保护法》应规定算法结果拒绝权在下列情况下并不适用:首先自动决策算法使用乃缔结或履行合同所必须;其次个人明确表示同意;最后是法律规定的其他情况。在此,“法律规定的其他情况”为兜底条款,目的是使得法秩序获得根据客观环境变化灵活调整规则的可能性。

4.数据企业应提供充分的程序性保障

即使满足例外的豁免条件,数据主体也应该提供妥当的程序性保障,以满足数据主体的申诉要求。关于程序性保障,我国《个人信息保护法》可以通过《实施条例》来进行细化:个人信息控制者应主动告知主管人员身份及便捷的联系方式,应确保数据主体表达自己的观点的机会;一旦数据主体提出异议,算法决定即处于不生效状态。此外,数据企业负有主动告知数据主体上开申诉机制的义务,以确保规制目的的实现。

五、算法偏见矫正的法律监管

算法监管内容、流程乃至对互联网企业承担的强制披露义务都有着极强的专业性和技术性。所以,设立专业的监管部门和具有系统性、层次性的监管,便显得尤为重要。

(一)设立企业内部的个人信息保护人

为了更好地监管算法,数据企业内部应确立明确的自动决策算法的处理责任人。根据《信息安全技术:个人信息安全规范》(以下简称规范)第10.1 条b 项,个人信息控制者应任命个人信息保护负责人和个人信息保护工作机构。2019 年1 月公布的《规范》(修改稿)新设第d 项和第8 子项,要求个人信息保护负责人“公布投诉、举报方式等信息并及时受理投诉举报”。我国已经尝试在数据企业内部设计对口的岗位来确保企业的合规性。为了实现对自动决策算法的有效控制,立法也应要求个人信息保护负责人负责处理对自动决策算法结果的拒绝或申诉事务。如果数据主体不满意自动决策算法结果,可以直接联系数据活动顾问,行使数据访问权、算法结果拒绝权和申诉复议权。

(二)建立企业外部的监管机构

只有存在专门的监管机关,数据主体才能及时向权力机关寻求支持,保障自身权利的实现。同时,公司内部的数据活动顾问如果无法获得外部的数据活动监管部门的支持,也无法有效地对抗来自高层的压力。为此,我国可以考虑借助《个人信息保护法》建立专门的数据活动监管部门,以为个人行使权利对抗算法提供必要的保障。如果数据主体的诉求遭到数据企业的不当拒绝,数据主体可以直接向数据活动监管部门寻求帮助。相较于常规的行政和司法机构,高度的专业性、技术性应是数据活动监管部门所需具备的首要条件,唯有如此,才可结合相关行业准则制定出与之匹配的规则,确保算法运用得更为合理。

(三)建立数据企业的信息披露义务

对于算法偏见矫正法律监管来说,需要首先创建相应的信息披露义务,即要求算法开发者、使用者结合这一准则履行自身义务。譬如,算法是以预定义策略议程为设计目的时,此时的算法设计应以道德准则为设计前提,同时监管部门也应对此加以审核,其内容包括设计目的、策略议程等。

(四)限制歧视性数据资产的使用

数据反映的内容源自现实社会,所以其内容不乏现实社会中的各类歧视。算法决策是对未来的一种预测、一种判断,当过去的歧视在算法中被放大、被强化后,势必对未来的预测造成严重的影响和误导。所以,数据资产管理中,需对数据资产质量的重要性给予高度重视,杜绝使用一切具有歧视性的数据。监管部门应以风险防范为目标,强化数据资产质量的分析,其中可采用的方式包括数据去噪筛查机制、数据评估机制,或借助专业人士的研究以实现对数据的修复或还原。

(五)设计明确的损害赔偿和罚款规则

如果法律秩序不设计义务违反的法效果,规范将形同虚设,沦为笑柄。我国相关部门进行制度设计时可以参考欧盟的《通用数据保护条例》的相关规定,如第82 条第1 款:任何因为违反本条例而受到物质或非物质性伤害的人都有权从数据控制者或受托处理者那里获得对损害的赔偿;第83 条第5 款:如果数据企业违反第22 条的规定阻碍个人行使算法结果拒绝权或其他相关权利,监管机关可以处以最高2000 万欧元的行政处罚或相当于其上一年全球营业额的4%金额的罚款(二者取其高),明确数据企业违反义务时的损害赔偿责任和行政处罚规则。我国可以根据国情,制定一个既合理又具有惩罚性的罚款规则,来对数据主体企业进行规范。

结语

吴汉东教授曾言道,“对于现代各国而言,人工智能发展的政策考量,其实是基于风险的制度选择和法律安排,我们应通过法律化解风险,通过法律吸纳风险,将风险置于法治社会的背景之中,即对智能革命时代的法律制度乃至整个社会规范进行新的建构”〔26〕。算法偏见将是未来社会的一项主要风险,但是无论我们如何强调算法监管,不扼杀行业的创新力和竞争力应是管理的底线。若我们“责之过苛”,则无异于因噎废食,必将落后于时代。欧盟的经验表明,立法的目标应是在不损及算法创新价值的基础上建构一套新的对抗算法不公的法律体系。通过《个人信息保护法》,来明确被遗忘权的保护和个人对算法结果的拒绝权来矫正算法偏见,构建新的内外监管机构来对数据企业进行监管,双管齐下,一定可以吸纳和化解算法偏见带来的风险。

猜你喜欢

个人信息算法
《个人信息保护法》及《民法典》个人信息保护制度存在的问题及完善
个人信息保护进入“法时代”
哪种算法简便
抑制OFDM系统峰均比的DHT-SCF联合算法
基于Lévy飞行的一种改进鲸鱼算法
敏感个人信息保护:我国《个人信息保护法》的重要内容
主题语境九:个人信息(1)
警惕个人信息泄露
民法典应进一步完善侵害个人信息责任规定
Travellng thg World Full—time for Rree