预测算法与社会公平
——以“机会信息”访问为视角
2022-08-10戴艺晗
戴艺晗
(华东政法大学国际法学院,上海,201620)
1 引言
新一轮科技革命的推动使得人类正加速迈向数字社会,手机支付、网上挂号、APP打车、在线学习、网络订餐、协同办公逐渐成为人们生活、工作的常态[1]。“在线课堂、互联网医院、智慧图书馆、智能小区……从购物消费、居家生活、旅游休闲、交通出行等各类场景,到教育、医疗、养老、就业、助残等重点领域,数字化服务迭代升级,数字生活新形态不断涌现,数字社会建设取得长足进展。”[2]算法对社会资源和信息的分配机制有重要影响[3],私人生活和公共治理领域的数字化建立在对蕴含各种机会(如就业机会、教育机会等)的信息的访问基础上。因此,蕴含各种机会的信息的传播方式至关重要,因其提供了获取关乎人类生存和发展、繁荣和福祉至关重要资源的途径。大型互联网公司手握精确校准信息分布的巨大权利,控制着对各类机会信息的访问机会。传统印刷或广播媒体即使针对特定受众,也无法阻止任何特定个人访问其发布的信息;相较之下,算法权力逐渐演变为“准公权力”[4],大型互联网公司有能力通过大数据和预测算法精确定位受众,影响信息的传递,以不透明的方式决定哪些用户能够接收信息、哪些用户被排除在外,从而危害社会公平。本文以脸书(Facebook)“纳米定位”广告为例,结合网上招聘的运作模式,阐明预测算法如何控制对以就业信息为代表的机会信息的访问并可能会加剧甚至恶化现有的不平等模式,进而损害社会公平公正。要解决此类困境,需要明确以下三个问题:什么是机会信息?决定机会信息被谁看到的算法是如何运作的?如何从法律责任认定及追究层面规制预测算法对机会信息访问的控制所导致的不公平不公正现象?
2 机会信息定义
数字化正成为一种全球趋势,对社会的影响日益加深[5]。私人生活和公共治理变得越来越数字化,以海量数据为基础的机器学习算法正在广泛入侵私人生活和公共治理领域[6]。随着日常生活的方方面面被捕捉为数据以及数字媒介交易的普及,独特标识符和个人识别信息(如姓名、用户名、地址、电子邮件、电话、信用卡号码、身份证、车牌等)越来越多地被用于访问服务,大量涉及城市及其公民实时和可操作的数据由一系列公共和私人组织定期生成。这些数据来源于公用事业公司(电、气和水的使用),运输供应商(位置/移动、旅行流),移动电话运营商(位置/移动、应用程序使用和行为),旅游和住宿网站(评论、地点/移动和消费),社交媒体网站(意见、照片、个人信息和位置/移动),政府和公共管理机构(服务、绩效和调查),金融机构和零售连锁(消费、地点),私人监视和保安公司(位置、行为),应急服务(安全、犯罪、治安),家用电器和娱乐系统(行为、消费)等[7]。公民的社交活动被吸收为数据的同时被量化和分类[8]。数据被组织并存储在数字数据库中,很容易被连接和共享。
当今社会呈现两种日益发展并相互交集的趋势:即在发展理论中强调公平公正理念和在发展实践中由于大量使用数据而有可能导致的不平等不公正现象[9]。大量数据的累积使得我们的在线体验越来越个性化,这种提高个性化的动力由复杂的机器学习算法驱动[10],技术和大数据分析能力、人工智能和机器学习的飞速发展为识别分析与自动化决策提供了温床,对个人权利产生了潜在的重大影响。识别分析与自动化决策延续现有的刻板印象(stereotypes)和社会分化(social segregation)模式,决定了哪些信息能被哪些人看到,限制了个人对信息的自主选择权,算法技术重新赋能与赋权原有传播主体的同时也影响和解构了传统传播生态[11]。
算法对相关性而非因果性的追求以及由于决策过程不透明从而导致的黑箱效应使得算法有可能成为严重侵犯人格尊严或公民基本权利的“大规模数学杀伤性武器”[12]。鉴于此,我国《个人信息保护法》第二十四条规定“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”2022年3月1日起施行的《互联网信息服务算法推荐管理规定》(以下简称《算法管理规定》)第十七条也指明“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”由此可见,当算法对个人权益造成重大影响时,尤其需要保障其透明度和计算结果的公平公正。算法的公正问题被视为当今人工智能领域的核心伦理问题之一[13]。某些信息的显示与否会对社会公平产生重大影响,本文将此类信息概括为机会信息,即对个人权益有重大影响的信息。下段将结合相关域内和域外规则界定“对个人权益有重大影响”的具体含义。
我国《个人信息保护法》以及《算法管理规定》并未就“对用户权益造成重大影响”进行详细界定。国家标准《信息安全技术 个人信息安全规范》(GB/T 35273-2020)第7.7条也没有具体定义“对个人信息主体权益造成显著影响”,只是列举了几种具体情形,即自动决定个人征信及贷款额度、用于面试人员的自动化筛选等。我国《信息安全技术 个人信息安全影响评估指南》(GB/T 39335-2020)第5.5.1条从“限制个人自主决定权”“引发差别性待遇”“个人名誉受损或遭受精神压力”“人身财产受损”四个维度对个人权益影响进行评估,未具体定义或明确什么情形构成“重大影响”。从域外立法角度出发,欧盟《通用数据保护条例》(General Data Protection Regulation,以下简称GDPR)第22条规定“数据主体应当有权不被仅仅靠自动化处理包括归档,来对其做出对数据主体产生法律影响或类似严重影响的决策”。然而GDPR在其文本中也未明确定义“法律影响或类似严重影响”或具体界定其范围。欧盟WP29工作组制定的《关于自动化个人决策目的和识别分析目的准则》(Guidelines on Automated Individual Decision-making and Profiling for the Purposes of Regulation 2016/679)将“产生法律影响”定义为影响一个人的法律地位或合法权利的事情,如住房福利;同时将“具有类似重大影响的决定”定义为对个人的环境、行为或选择产生同等法律影响的决定,如无需人工干预的电子招聘。
结合上述规则,本文将对个人权益有重大影响的机会信息概括为:获得与否会对数据主体的法律地位或基本法律权利产生影响或对个人的环境、行为或选择产生同等法律影响的信息,例如蕴含就业机会的信息、接受教育机会的信息等。
3 预测算法对机会信息访问的控制机制
本章以脸书“纳米定位”广告为例来阐明预测算法如何影响用户对机会信息的访问。信息算法系统中存在三大主体:一是信息(广告)发布主体,一般是以大型互联网公司为首的网络服务提供商,借助算法技术发布信息和广告的平台;二是信息(广告)主体,即有需求发布信息和广告的主体;三是信息(广告)接受者,即信息算法技术及其产品的接受者。例如,字节跳动在脸书上发布招聘程序员的广告,程序员A看到了这个信息,那么脸书是信息(广告)发布主体,字节跳动是信息(广告)主体,程序员A是信息(广告)接受者。机会信息往往以广告的形式呈现,谁有权访问这些广告与社会平等和公平息息相关。大型互联网公司通过预测算法控制对机会信息的访问主要通过广告定位以及广告发布两个过程完成。在广告定位阶段,广告商提交构成其广告内容的文本和图像并选择目标参数;在广告发布阶段,平台基于许多因素,如广告商的预算、广告效果以及广告与用户的预测相关性等将广告投放给特定用户[14]。以脸书为例,广告商在广告定位阶段必须做出以下选择:(1)广告内容:广告商通常会提供广告标题、文字、图像以及视频,这些统称为广告创意;(2)受众选择:广告商需要选择他们希望哪些平台用户,即受众可以看到广告;(3)出价策略:广告商需要说明他们愿意为广告展示支付多少费用[14]。广告商输入上述所有信息后,提交广告平台以供审核;一旦获得批准,广告将进入发布阶段[14]。广告发布是指广告平台向用户展示广告的过程,广告平台通过广告拍卖确定向用户展示广告的机会(例如,当用户使用浏览服务时广告位可用),即从包含当前用户的所有广告中确定向哪个受众展示哪个广告[14]。
3.1 广告定位
脸书是全球最大的社交媒体平台以及美国和全球数字广告行业的第二大参与者,广告占公司收入的比重很大。脸书能够成功发展其广告业务的主要原因之一在于它收集了大量与其用户相关的数据[15]。脸书能够根据其广告平台附加的兴趣来唯一识别用户,即脸书的广告管理工具可以使每个广告都能精准投放给事先预定的一个脸书用户[16],这一过程被称为“纳米定位”(nanotargeting)。广告商通过将用户个人身份信息(如姓名、地址、出生日期)和其他属性信息(例如政治派别或是否访问过公司的网站)上传到脸书来指定他们想要定位的特定个人用户。上传此信息后,脸书基于这些信息来识别平台上的相应用户,并向他们投放广告[17]。脸书为广告商提供了广泛的配置参数,包括但不限于:位置(国家、地区等),人口统计参数(性别、年龄等),行为(移动设备、操作系统、使用的网络浏览器等)和兴趣(运动、食物等),进而为广告商提供了“在正确的时间向正确的人展示正确的广告的机会”[18]。脸书还鼓励广告商通过使用可用属性在其目标受众中包含或排除某些类型的用户,以求缩小受众范围[19]。广告商可用于定位的特定功能因平台而异,但通常包括人口统计属性、行为信息、用户的个人身份信息(PII)、移动设备ID和网络跟踪像素[20]。由于定位功能的多样性以及对敏感定位特征(如用户人口统计和兴趣)的使用,引发了歧视的担忧。根据广告商的定位,某些用户群体可能被排除在某些广告的显示之外[14]。2018年3月,美国国家公平住房联盟(National Fair Housing Alliance)及其三个成员组织对脸书提起诉讼,因为它允许广告商基于种族、宗教、性别和残疾等特征决定哪些受众可以看到相关住房广告[21]。
3.2 广告投放
广告定位阶段主要涉及来自广告商的输入,而广告投放阶段很大程度上落在广告平台的控制之下,也会产生歧视性的后果。尽管广告商可以通过多种方式定位(或排除)看到其广告的特定用户群体,但平台广告投放过程也会对谁最终看到广告产生影响,当广告商使用脸书提供的“相似受众”工具功能时,脸书会使用其广泛的数据来分析源受众中用户的属性,并识别具有相似属性的其他脸书用户[14]。虽然雇主最初通过选择源受众来定义目标群体,但脸书的算法确定了定义此受众的相关属性以及哪些其他用户将实际收到广告[14]。一项研究表明当广告商试图向全社会无差别投放五个木材行业招聘广告时,脸书的广告投放算法并未听从此指令而是将此广告投放给了超过90%的男性用户和超过70%的白人用户;此外,当研究人员试图向全社会无差别投放五个门卫就业机会广告时,广告投放算法将广告投放给超过65%的女性用户和超过75%的黑人用户[14]。之所以会出现这些广告投放偏差,是因为脸书的广告投放算法根据以往的用户参与度和印象数据推断出哪些类别的用户更有可能参与广告。尽管广告商已经明确表示希望无差别投放广告,脸书仍然有可能做出有倾斜的投放[14]。用户对广告的参与与否可以反映与其种族、年龄等相关的个人偏见和经历。当算法识别出此类参与模式时,将寻求根据这些趋势优化广告活动、以扩大投资回报,这意味着在某些情况下,算法可以基于历史数据推断将偏见永久化。在此过程中,算法可能会通过排除某些群体看到此类广告的机会,阻碍平等的结果。因此,旨在最大化脸书点击次数和利润的广告系统会成为机会平等的障碍。脸书的广告投放算法决定了目标受众中的哪些用户实际收到了广告,即使广告商使用中性定位标准并打算覆盖不同的受众,广告定位算法也可能以有偏见的方式分发有关机会的信息,如图1所示。
图1 广告定位算法分发机会信息流程Fig.1 The Process of How Advertising Targeting Algorithm Distributes Opportunity Information
广告最终展示给谁是广告商和广告平台共同作用的结果,倘若广告发布平台只是将顾客最想购买产品的广告精准展示给特定目标受众,结果可能无伤大雅,但是倘若广告发布平台选择展示的是机会信息,则有可能造成社会不公平。后文以就业信息为例,阐明预测算法对机会信息访问控制的影响。
4 预测算法对机会信息访问控制的影响及规制困境
4.1 以就业信息为例
预测算法通过观察过去的行为模式而构建,旨在基于历史数据、统计建模和机器学习等分析技术,对未来的结果做出预测。因此,这些系统可能会以反映现有不平等的方式分发有关未来机会的信息,并可能强化业已存在的劣势模式[22]。以招聘广告为例,《中华人民共和国劳动法》(2018年修正)第十二条、第十三条规定劳动者就业,不因民族、种族、性别、宗教信仰不同而受歧视;妇女享有与男子平等的就业权利。在录用职工时,除国家规定的不适合妇女的工种或者岗位外,不得以性别为由拒绝录用妇女,因此在招聘广告中,不得设置“民族、种族、性别、宗教信仰”等限制;不得对女性设置“性别”限制(国家规定的不适合女性的工种或岗位除外)提高对妇女的录用标准。《中华人民共和国就业促进法》(2015年修正)第三条、第二十九条、第三十条、第三十一条也都有录用员工时禁止歧视的规定。如果企业在招聘广告中含有上述歧视性信息,劳动者可以向法院提起诉讼,造成财产损失或者其他损害的可以要求赔偿。然而,现如今“嵌入人工智能的歧视不再像过去一般露骨,而是隐匿到数字世界的角落悄无声息地侵蚀社会公平正义,”[23]招聘广告中的歧视由显性的“只招男生”“男生优先”的说明转化为根据大数据算法精准投放招聘广告,例如美国卡内基梅隆大学的学者曾经做过用一种名为ADFisher的钓鱼软件模拟普通用户浏览求职网站的实验,以统计谷歌(Google)推送“年薪20万美元以上的职位”的广告数据,结果显示男性收到1,852次推送,女性只收到318次,女性得到“高薪”职位推荐的机会仅为男性的1/6[24]。换言之,女性被排除在了高薪广告的展示之外。
现今的劳务市场中,求职者和雇主都倾向于在提供求职信息的平台上注册并提供有关可用机会和所需技能或经验的信息。提供求职信息的平台并非被动地发布这些信息,而是通过推动求职者申请某些工作并向雇主推荐特定申请人来积极促进工作的匹配过程。推荐系统既依赖用户提供的数据,也依赖平台收集的数据,并基于内容推荐和协同过滤[25]。基于内容的推荐根据物品或内容的元数据,发现物品或内容的相关性,接着基于用户过往留下的数字痕迹对其偏好的展示或表达向其推荐类似的项目或物品,例如,通过挖掘用户过往看过的电影向其推荐类似的电影[25]。协作过滤首先使用统计技术寻找与目标用户有相同喜好的相似用户,然后根据相似用户的偏好或属性向目标用户推荐,基本原理就是利用用户访问行为的相似性来互相推荐用户可能感兴趣的资源[25]。
在雇主发布职位空缺后,算法会扫描数万份求职者的简历,在其中寻找符合雇主指定要求的候选人,然后将职位空缺显示给这些候选人,算法还会预测雇主最感兴趣的候选人,将他们标记为“最佳匹配”,列在雇主可见队列的顶部。提供求职信息的平台还会决定鼓励哪类求职者申请职位或者被推荐为合适的人选优先向雇主展示,从而影响雇主看到哪些候选人。推荐系统每一次类似的干预必然会促进一些机会,同时掩盖其他机会。提供求职信息的平台最终控制了求职者和雇主潜在机会的可见性。尽管求职者可以选择提供哪些个人信息或使用求职平台上的广告控制来删除关于他们一些兴趣推断[26],但却无法控制平台对他们可能做出的负面推断,提供求职信息的平台最终决定了哪些因素用于预测可能的匹配项,例如,平台可能会推断出特定用户“对在建筑工地工作不感兴趣”,因此即使雇主试图联系这类特定用户,平台也不会向该用户展示建筑工地工作的广告,平台会以求职者和雇主都不知道的方式将他们排除在机会信息之外。例如,亚马逊开发了一个自动招聘系统,以便人工智能系统可以查看简历并挑选出最佳候选人。为此,亚马逊向系统提供了过去十年申请亚马逊工作的人的简历,然而这些投简历的候选者,大部分都是男性,根据这些数据,亚马逊的系统通过学习将简历上的“女性”一词降级,从而提高男性候选人的排名[27]。
预测算法对就业机会信息访问的控制提供了一个视角,看似中立的关联数据可能已经被身份化,基于集体认同的资源配置模式无形中限制了个体决策的空间,具有相同集体身份的个体拥有相似的资源,即使彼此无意接触,也会自发地呈现出相似的决策偏好。集体认同在资源配置中的作用越明显,个体决策的认同色彩越强,明显中性的特征就越有可能充当集体身份(如性别和残疾)的中介,诱导人工智能输出歧视性结果[23]。歧视以及歧视所导致的社会不公等现象在日常生活中高频发生,并“以产品工程设计的表象掩盖了社会工程设计的实质”[28]。在线优化系统中对广告结果的公共利益审查比传统媒体要困难得多。对传统媒体广告中超出预期规范的定位和投放很容易被公众发觉,监督起来比较容易,相较之下,预测算法对机会信息访问的控制很难审查[29]。在雇主或房东选择属性来定义其目标受众后,其广告不会简单地显示给符合所选标准的每个人,甚至有可能不会显示给这些用户的随机样本。相反,脸书等在线广告平台拥有确定符合条件的受众中的哪些人将实际看到特定广告的权利。
现代社会公平主要表现在六个方面:权利公平、机会公平、规则公平、效率公平、分配公平和社会保障公平[30]。在现代社会中,社会公平首先意味着社会权利的公平,承认和保障社会主体享有平等的生存权和发展权,即要求社会制度安排和非制度安排给予每个社会主体生存和发展的平等机会[30],劳动权利、教育机会、职业选择等不受家庭背景、种族、性别、资本占有状况等因素的限制和影响[30]。机会公平是指社会主体参与社会活动要求社会保障机会均等,机会公平是实现权利公平的前提[30]。在信息社会中,公民权利的正常行使是基于信息多样化的保障,而预测算法通过控制机会信息的获取来损害社会公平,尤其是机会公平和权利公平。
4.2 规制困境
不仅仅局限于就业机会信息,预测算法控制对所有机会信息的访问重点解决的是信息资源的最佳匹配问题,核心在于提高效率以及商业利益最大化,体现了“用户”思维,忽略了着眼于社会公平正义、民生福祉的公众思维[11]。在复杂的预测分析工具以及模型的帮助下,任何组织现如今都可以使用过去和当前的数据可靠地预测未来几秒、几分钟、几天甚至几年的趋势和行为。在数字应用中,用户拥有一个看不见且多个维度的数字身份,这个身份包含了使用习惯、个人品味、偏好、个性特征和社交图谱等组合。然而,这种数字身份的构建并非直接基于用户的人格或自我意识,而是基于可测量数据点的集合和算法对数据点的解释。换言之,在人工智能眼中,无论多么复杂的用户身份,都能被数字所取代。这些数据可以用于社会分类和区分人群,使某些类别的人群获得优先地位的同时边缘化和排除其他类别的人。除了社会经济地位之外,性别、种族和原籍地还有助于确定我们属于哪个数据库、社交媒体平台系统如何使用我们的数据以及可能对我们产生的影响[31]。社交媒体平台现如今不仅仅是公共话语的居间商,它们构成公共话语[32];他们不只是传递蕴含各种机会的信息(如就业机会、教育机会等)的平台,他们借由分类、筛选和整理信息重新定义了劳动力、教育市场[10]。预测算法对机会信息访问的控制所导致对社会公平正义的侵犯在法律责任认定及追究方面存在诸多问题。
我国《算法管理规定》规制应用算法推荐技术提供互联网信息服务(以下简称算法推荐服务),并将应用算法推荐技术定义为“利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息”(第二条),《算法管理规定》还在第四条明确指出提供算法推荐服务,应当遵循公正公平、公开透明、科学合理和诚实信用的原则,然而《算法管理规定》第五章法律责任中并无关于违反第四条的相关规定。此外,《算法管理规定》第十六条阐明算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任,但是预测算法对机会信息访问的控制很难察觉,“在数字场景中,歧视被重构为0和1的组合,因果关系也随之被封装进算法铸造的黑盒中,‘前因’与‘后果’更加晦暗不清。最直观意义上,算法以代码形式存在,首先形成感知维度上的黑盒。施害人的偏见由算法表达并执行,即使是最赤裸裸的歧视亦披上数字隐身衣。”[23]
即使用户能够证明机会信息以歧视性方式分发,损害赔偿的证明也并非易事,必须依赖一系列假设,即如果预测算法不存在歧视,招聘者A会看到招聘广告;如果招聘者A看到招聘广告,她会申请此职位;如果招聘者A申请此职位,她会被录用。传统责任计划与预测算法造成的危害不匹配,反歧视法倾向于寻找特定的个体受害者,但算法驱动过程的歧视性影响是系统性的[33]。预测算法对机会信息访问的控制损害的是不特定主体的基本权利,这些权利的享有人和利益侵害的力度具有不确定性,危害后果具有难以遏制性,且受到损害的个体难以获得救济[34],原因在于预测算法依赖于统计概括,具有集体维度,问题的系统性使得很难追踪对特定人的确切影响。此外,预测算法通常使用动态机器学习技术来生成预测,并且不断地结合新数据并实时更新,给追责带来了挑战[10]。
5 预测算法控制对机会信息的访问的规制路径
预测算法对机会信息访问的规制离不开制度规则的建构和对责任的明确。
以大型互联网公司为首的网络服务提供者虽然本质上还是社会商业力量,但因其拥有巨大的权力资源和能量,得以突破权利空间,进入权力领域[35],当网络服务提供者滥用其拥有的巨大权力来影响互动从而造成歧视性影响时,他们应该承担责任。个人将看到哪些信息和广告最终取决于由网络服务提供者即平台所控制的算法。由于多种因素影响在线信息和广告的投放,广告商选择的目标标准并不能确保其指定接收者一定能看到广告,雇主可能试图无差别地投放招聘广告,然而即使选择了中性的定位标准,由于平台的协同过滤,接收广告的实际受众可能会沿着年龄、性别或其他可能导致歧视的特征倾斜。当今许多互联网平台服务提供商在分配机会信息的访问方面发挥着重要作用,可能会产生重大的社会影响,应该对此负责,法律应该确保技术朝着更公平方向发展。如果用人单位在求职平台发布的招聘广告中规定只招男生,劳动者可以向人民法院提起诉讼。招聘平台蓄意设计规则将招聘广告只显示给男性用户或者利用大数据将女性求职者排除在外同样违反了就业歧视的规定,也需要明确责任。
为他人提供的内容承担责任可能会威胁到某些平台运营商的生存能力,因此美国《通信规范法案》(Communications Decency Act)第230条(47 U.S.C.§230)为充当第三方内容发布者的互联网平台提供了广泛的法律豁免权①美国《通信规范法案》203条第(C)(1)款规定:交互式计算机服务的提供者或用户不得被视为其他信息内容提供者提供的任何信息的发布者或发言人。。这种豁免权最近解决了针对脸书诉讼的核心问题,脸书认为其广告平台应受到《通信规范法案》第230条的保护,部分原因在于其广告商全权负责决定在何处、如何以及何时发布广告[36]。然而,脸书在投放阶段的独立行动对于确定广告展示的方式、时间和对象至关重要,并且可能产生非法结果,这些影响对于在脸书投放广告的广告商而言可能是不可见的,甚至可能导致广告商的责任。在确定是否适用第230条保护措施时,法院会考虑互联网平台是否“实质性地助长”了被指控的非法行为。
我国《民法典》第1195条、1196条也为网络服务提供者提供了“避风港原则”。“避风港原则”适用的前提条件是:(1)网络(技术)服务提供者仅仅提供互联网技术服务,并没有提供网络内容服务;(2)网络(技术)服务提供者对第三方提供的互联网信息的侵权与否并不知情。以上两个条件必须同时具备,否则将不能适用“避风港原则”进行责任免除抗辩。
平台在什么情况下要为内容负责,关键在于厘清责任。如果有证据证明作为招聘平台用户的用人单位利用大数据将女性求职者排除在外,那么用人单位可能要负责。如果有证据证明一个平台蓄意设计规则将招聘广告只显示给男性用户看,那么平台也要负责。当互联网平台服务商设计定位算法来确定哪些广告投放给哪些用户时,它就已经超越了网络服务提供者的角色,其不只是网络内容提供者的简单传声筒以及发布者,而是参与了某些编辑工作,正如前文所述,招聘网站通常会整理信息、添加上下文或评论,例如向求职者推荐机会、对申请人进行排名等,网络服务提供者此时已经转变为网络内容提供者,不能适用“避风港原则”进行责任免除抗辩。对投放机会广告算法的审查应该考虑广告定位和广告投放两个阶段,首先对广告定位阶段广告商输入的数据是否存在歧视进行审查,其次对广告投放阶段互联网服务提供者运用的内容过滤和协同过滤等算法是否存在歧视进行审查。
明确平台责任包括两个方面:一是平台的数据可查义务。为保证机会信息分发的透明性,平台应当对数据的收集方式、来源、内容、处理过程及依据进行详细记载,并就训练得到的算法进行真实详细的阐释,说明存在的缺陷与可能出现的风险。二是平台的解释性义务。对机会信息的访问涉及当事人的切身利益。“算法的参与必须是可解释的,而算法的不透明性与可解释性之间存在冲突,如果算法无法解释,则构成对当事人的不公对待,且可能带来系统性风险。”[37]政策制定者在寻求防止歧视方面,需要仔细考虑信息发布平台本身运行的优化作用,而非仅仅考虑信息商的目标选择。首先,信息投放中的歧视可能与信息定位无关,因此对信息定位阶段的限制可能无法解决信息投放阶段引起的歧视。特定信息如广告出现的位置受到广告商(指定其目标受众)、其他广告商(竞争广告空间)、用户本身(选择是否点击特定广告)以及协调广告发布平台的影响[10]。这些参与者之间的互动由平台的专有算法进行调解,整个过程不透明。因此平台的解释性义务需要将信息定位和信息投放阶段的解释权皆考虑在内。算法权力的规制和监督需要从算法的设计源头上构建“技术性正当程序”,即通过程序的代码化实现以下要求:算法公开透明,具有程序一致性;允许对决策结果产生怀疑,在专业人员的协助下审查算法,及时纠正错误[38];算法在信息定位以及信息投放阶段都是可解释的等。
此外,平等权的现有法律保护模式采用行为主义逻辑和矫正正义的法律理念,这实际上是一种事后主义的处理方法,更注重对行为结果的控制,而单纯的事后处理为时过晚且成本很高,效果不佳,并未使法律规制延伸至算法歧视的每个角落[39]。因此事后责任制度可能并非防止歧视性损害的最佳方式,应该研究监管模型,以事前预防尽量减轻因使用预测算法而使某些个人和群体丧失接触机会信息的权利以致危害社会平等公平的风险。
6 结论
人类生活对数据、信息和算法的依赖日益加深,迈入了所谓“数据说话、算法为王”的时代[35],在这个时代中,公民权利的正常行使建立在信息多元化能够得到充分保障的基础之上。预测算法影响人们接触信息的方式,某些信息会对数据主体的基本权利产生法律影响或类似严重影响,本文将这类信息归纳为机会信息。预测算法通过控制社会不同个体或团体对机会信息的访问,损害了数字时代的机会公平并有可能侵害劳动就业等各项基本人权。预测算法在信息定位和投放阶段皆可决定与数据主体基本权利息息相关的招聘广告等机会信息最终向谁展示,换言之,机会信息的最终展示是广告商(互联网内容提供商)定位和网络平台(互联网服务提供者)投放共同作用的结果。网络平台在控制对机会信息访问上拥有巨大权利,由互联网服务提供者变成了互联网内容提供商,需要对造成的歧视性后果承担责任。明确互联网服务提供者责任可以从规定平台的数据可查义务以及平台的解释性义务出发,建议以事前预防来尽量减少因使用预测算法限制机会信息展示从而导致社会不公平的风险。