APP下载

人工智能中的“算法歧视”问题及其审查标准

2019-02-12

关键词:人工智能人类算法

卜 素

( 中国矿业大学 文法学院,北京 100083)

人工智能作为运用计算机实现对人的智能模拟、延展以获取最佳结果的技术理论已成为一门极具研究价值的前沿交叉学科;由于其技术数据整合能力、处理能力以及系统协调能力极为出众,人们已不再仅仅满足于将人工智能作为简单的决策辅助的工具,而是尝试由其替代人类作出决策并完成各种工作任务。[1]如今,日渐成熟的人工智能技术在为人类社会的未来展现出美好愿景的同时,亦正渗透至各行各业中带动行业与产业的升级,智能高效地满足人们的各种需求。可以说,人工智能技术正纵向深入地影响着社会的具体运行体系。然而,在欣欣向荣的发展景象中,不能只对技术发展乐观的呐喊助威,还应当从人类文明这一宏观场景下对人工智能的应用进行客观审视。当我们开始运用人工智能自动驾驶汽车、定罪量刑,甚至是操作武器系统时,是否应先回答这样一个问题,即人工智能系统能否胜任决策工作?目前这一问题的答案无疑是否定的,当今主流的人工智能系统的研发与应用仍处于弱人工智能水平,无法完全实现对智能的模拟,在复杂的工作环境中并不能做到同正常的人类本体一样准确地反映现实世界。这种先天的不足无疑会导致计算机所形成的“最佳结果”与现实生活的偏差,而本文所探讨的“算法歧视”便是偏差现象之一,2018年英国议会所发布的人工智能报告中特别指出了这一现象:一方面,由于数据来源的偏差或是歧视性数据的存在,可能导致相应偏差或歧视性的决策结论;另一方面,由于人为设计上的目的或训练技术算法设计失误也可能导致这一结果。而这种歧视结果既可能是现实状况的折射而导致的误差,也有可能是社会中不公平现象的映射。[2]笔者认为,人工智能所产生的歧视具有一定的独特性,隐藏于技术背后的“算法歧视”与通常意义下的歧视问题有所联系但又有所区别,若仅仅运用传统观念对这种算法歧视予以规制是不足的。因此,笔者尝试通过本文的论述,对人工智能技术中的“算法歧视”现象予以界定,并探寻其背后的理论联系与法律化解路径,以便为人工智能技术未来的发展提供更多的智力支持。

一 “算法歧视”的内涵与特征

(一)何为“算法歧视”

在基本权利保障的范畴中,对歧视的禁止往往落脚于各类具体的要素,如禁止基于种族、性别、宗教等列举要素所采取的不平等待遇,然而,大量间接歧视现象的出现意味着这种概念性的规范在面对复杂的社会变迁尤其是面对“算法歧视”这种新型问题时具有一定滞后性,并且不同于其他类型的歧视,算法歧视问题的出现有着其独有的技术背景。因此,对算法歧视的研究应当从其抽象的本质展开,分析算法歧视是如何对特定的群体作出类似于人类一样“不合理”的歧视性“区别对待”。[3]歧视亘古有之,人们通常所理解的歧视形成的心理原因或是说动机一般来源于人们认识事物时所秉持的“刻板印象”。这种“刻板印象”通常是人们对特定的个人或群体形象、性格以及文化习惯等特点的概括总结,又因为人们的认知习惯、社会经验以及所处社会环境等种种因素,这些“概括总结”无法全面地对特定群体的整体情况进行勾勒,在缺乏有效的沟通与信息交互的过程中,逐渐就形成了认识主体对特定群体的一种固定的看法,即“刻板印象”。正因于此,这种缺乏科学的认识论分析与实践验证的刻板印象中往往充斥着大量的谬误,当这些明显错误的“刻板印象”转变为一种社会偏见,并作为评价他人之先验标准时,便会对特定的群体根据这些错误的看法予以区别对待,歧视由此产生。

值得注意的是,在上述过程中,无论群体的区分还是社会偏见的形成,都是在人类社会关系的交互中形成的。也就是说,当人类个体在自然环境中单独生存时,探讨歧视是没有意义的。只要在社会中生存,每一个人都不会是一个“孤岛”,在世界多元化发展的过程中,每当出现更多新的群体时,新的歧视可能就此应运而生。然而,人工智能的出现看似会改变这样一种现状,当人工智能发展到能够对每个人都作出“客观理性”的认识时,由其支配运行的社会体系便会在合理的规则下平等地对待每一个人,但从目前来看,现实距离这样的理想仍有很大差距:第一,目前人工智能技术水平仍然有限,例如,2015年,谷歌所研发的自动图像标记软件,在识别一对黑人夫妇的照片时将其标记为“大猩猩”并自动上传,而且,许多其他公司研发的自动标记系统也都存在此类问题。[4]这些程序形成的“低级错误”让人啼笑皆非,但也警醒人们,在实际应用中这种技术不成熟所导致的“低级错误”可能会形成更为严重的歧视结果。第二,人工智能技术毕竟是人类的造物,难免存有其设计者与制造者的烙印,人类的刻板印象和社会偏见同样可能“传染”给人工智能,卡内基梅隆大学的研究人员就曾发现,当利用一种广告钓鱼软件来模拟普通用户浏览求职网站以获取相关求职广告推送时,由谷歌推送的“年薪20万美元的以上职位”这一广告,在其他参数相同的情况下,女性用户收到的次数为318次,而男性用户获得的次数则是1 852次,[5]这种针对女性的就业歧视与人类现实的表现如出一辙。第三,人工智能的深度学习能力并非是一个有效矫正歧视的手段,反而成为了一种借由技术不断放大的“程序漏洞”。2016年微软公司的技术研发部门将聊天机器人Tay通过Twitter发布,然而就在其发布不久,Tay在网友的“教导”下发布了大量煽动性的推文,对此Tay的研发团队表示,Tay在上线时曾对表达过性别平等的观点,团队对Tay曾进行过平等观念的教育,也就是说,Tay的这些错误的言论是被网友“教坏”的。[6]Tay的例子说明,人工智能在通过学习形成自我意识的技术研究仍不成熟,在如何甄别信息纠正歧视观念的技术发展更是任重而道远。

总之,从上述的案例来看,目前的人工智能技术并不能帮助人类摆脱歧视的风险,甚至人工智能本身亦会受到各种歧视现象与信息的影响作出歧视的行为,这些由人工智能所带来的歧视成因虽然来源于人类固有的刻板印象,但却是一种经过人工智能背后的算法技术“转译”而来的,笔者认为,这种“转译”而来的所形成的歧视便是“算法歧视”。固然,对于歧视可以采取法律、行政手段予以禁止,但仅采取禁止的方法并不能从根源上解决“算法歧视”问题,甚至对人工智能技术的发展也会造成不利的后果,因此,应当从本质上认识“算法歧视”并寻找对其规制之道。

(二)“算法歧视”与一般歧视的不同

“算法歧视”由于依附于人工智能技术,在具体的表现上与一般的歧视现象相较呈现出难以预测、难以监管以及责任主体多元化的特点。

1.算法歧视的难以预测性

目前,人们对于人工智能时代来临最为深切的体会莫过于个性化的人机交互体验。人工智能并非是基于大量数据的分析给出一个普遍性的结论,而是基于海量数据的来源,作出符合个人选择的决策。一方面,由于人工智能所考量元素的多元化,已不能按照传统的性别、种族等要素界定受歧视群体,受歧视群体成为了一个潜在的对象。例如,大量的互联网企业存在的“大数据杀熟”的现象,本身应当受到优惠待遇的老客户却被差别对待,在获得同样服务与产品的同时却要支付更多的费用;无独有偶,世界上最大的购物平台亚马逊在确定价格的过程中,亦通过隐藏与自己有合作的企业商品的运费,使其价格低于其他同类商品,诱导消费者购买此类商品。[7]由此可见,可能受到人工智能技术歧视对待的群体规模可能扩大化,受到的歧视性对待更加难以察觉。

另一方面,人与人工智能之间的交互并非是以人类惯有的交往逻辑展开的。当人工智能直接面对人们时,相应的行为模式也发生了变化,服务供应商与消费者之间面对面的联系越来越少,实际上更多情况下是由使用者直面这些技术工具。人机之间的互动则并非通过普通人所能理解的语言文字得来,而需要经历“算法黑箱”的操作直接获得结果。因此,当人们面对“冰冷”的机器运用自己不甚了解的逻辑得出的结论时,心中的担忧日渐蔓延。例如,上文中的谷歌的图像标记软件在进行图片分析时得出的错误结论时所采用的分析样本竟然是程序设计人的照片,人工智能技术的“冷漠”正体现于此,即便是人工智能的创造者也没有办法防止针对自己的歧视结果出现。进一步而言,若是在一个更为复杂的决策体系中,算法环节的失误则可能会以更为隐蔽的形式出现,人们可能会在无法察觉的过程中受到不合理的对待。可以说人们对人工智能的普遍性的“不信任”也是源于对“未知算法”的恐惧。

2.算法歧视的监管难度大

接上文所述,人工智能技术需要以专业的算法语言编写而成,固然,这些看起来是“错误”或是“荒谬”的结果都可以转化为技术问题由专业技术人员予以纠正,但互联网世界中大量的黑客技术攻防案例实践证明,计算机技术与网络技术安全保障的难度极大。电子产品普遍性的使用以及技术开源与技术自由的趋势亦昭示着人工智能技术壁垒的脆弱,随着计算机技术的不断发展,与之相对应的规制理论与技术也应当不断更新,这也意味着人工智能技术深层次伦理问题的监管也将会越来越困难。

3.歧视责任主体多元化

歧视结果的出现往往直接由技术运算得出,是否意味着技术的编写者就应当承担产生歧视结果的全部责任呢?这显然是不合理的,人工智能并非一个“离线”的程序孤岛,其决策功能实现也必须与其所获得的信息有关,有的来源于输入端的错误信息,有的则是系统在完善自我进行机器学习时所获取的误导信息。这些数据提供者可能是无意的,如“大数据杀熟”的现象,就是针对消费者的消费金额、消费频率、订单操作的时间甚至是所用的客户端硬件等客观信息进行分析,运用算法分析消费者的消费习惯,形成了某些消费者可能并不在意消费价格波动的决策结论,对这部分消费者采取了区别定价的策略;也可能是有意的,如“tay”被别有用心的一些网友通过恶意的信息交流将歧视思维灌输于其中。因此一个算法程序形成决策的背后,设计者、数据提供者、使用者都有其特定的作用。因此,算法歧视的出现原因就成为了上述各主体影响因素的排列组合,相对应若对算法歧视予以规制也必须是一个多方角力的过程。

二 “算法歧视”的成因与分类

基于上文所述算法歧视的所具有之特点,笔者认为算法歧视并非歧视现象在人工智能技术领域中的简单延伸,对此,应当基于算法歧视的成因探讨该问题的本质,并与一般歧视作出区分。值得注意的是,这里所探讨的成因既包括针对歧视所产生深层次文化因素,如刻板印象、社会偏见等外部性因素;也包括直接基于技术性因素的因果关系,例如,同样可能导致种族歧视后果的行为既有可能是源于程序设计者的认知思维偏差,也有可能是算法技术表达能力所限。基于此,笔者根据算法歧视的成因予以归类分为基于外部原因形成的算法歧视与基于内部原因形成的算法歧视。

(一)基于外部原因形成的“算法歧视”

如前所述,现阶段人工智能的算法技术呈现出来的更多是其工具性功能,并未形成具有独立意识的人工智能系统。毋庸置疑,当前的这种不具备独立思维的人工智能作为人类发明的技术成果,其算法更多是人为设计的较为固定的思维片段,之所以当前人工智能技术的运算结果在很多情况下都能符合人们的预期,主要是依靠全面完备的数据信息库。在本质上,数据是人类观察世界的表征形式,无论是当前的大数据,还是存在与各个终端中的数据信息,其本质上都是以研究人作为其使命本身的目的。[8]2在一定程度上,人工智能就是一种借由适当的编码方式,将事物的属性与规律传递到另外一个同构的事物上,形成一种“无损”的全息表达的过程。若在起初的信息提供上,就存在着偏差,从而导致了偏见结果的形成,“偏进则偏出”。这些存在偏差的外部信息传输至系统所导致的结果,是歧视现象产生的主要原因之一。往往很多算法歧视的结果的形成是由外部因素所导致的。因此,这种由于外部的“偏见”意识输入所产生的歧视结果便是基于外部原因形成的算法歧视。这些偏见有的是出于人类本身的认知习惯,有的则是由于文化固有印象。

人与技术往往互为主体和客体,在一定程度上而言,现代技术“发明”了现在意义上的人。人在发明工具的同时,也在技术中自我发明——自我实现技术化的外在化。而整个人类历史,就是一套生物算法不断进化而使得整个系统更加有效的历史。[9]85而无论是人类自身的意识当中,还是整个人类文明历史过程中,歧视从未缺席。因此,从这个角度来说,作为人类思维外化物的人工智能,作为技术所表现出来的生命体特性,沿袭人类的这种歧视意识,就不足为怪了。比如当见到蓄须的男子,没有宗教知识的人可能会认为是“邋遢”的表现,而有一定宗教常识的人则会认为是基于宗教信仰而所为,不同文化认知基础的人会形成偏差性的结论。不同知识前提的输入所得来的算法结果也不相同,先入为主的认识是人类在认识过程中常犯的一种错误,与之对应,这些个体之间的认知偏差放大至整个人类的文化历史传统中时就会导致更为广泛的社会文化偏见,当人类文化中对具体知识抽象化并固定下来的同时,一些根深蒂固偏见也承载了下来,以此为计算依据数据的人工智能算法同样可以通过“有用数据”信息的搜集将歧视规则归纳出来。[10]比如,父系社会传统所带来的对女性工作分工的偏见认为女性的工作就应当是在家相夫教子,当这种文化上的偏见映射于社会中就产生了基于性别的歧视,尽管算法是对社会不公正现实的反映,但间接地无疑受到这种传统文化的外部性影响。

(二)基于内部原因形成的“算法歧视”

不同于外部性社会文化以及人类生物性认识等原因的影响,有的具有歧视性意味的结论并非基于人的主观偏见,而是经过算法的编译后成为了看似具有歧视意味的表达,例如黑人照片由于肤色与某些特征的存在被误认为是“黑猩猩”。这种算法歧视相对于外部原因所导致的算法歧视,其形成更多是因为算法内部的技术原因所导致的,即由于算法技术本身的局限性,或者说是算法技术的不成熟出现的具有歧视性效果的“错误”结果。但相较于基于外部原因的算法歧视,但克服这类算法歧视则更加困难,需要在算法技术的升级中寻找突破。

目前,现代各类人工智能技术中,机器学习与知识图谱技术发展对于算法歧视问题的影响最为显著,诸多算法歧视形成的成因中都隐含了技术不成熟的原因。以机器学习为例,机器学习(Machine Learning)是研究如何尽可能地模拟人类的学习行为,以便在一个不断自我完善的过程中更为有效地获取相关知识与技能的技术手段。在这一过程中人工智能系统将不断自动升级,将以更为拟人化或者说是形成自我智能作为发展目标,这也实现人工智能的终极理想相一致。[11]具体而言,技术的基本原理就是研究如何运用计算机从数据分析事物发展规律,再将规律内化为程序本身,在往复过程中搭建起对未来进行预测的模块。从原理上看,机器学习在形成初步规律的同时就是一个形成“刻板印象”的过程,尽管计算机可以对数据进行全方位的搜集,但是由于技术上的不足,计算机的分析得出的数据规律仍无法达到人类经验的程度,才导致计算机将人误认为动物的“低级错误”的出现。而另一方面知识图谱技术亦与算法歧视的形成有着诸多的关联,如上所述,当前人工智能的升级与发展需要依赖更为成熟知识数据库的形成,即知识图谱技术的不断成熟。知识图谱本质上是一种由知识点之间相互联系所组成的立体网状化的语义知识库,不同于平面的树状知识体系结构,在知识图谱中,每个节点所体现的“实体”(现实事实)通过尽可能的穷尽其属性形成与其他“实体”之间的“关系”,理论上照此所组织形成的知识库最终能够涵盖人类所有的知识与智力成果。[12]但是,人类文明知识库中的节点与关系的组织是一个庞大的系统工程,目前来看仅仅是依靠人工智能技术的发展是无法完成的,即便是“真理”亦是在实践中不断修正的过程中出现的,人工智能在知识图谱上的缺陷是无法避免的客观事实,基于偏见所形成的算法歧视同样不可避免。

三 规制“算法歧视”的法理基础

从算法本质而言,其本身作为一种技术手段本应无涉于法律道德规范的约束,但是,若法律对“算法歧视”等基于算法产生的对当事人造成不利后果的不予归责的话,必然会导致更为严重的后果。那么,如何对“算法歧视”问题在法律上予以规制呢?笔者认为需要对规制该问题的法理基础予以厘清。

歧视的落脚点在于不合理的差别对待, 但是并非所有的差别对待都属于法律调整之范围,若差别以合法的目的为其正当之理由, 则就成为了法律许可的合理差别。例如,对未成年人工作的禁止并非是对未成年人的歧视,而是基于对未成年人保护的法律目的。在歧视与合理差别如何确定中,法律无疑能够提供一种最优的标准形式。刻板印象作为人类认知过程中的一种常见的情况时难以克服的,人们在面对自己所不熟悉的领域往往偏向于借助其固有的观念与认识予以解决,对于这种思想观念的纠正并非法律所能调整的范围。然而,当这些思想在人们的行动中转化为现实时,并对相关群体的合法利益造成减损时,则需要法律予以调整了。简言之,即法律上的歧视是以侵犯个人之权利与利益为基础,形成法律之禁止,并具象化为各种区别对待之情形。[13]26对歧视概念上的反向推理可以得出,相对人对于法律上的平等追求则是法律禁止歧视的法理基础。法律上的平等保护体现为消极与积极的二元性,即国家既要积极地保障公民的基本权利,又要在消极层面上禁止作出公民受到不平等的对待的行为。[14]法律如何禁止歧视的具体形式要求则建立在相对人的诉求之上,即何种对待是符合其权利要求的。

诚然,算法歧视所导致对个人尊严与权利的损害可以借由法律予以禁止或规制,然而,在某一单个的人工智能算法体系中,导致歧视的可能仅仅是其中的一部分算法设计上的问题,在当前,人工智能技术广泛运用的背景下,许多人工智能程序所涉及的受众范围及其广泛,若仅仅是“一禁了之”,会产生的巨大的社会成本与经济成本,因此,对算法的规制应当回归对技术的约束而非对其适用的制约。的确,在歧视的范畴中一些普遍地存在于人们的观念和行为且属于社会心理和行为的范畴并非法律的调整范围,法律不可能介入也不能够消除,但是算法不属于这一范畴,尤其是当算法在应用已与人类的权益日渐绑定,理应受到法律的约束,并且随着技术的不断发展与应用,算法技术甚至会突破原有范畴,形成外部效应,并影响到公民实际的基本权益。总之,运用法律禁止“算法歧视”的关键在于如何运用法律约束算法技术本体,在相关法理基础上建立针对算法歧视特点的平等保护准则。

四 规制“算法歧视”的立法构想——将歧视审查嵌入技术标准

如上文所述,平等保护是禁止歧视的另一积极层面的涵义,“平等既是一种原则,也是一种权利”。[15]平等权作为一种价值秩序的同时,更应当是一种由个人可以向国家主张的权利。[16]然而,对于这种最为重要的基本权利,尽管平等权属于我国宪法规定的公民基本权利,但由于当前我国的违宪审查制度启动门槛较高,在实践中,这一权利却很难落实到具体个案中,因此也就没有一个相对可以适用的明确法律标准。因此,建立法律实践中具体的平等保护标准更具有现实意义。从另一层面而言,从当前的法律规范体系中进行反歧视诉讼来推动我国平等保护是另一重要手段,结合我国目前的司法实践可以发现,相对于宪法平等案件,法院对于基于身高、疾病、性别等要素所导致的反歧视案件采取了更为积极的态度,并由司法实践中提供了大量的胜诉经验。[17]然而,目前有关算法歧视的诉讼与司法实践的有关材料非常有限,因此,本文在这里主要论述如何将法律中的平等保护标准落实于算法技术的审查当中。

当前,国内外各大科技企业也正在开展人工智能道德标准研究,不过这些标准虽涉及了人工智能安全、伦理、隐私保护等各个方面,但目前所形成的可应用安全标准仍主要集中于个人信息保护、个人财产保护、人身安全保障等矛盾冲突较为直观的层面,涉及反歧视标准的比较少。

具体而言,建立对算法歧视的审查标准同样需要外部与内部两个方面的合力。对外部因素的规制,政策和法律应致力于人工智能发展的外部社会环境的构建,推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥用的风险。而对内部因素而言,应当注意检查并纠正人工智能系统作出的歧视性决策。例如,大学利用机器学习算法来评估入学申请,假如用于训练算法的历史入学数据(有意或无意)反映出之前的录取程序的某些偏差(如性别歧视),这种偏差若得不到纠正就会以现实的形式存在下去成为机器学习的“规律”持续下去,造成恶性循环。目前,对人工智能技术应用中的反歧视审查都是非常“粗陋”的,笔者认为对人工智能算法应当从以下两个方面确定审查之标准。

1.运用范畴论寻找“潜在”的受歧视群体

如上文所述,算法歧视最大的特点是隐蔽性,区别对待都是以“黑盒算法”直接作出,无法准确地找到区别对待的指向群体,但对目标人群定位不准确的话,仍然无法得到具体的结果,例如在“大数据杀熟”的情况下,价格歧视既有可能是根据对日常消费金额较大消费群体的产生的歧视后果,也有可能是对不同操作系统的消费者采取不同的歧视定价策略,在之后的发展中,则会出现针对更多的细分群体的歧视,若无法对这些群体进行分类研究,则不会得出有效的结果。

人工智能是人类思维的映像,人类在面对这类问题时采取的是一种“范畴化倾向”的认知态度。在认识复杂多变的现实世界过程中,人类总是尝试寻找一种节省有限的认知资源,依据“最少付出原则”,尽可能简化自己的认知过程,其中的方法之一便是对事件进行分类 (或称为范畴化)[18]。 范畴化既是构成人类思维体系的框架结构,也是对我们规范地认识世界,以及有条理的完成生活、工作中的各种任务的方法论依据。[19]但这种简化处理的弊端,往往也是偏见的根源。

在本质上,人工智能的算法流程尤其是机器学习技术与这种“社会范畴化”运作机理不谋而合。当前人工智能技术研究学者对于数据挖掘领域的排名前十的数据挖掘算法( 如 C4.5、K-Means、SVM 等) 的研究发现,它们在本质上大多数都是为了“分类”和“聚类”而服务的。[20]虽然这些前十名的数据挖掘算法,并不完全等同于大数据算法,但绝大多数大数据算法,都是从这些算法的思想派生而来的。不同于人类范畴化的主观性,算法的工作流程更具有工具理性的意味。

这些算法的运作流程大致是这样的: 首先使用历史数据(或称训练集) 归纳出某个类别(或称之为特征,不管是用分类还是聚类的方法),然后针对一个新来的对象,按照已知的数据特征,将其归属于“最像”它的那个类中,如果这个类还有其他已知的特征,那么就预测这个对象也具有这种特征,这样就完成了预测功能,在此基础上,就可以对新的对象在没有深入了解的情况下,形成预前判断。这种超前判断形成,绝不是一蹴而就的,而是在收集相当数量的历史数据经验的前提下才能形成。总结起来就是,算法是通过历史数据的训练,形成类的概念(或聚类或分类),并对新对象进行归类,然后按类的集合属性,实现新对象的特征预测。“类的概念”形成过程中,无疑就潜藏着歧视的“基因”,若能对这些“基因”体系化,就能得到可能涉及歧视目标的“图谱”。因此,目前一方面要尽可能地提供算法流程所用到的真实数据,以确保算法形成最拟人的认知范畴;另一方面,则需要对算法运算中的范畴予以检测,通过对不同范畴下的区别对待现象分析寻找可能存在歧视影响的行为结果。

2.借助差别性影响标准确定是否构成歧视

在确定可能存在歧视的群体目标后,如何界定是否构成算法歧视便是第二个重要步骤,并且这亦为伦理审查提供了重要依据。如上文所述,基于内部原因所导致的算法歧视往往是由于算法的“先天缺陷”而导致的间接歧视,这类歧视在具备一定的隐蔽性的情况下,往往难以确定其歧视目的或意图,而最终结果往往会体现为不合理的差别对待。对此,美国司法实践领域所采用的“差别性影响标准”则具有重要的参考意义。所谓差别性影响,就是行为或规则对特定的主体产生不同于其他个体的影响,而该标准便是通过对行为与决策是否构成对特定群体的差别性的负面影响的考察,判断是否存在歧视。

差别性影响标准便是针对形式上非歧视但在实践中造成歧视结果行为的规制。最早在1971年的格里格斯诉杜克能源公司案中,法院针对杜克公司所设立的获取高薪职位的需要高中学历与通过IQ测试劳动政策是否构成种族歧视的判断运用了首次引入了差别性影响标准。法院指出,此政策并非能够“合理衡量工作的测验”,而在当时的历史背景下,黑人的学历与IQ测试很难达到公司所设之标准,以黑人为代表的少数族裔必然会受到差别性的影响,因此判定公司政策违反了《民权法案》第七款。因为在法官看来,相关条款在设计时就具有“消除那些以种族或其他违规方式进行恶意区分为基础的、人为的、武断的和不必要的就业障碍”之目的。当然,对差别性影响标准的适用需要在一定的范围之中,美国联邦最高法院在1976年华盛顿诉戴维斯案所(Washington V. Davis)一案中指出,对于证明某一规则或行为是否构成违反第十四修正案所规定的平等保护,除了证明差别性影响以外,还应歧视意图的存在。然而,在之后的禁止歧视类案件的司法实践中,尤其是在差别性影响极其显著的案件中,差别性影响亦成为了判断歧视意图的重要依据。

总之,具体案件中差别性影响的衡量是判断歧视存在与否的重要依据。笔者认为,算法歧视问题之所以更为严重就是在于其隐蔽性,即歧视的方法隐藏于算法之中,由于“黑盒算法”以及存在专业壁垒等原因,从行为手段上很难反映或是判断程序作出决策的过程中是否以歧视为目的。因此,对所形成的结果或影响予以判断是否构成歧视,是一种更为直观有效的路径,差别性标准能够给予了判断歧视的原则标准,运用这一标准形成审查依据是较为恰当的。

五 结论及启示

基于歧视或曰平等保护的目的对算法技术予以审查基本都可以归为对人工智能技术的伦理审查。人工智能技术的发展是一个不断进化的过程,未来的人工智能会向着由专用智能向通用智能,由智能感知向智能认知方向发展。未来人工智能在实现与人类感官特征互通的同时,也将全面地理解自然与人类社会;数据知识库亦能将专业知识相互关联逐渐拓展成全识知识,通盘考虑形成普适性的结论。尽管这一实现过程仍然很漫长,需要算法技术层面的不断进步,但却不是一个割裂的发展过程,在技术研发的标准中形成相应的伦理标准是必不可少的,简单而言就是人工智能的设计与实现必须秉持人类利益优先的原则。目前世界各国与国际组织亦深知伦理审查的必要性,并纷纷出台了一系列有关人工智能的伦理规范之标准,以推动人工智能技术的发展。

目前各国对于人工智能技术的具体发展样式与技术路径并没有形成清晰认识和统一标准,但对该技术的预期大致一致,即如何机器能够通过对经验数据的学习模拟人类智能。人工智能在面对伦理问题时的表现是衡量人工智能模拟水准的重要标准,因为只有达到了相应的伦理标准时才是完全的“人工智能”,在赋权于符合标准的机器之后才会产生符合人类预期的效果。人工智能作为一种进一步解放人类生产力的技术,在解放生产力的同时也赋予了人类更多的自由空间,对这种自由空间如何进行平等分配,算法歧视的审查标准作为伦理标准的重要一环能够提供较为现实的制度依托。因此,在大力发展人工智能技术的同时,应当注重对算法歧视问题的识别与解决。

在一定程度上,对歧视问题的探讨充斥着对价值、利益以及基本权利的思考,这些探讨在面对新的问题时,不免又会被反复探讨。哲学、伦理上的这种不稳定的基因在传承至人工智能时也成为了新的难题,例如人工智能被应用于自动驾驶车辆时面对“电车难题”如何解决,对人类而言,在面对这种问题时究竟要牺牲哪些利益或生命,都是一个难以回答的甚至是没有答案的问题。那么当机器替代人类作出了相关反应时,应当如何评价,这些都需要法律人在之后的研究中进行认真的求证,并谨慎地予以回应。

猜你喜欢

人工智能人类算法
人类能否一觉到未来?
人类第一杀手
Travellng thg World Full—time for Rree
1100亿个人类的清明
2019:人工智能
进位加法的两种算法
人工智能与就业
数读人工智能
下一幕,人工智能!
一种改进的整周模糊度去相关算法