APP下载

作为政治行动的数据科学:基于政治正义论的考察

2023-05-30郭佳楠

陕西行政学院学报 2023年2期
关键词:伦理

郭佳楠

摘 要:随着数据量的急剧增加,人工智能等技术快速发展和应用,数据伦理风险日益凸显。尽管数据伦理原则和数据伦理指导框架能够帮助数据科学家反思其研究工作对个人、团体和社会产生的持续影响,但这些原则不足为数据科学提供避免社会危害、促进社会正义的范式。基于技术政治性视角对数据科学技术的三个争议进行剖析后发现数据科学家已经成为参与社会规范性建设的政治行动者。因此,数字时代的数据科学困境需要超越的“四个阶段”,进而提出数字正义的实现需要对数据进行正义性的规制与承诺,同时重视数据评估工具的智能化赋能,构建技术与人文的良性互动,引导“技术治理”向“技术善治”的转型,最终实现数字治理中的正义修复,促进社会的包容性、平等性发展。

关键词:数据科学;伦理;社会正义;社会变革;社会善

中图分类号:D912.1; TP18

文献标识码:A    DOI:10.13411/j.cnki.sxsx.2023.02.022

Abstract:With the rapid increase in data volume, the rapid development and application of artificial intelligence and other technologies, the risk of data ethics has become increasingly prominent. While data ethics principles and data ethics guidance framework can help data scientists reflect on the continuous impact of their research work on individuals, groups and society, they are insufficient to provide data science with a paradigm for avoiding social harm and promoting social justice. By analyzing the three disputes of data science and technology from the perspective of technology politics, this paper demonstrates that data scientists have become political actors involved in the construction of social norms. Based on the analysis of political justice, the “four stages” of the dilemma of data science in the digital era need to be surmounted are concluded, and the realization of digital justice requires the just regulation and commitment of data. At the same time, it emphasizes the intelligent empowerment of data evaluation tools, constructs a positive interaction between technology and humanity, and guides the transformation from “technological governance”to“technological good governance”. Finally, it realizes the justice restoration in digital governance and promotes the inclusive and equal development of society.

Key words:data science; ethics; social justice; social change; social goodness

近年来,数据科学正以不可逆转之势深刻地改变着人类社会形态及生产生活方式,提高了社会治理和服务的效能,但其本身对社会发展包容性的影响也饱受争议。尤其是一些促进社交媒体信息互动的算法则很可能会操纵人们的情绪,进而传播错误信息,成为政治极端主义产生的催化剂。对于这些带有争议性的问题,一些学者及学术组织提倡在计算机培训与实践中灌输相关的伦理学知识;在大学课程中开设伦理学课程,旨在训练学生养成一种考虑计算机科学伦理影响的思维模式。[1]

数据科学研究正在成为一个特殊的学科领域,社会对于数据正义的需求也引起了学界的关注。当前公认的数据政治学家之一罗伯·基钦(Rob Ktichin)指出:“我们不仅很少留意对数据里以及数据本身的概念问题,而且很少检查数据概念化的程度。”[2]他概述了一个二元的观点,即数据本身或者是中立的现实要素,或者是像其他任何这样要素一样的社会建构要素。另一种观点认为数据是认识论单元,包括社会建构所有的偏见以及可能的内在于任何社会建构的政治权力。[3]此外,关于数据正义研究的另一条理路是社会关系模型进路,代表人物艾丽斯·杨(Iris Marion Young)认为该进路的数据正义研究是对加强数据治理(data governance)原则更清楚的表述,该进路意在把与数据相关的能力置入数据正义的框架中。[4]数据正义的设计进路是数据正义研究的第二条理路,该进路主张依照正义原则设计数据系统。设计进路又可分为自下而上和自上而下两种设计方案。前者强调数据设计程序的公开性、透明性,由社会不同群体共建;后者的设计过程则较为封闭,由数据专家或政府围绕先验正义原则构建。[5]数据正义的三维正义进路是数据正义的第三条理路,这一进路从政治、经济和文化三个方面清晰地说明了社会支配的运作机制,其参与平等理论能够为数据正义研究提供具有普遍性的價值基石。[6]

笔者将基于数据科学作为一种政治行动的概念,[7]从正义原则角度解读数据知识生产和建构体系,以期通过数字正义的实现推动更高水平的社会正义的实现,[8]让数字治理实现平等包容的应用与发展,这将是使数字技术具备政治正义和人文价值的再造,并在理论上、制度上对数据正义的实现予以指引。

一、数据科学家必然是政治行动者吗?

数据科学家的社会责任是一个相对复杂的问题,涉及数据技术、社会环境以及个人的政治立场等。在社会实践中,计算机科学家扮演着“多重且相互矛盾的角色”,他们从事“微妙的、情境化和反思性的实践”[9]。而数据科学家在使用科学数据工作的过程中,却被纳入具有更高政治参与度的顶层制度建设范围内。在这个问题上,“我只是一个工程师”,“我们的工作不采取任何政治立场”,“我们不应该让完美成为‘善的敌人”三个具体代表性的关键争议值得进行研究探讨。

(一)争议一:“我只是一个工程师”

关于这种观点代表了一部分工程师们的共同态度。尽管工程师开发出了新的工具,但他们工作和职责并不能决定其他人如何使用这些工具。技术被视为一种中性对象,缺乏任何固有的范式特征。在这个意义上,工程师们对他们“作品”可能产生的影响不承担任何责任。对于数据科学家而言,技术的影响是不可知的。正如美国开发面部识别软件的计算机科学家文森特所言:“任何东西都能够用来做好事,同样任何东西也能够用来做坏事,工程师不可能知道这项研究会对未来产生什么影响,也不可能防止其他人滥用这项研究。”[10]很显然,这里数据科学家通过阐明他们作为中立性研究人员的有限角色,[11]为自己提供了一个借口,从而忽视其工作可能带来的政治、社会影响,放弃自身应该承担的社会责任。

当今的数据科学家很可能继续持这种态度,在设计出具有内在政治特征的技术工具同时,而将自身的责任义务推给技术设备。正如美国政治理论家兰登·温纳(Langdon Winner)所言:“技术创新类似于一个国家的立法法案或政治基础,它为公共秩序建立了一个持续服务数代人的现实架构。因此,人们不仅需要對政治规则、角色与关系进行直接关注,同样也必须谨慎地关注公路建设、电视网络的创建以及网络定制等新机器、新技术上这些看似无关紧要的功能。”[12]

当然,在公共责任实现过程中,数据科学家也不应该承担过多的责任。V.M.米奥利(Virginia M. Miori)认为,问题的关键并不是说,只要工程师们能够认识到他们的社会影响,他们自己就能够解决相关技术可能引起的社会问题。技术充其量只是解决复杂社会问题的工具之一……我们不应该不加批判性地承认并接受数据科学家所有的社会影响力,因为让那些未经选举和不负责任的技术专家在公众视野之外做出关于风险治理的核心决策,会危及民主社会的正常运作。[13]

(二)争议二:“我们的工作不采取任何政治立场”

在研究数据科学伦理治理的过程中,第二种观点延续了第一种观点的伦理分析路径,但问题是数据科学家们应该如何恰当地扮演工程师之外的角色。也就是说,大多数数据科学家都承认他们正在开发影响人们生活的工具,而他们面临的第一个伦理追问可能是:“尽可能保持中立不是最好的事情吗?”[14]

米特尔施泰特(Brent Daniel Mittelstadt)认为,数据科学家们的中立渴望可能会面临两个重要方面的失败:一方面,中立是一个无法实现的目标,因为专家不受个人背景、价值观和利益的影响,就不可能从事科学研究或政治活动;另一方面,努力保持中立本身并不是一种政治中立的立场,相反,它从根本上说是保守的。[15]追求客观真理的精神,自19世纪以后已经演变成一系列具有广泛伦理关怀和规范性的科学实践,即进行“好的科学(good science)”并成为一名“好科学家(good scientist)”就意味着要压制自己的观点,这样才不会影响对科学观察结果的解释。也就是说,即使客观性的科学标准能够解释某些类型的个人主观性,但它们的解释仍过于狭隘:最大化客观主义的方法无法检验价值观、兴趣、话语资源以及首先构成科学问题的知识生产,更不用说对它们进行核心概念选择、待测试假设和研究设计了。[16]可以说,在具体的社会情境下,这样的立场使得本应客观且“无处不在(gaze from nowhere)”的科学变成了一厢情愿的幼稚“幻想(illusion)”。[17]

虽然不是每一位争取中立的科学家和工程师都抱有这种政治意图或动机,但将科学视为中立的广泛社会文化主张与形态确实巩固了占主导地位的社会群体的观点,而这些群体也是唯一有权合法主张中立的群体。例如,很多学者已经注意到,中性一般是从男性视角定义的,这使得女性无法被从客观的、中立的视角来考虑她们的社会立场。由于这些文化偏见的存在,当边缘化的群体批评科学发现时,他们往往被认为是非理性的、政治性的,并且是代表着特定阶层利益的观点。相比之下,支持科学研究与实践的社会主导群体的观点却很少被认为患有同样的弊病。[18]对数据科学而言,它自诞生以来就一直处于政治利益格局之中。无论开发人员是否明确表述过,机器学习系统都已经被嵌入了某种政治理念或立场,忽视这一事实只会让这些政治判断在未经审查的前提下被通过,从而赋予数据科学系统比它应得更多的可信度与合法性。[19]

格林认为,不仅众多算法系统中的数据科学不能保持中立,而且所有应用数据科学也都如此。带有偏见性的数据只是答案的一部分,与之相对应的现有社会政治条件、社会问题的定义与分类以及应对这些问题的一系列机构也都不是中立的,它们无法从政治中完全脱离出来。虽然数据科学家没有责任来解决现代社会运转方面的问题,但他们有责任选择应该如何与社会互动。面对不公正时,保持中立只会使这种情况在当代愈演愈烈。[20]换言之,当涉及世界历史与政治的多重叙事时,数据科学家不可能不采取某种政治立场。

(三)争议三:“我们不应该让完美成为‘善的敌人”

通过对争议一与争议二的回应,持第三种观点的数据科学家可能会承认,他们的“杰作”不可避免地会产生社会影响,绝对的中立是不可能的。然而,他们仍然会反对彻底的政治参与,这看似又回到一种务实的立场:因为数据科学工具能够以渐进且重要的方式改善社会,我们应该支持它们的发展,而不是争论什么是完美的解决方案。

这种观点认为大数据在应用阶段需要以社会价值为最高目标,回归共有属性(生产阶段)和共治结构(处理阶段),达至共享结果(包括成果共享和责任共担)。然而,它同时又受到几个基础性原则的影响与制约。一是数据科学缺乏关于“完美”与“善”究竟是什么的理论支持。这样,该领域的专家通常会采取一种肤浅的改革方法,从而对什么样的社会条件是可取的做出模糊(几乎是重复)的决定。二是这种观点未能阐明应该如何评估或引导完美与善之间的关系。因此,数据科学家们往往想当然地认为,那些促进社会福利的努力,即以技术为中心的渐进式改革是社会进步的适当战略。[21]

1.数据科学缺乏对“社会善(social good)”的全面定义

在牵涉广泛的数据科学领域,“社会善”(或只是“善”)已经成为各种学术机构、各级会議、公司企业、志愿者组织中一个流行的术语。例如,美国和欧洲的许多大学都举办了“数据科学促进社会善的暑期奖学金(Data Science for Social Good Summer Fellowship)”,并且随后的几次大型计算机科学会议都举办了人工智能促进社会善的研讨会(AI for Social Good workshops)。[22]虽然数据科学界这些积极的行动既值得称赞又令人兴奋,但该领域尚未制定出(甚至没有太多讨论)关于“社会善”的任何理论框架和概念来指导其实践工作。取而代之的是,数据科学领域更多地采用一种“见多识广(know it when you see it)”的研究路径,依赖于一些粗略的替代性指标,如犯罪=坏、贫困=坏等等,使得很多术语严重缺乏精确性,德尔塔分析公司的一位创始人曾对此评论道:“‘数据为善已经成为一个任意术语,并且损害到了这项运动发起的初衷。”[23]

在齐亚德·奥伯迈尔(Ziad Obermeyer)看来,重点不是给“社会善”下一个单一的最佳的定义,也不是每个数据科学家都应该就一套规范或原则达成一致。[24]恰恰相反,必须公开承认话语与观点的多元化,才能让关于“善”究竟意味着什么的讨论具有实际意义。然而,目前数据科学领域缺乏足够的语言与独特的视角来评估和讨论关于什么是“善”的不同认知。如果仅仅通过用如此模糊且未定义的术语来阐述他们理解的“善”,那么数据科学家们似乎也可以得到他们的蛋糕并吃掉它:他们能够在广泛宣称解决了社会挑战的基础上获得赞誉并发表相关研究成果,同时避免受到社会和政治的实质性影响。[25]而这种认识的危险倾向在于,数据科学对“社会善”设定的模糊框架会使得那些掌握权力的人将他们关于什么是“善”的规范性判断作为难以被质疑的中立性事实,试图保持中立往往会让人们更愿意站在一种保守和维持现状的立场上。

2.追求渐进的“善”可能带来的双重压迫

从更深的层面上理解,即使数据科学家承认对“社会善”的定义通常很模糊,但他们仍可能坚持“我们不应该让完美成为‘善的敌人”的观点。毕竟,他们可能会说:“某种解决方案,无论多么不完美,不是总比什么都没有好吗?……我们不应该因为对最佳‘结果的担忧而推迟提供解决方案。”[26]

然而,上述观念没有明确地告诉人们完美与善之间的关系。直至今日,数据科学界还没有开发出任何严格的标准或方法来考量算法干预与社会影响之间的关系。尽管数据科学家普遍认为,数据科学无法为所有社会问题都提供完美的解决方案,但矛盾的是他们通常会理所当然地认为,使用数据科学的渐进式改革有助于实现“社会善”。约翰·西尔维斯特(John Sylvester)深入反思了数据科学中“社会善”的内在意蕴,评论道:“虽然人们确实能够在利用数据科学促进‘社会善的过程取得一些成效,但在没有严密且完整的社会变革理论下应用此类技术可能会产生严重的社会危害。从狭义的角度看,将数据科学应用于解决眼前问题的社会改革是可取的,从广义的角度看,将其应用于长期的结构性社会变革则是不可取的。”[27]

更进一步说,在进行尝试性改革的过程中,一项基本的任务是评估渐进式变革与更公正社会的长期政治议程之间的关系。社会哲学家安德烈·戈尔茨(André Gorz)指出,我们必须区分“改良主义的改革”(reformist reforms)与“非改良主义的改革”(nonreformist reforms)。他进一步解释道:“改良主义的改革是一种将其目标置于特定制度和政策的合理性与实用性标准之下的改革。相比之下,非改良主义的改革不是根据特定制度和行政框架内可能发生的事情来进行考量与设计,而是根据人类的需要和需求来实现某种策略安排。”[28]改良主义与非改良主义的改革同属于渐进式改革,但它们的差异在于通过不同的构建路径来实现改革。改良主义的改革者致力于从现有的社会体系中出发,寻找改善社会的方法。而非改良主义的改革者致力于从现有社会体系或体制之外开始,寻找社会通往解放之路。由于二者的建构思路与方法不同,单一追求其中一种改革可能会导致最终的社会与政治结果大相径庭。数据科学家们提出的解决方案几乎完全是改良主义的改革。这是因为数据科学的干预或措施通常是为了提高系统本身的性能,而不是对其进行实质性改变。虽然这些数据科学化的改革在某些条件下具有一定社会价值,但这种改良主义改革的精神特质不适合于识别与追求许多社会系统与体制所需的更大整体性与创新性的变革。[29]

总体而言,这并不是说数据科学无法改善社会,[30]而是要将数据科学的干预措施与其他可替代性改革方案作为众多社会治理选择中的一种进行评估。[31]“这里不应该有任何默认的假设,即机器学习能够为每个问题都提供适当的解决方案。数据科学家在试图避免政治化的过程中,忽略了技术的社会影响,他们给予现状以特权,却缩小了可能进行的改革范围。”[32]鉴于此,需要将数据科学从政治正义的视角加以审视,即在一个始终如一的、整体性的、包罗万象的框架之内,一个涵盖一切的社会空间“几何体”,该“几何体”能避免狭隘的、特定的路径,并能探讨在面对社会公平正义问题时,数据科学的真正有效应对之策。

二、政治正义视角下对数据科学困境的超越

通过对上述人与数据科学关系框架的反思,可以得出结论,即数据科学家必须承认自己是政治的参与者,但无法避免的问题是:如果数据科学是建立在社会正义的政治基础之上的,那么其主张、特征和本质是什么;数据科学领域应该如何朝着这个方向发展。对于这两个问题的回答,需要根据设计进路、治理进路、去中心进路、非常规正义进路将政治融入数据科学的过程并概念化为以下四个阶段 有些人可能会认为,阶段一与阶段二的顺序应该颠倒过来:数据科学家应该首先反思,然后再采取行动解决社会问题。这将是最负责任的方法,也是数据科学家需要长期遵循的做法。然而,根据实践案例与经验表明,数据科学家与政治发生关联往往始于应对社会问题与挑战的兴趣,然后才能引发数据科学家对政治及社会问题的反思。未来新的数据科学技术(伦理)教育方法可以合并这两个阶段。例如,一个“公共利益技术(public interest tech)”项目能够将对数据科学的政治性质的反思纳入其应用数据科学的努力实践中。 ,涉及个人、制度、文化层面的改革。

(一)阶段一:将数据科学家的着眼点或兴趣聚焦于解决社会现实问题

数据科学家们走向政治成熟的第一步应该是将其工作定位于解决社会现实问题。目前,已经有很多数据科学项目致力于进行关于“公共利益技术”(public interest technology)项目的开发与研究,[33]从“数据为善”(data for good)项目到公民技术团体活动,越来越多的政府与非营利组织中的数据科学家将他们的知识用于解决紧迫的社会问题。这一阶段是根据设计进路中自下而上的原则,强调设计过程的开放性、后验性,由群体共建。

在专业知识和技能日益多样化的世界中,为了改善社会公众的处境,数据科学家需要为社会问题的解决提供方法、途径以及更广泛的文化支持。例如,相关的数据科学项目可以用来促进当地诊所的发展,数据科学专业的学生可以向政治活动家和政府机构等“客户”提供技术支持与政策咨询,反过来这些项目也可以为学生学习提供资金支持与专业性指导,从而帮助他们找到那些关注社会影响力的实习或工作。其中至关重要的是,“社会善”与“公共利益技术”项目必须优先考虑社会与政治改革,而不是考虑如何使用技术。技术的最终目的应该是积极影响或改善社会,而不是开发复杂技术工具本身。[34]

(二)阶段二:数据科学家应该以开放、批判性态度反思工作中的政治问题

在进行数据科学促进“社会善”的项目中,数据科学家们很可能遇到一些政治性问题,从而使其直接影响数据科学发展的方向、速度、规模和道路。这就需要数据科学家始终保持以社会影响力为基础的开放与批判性态度,引起他们对政治的反思、对社会的重新认识,以使数据科学发展、社会进步和人类道德、思想、情感、政治以及自然可持续发展能够高度融合,这也正是我们在这个不确定性时代的政治环境中重新提倡实践数据科学的意义所在。

在阶段二的发展过程中,根据治理进路代表人物理查德·希克斯(Richard Heeks)的观点,认为治理进路意在矫正数据活动中所产生的正义问题,这就要求要求数据科学家在代表权和信息隐私之间取得平衡,

以一种开放性的态度保障用户能够共享数据红利并保持在技术选择中的自主性,不断提高弱势群体挑战偏见和预防歧视的能力,更多地向他们提供捍卫自身权益的機会。之后,林内特·泰勒(Linnet Taylor)提出的代表权原则认为,数据工程师应当在设计环节中坚持批判性态度,反思现实世界中拥有特权的群体是否往往拥有过度代表权,而那些难以与数字世界交互的群体是否缺乏代表权。只有以平等与自由为基础,尊重用户知识选择的自主性与可见权利,这 种普遍的数据正义才是可取的。在以往数据科学应对与公众生活密切相关的重大社会与政治事件过程中,人们普遍认为数据代表着“事实”,算法意味着“客观”,而今天数据科学界内部普遍承认数据包含着偏差,算法存在着偏见。随着时间的推移,数据科学家需要进一步扩展这种批判性与反思性的视角,从而深入思考自身工作的各个方面是怎样具有政治性的。

(三)阶段三:用数据科学回应新兴的社会问题

去中心进路认为数据正义问题的关键在于运用数据科学来面对新兴的社会挑战与问题,反抗数据不公背后的系统性压迫和不公正的社会结构。西塔(Seeta Pena Gangadharan)和尼克拉斯(Jedrzej Niklas)是去中心进路的代表,他们认为社会技术视角下的数据正义研究通常是一种规范性研究,默认技术负载价值(value-laden),或致力于保障个体过上好生活所需的自由,或致力于满足人的需求。二人由此提出一种去中心视角,取消技术在数据正义中的核心地位,但承认技术是促进或反对身份政治的有效工具。

对此,戈尔茨认为应建立包括标准和规范主体在内治理框架来监督保证数据科学家的工作。他提出的非改良主义改革模式与监狱废除框架就提供了超越渐进式改革和激进式改革之间错误二分法的概念工具。“批判性设计”(critical design)的概念体现了一种类似的理念:与“肯定性设计”(affirmative design)相反,“批判性设计”通过体现可替代性的社会、文化、技术或经济价值观的设计,从而反映出对事物现状的批判。另一个相关的理论框架是“反压迫设计”(anti-oppressive design),它提供了如何最好地利用资源的行动指南,无论是在选择研究主题、新社会企业的发展重点,还是在选择客户与项目方面,都能够依赖更客观、更全面的立场来审视当代的社会信息环境,而不是仅凭借模糊的意图概念或公认的关于什么是善的智慧来对社会问题进行决断。

从根本上说,仅仅将数据科学应用于解决新的社会问题依然是不民主的:它允许数据科学家在不经过深思熟虑或问责的情况下就塑造社会。在这一脉络下,即使一大批数据科学家的行动是建基于反社会压迫的理想,但他们的努力与实践如果不是立足于被服务社区的需求和愿望的话,那么他们的行为仍然会起到强制性作用,从而在社会范围内出现意识形态圈层壁垒和政治群体区隔。总之,为了促进长期的结构性变化并实现社会公正,数据科学的实践需要更大的本质性转变。

(四)阶段四:数据科学应该围绕着社会正义的政治方向开展技术革新

最后一阶段的目的是,力图为实现数据科学的政治参与功能建构的意义开发新的技术工具与模式。这一目标的实现有赖于为数据科学探索新的认识论、方法论与社会文化。南希·弗雷泽(Nancy Fraser)作为非常规正义进路的代表人物,她把当代社会正义问题划分为错误承认、分配不公和政治不平等三个方面。算法歧视即属错误承认的范畴,并进一步提出要想找到问题的突破口,需要实用主义精神,从最先需要矫正的现实技术问题着手。通过在数据系统的整个生命周期中构建参与式的新数据科学决策模型,创建新的认识论与社会文化,在更广泛的政治情境与维度中建立数据决策规则和程序,从而合理落实不同主体的责任,平衡不同主体间的利益冲突,将参与平等这一核心规范嵌入数据技术的革新之中,使得正义的数据科学在承认、再分配和代表权三个方面作出公正的安排。总体来看,虽然未来的道路仍然充满着不确定性,但以下几个发展方向是明确的。

1.构建参与式的新数据科学决策模型

虽然系统与算法是冷漠的,追求理性与效益第一,但数据科学家们应该放弃对数据客观性的期望,转而从不同视角对社会问题进行参与和反思。STS学者唐纳·哈拉维(Donna Haraway)主张采用一种以“情境知识”(situated knowledges)为核心的认识论方法,她认为在数据科学领域“需要一种重视争论和解构客观性的理论”,即每一项主张或解决方案都能够考虑到特定个人或群体的利益。按照这种逻辑,那些试图选择“中立”的数据科学家必然被具有情境价值的数据科学所取代,即“数据科学的参与式反主流文化”(participatory counterculture of data science)。因此,鉴于数据科学的发展会受到本领域从业者对问题的看法以及解决方法的影响,应该鼓励数据科学兼具更广范围的多样性与包容性,以赋能促进赋权,通过科技赋能赋予社会生活中的个人和群体以更大的成就自我与社群的空间。

此外,作为对这种参与式文化的补充,数据科学应该更直接地与受技术负面影响的社区“共同设计”解决方案。同时,数据科学家还应该设计相应技术程序,从而将大量公众声音纳入考量范围,因为当工程师优先考虑自己的观点而没有考虑整个社会的需求与价值观的多样性时,他们往往会抹杀并忽略掉那些已经被边缘化的人的合法权益。为了避免参与这些压迫性(即使是无意的)行为,数据科学家必须将受影响的社区集中纳入他们的工作计划。而只有坚持“没有我们就不要做关于我们的决定”(Nothing about us without us)的原则,才可能有效防范数据科学极权政治的风险。

2.新的认识论与社会文化

对数据科学困境的超越不仅需要适应新的政治理论话语与方向,更重要的是为参与性实践探索新的认识论。从广义上说,数据科学必须朝着一种 “关键性技术实践”(critical technical practice)的认识论方向发展,从而拒绝“数学形式主义的错误精确性”(the false precision of mathematical formalism),以便与充满着复杂性和模糊性的政治世界进行全面互动。

从新认识论的构建实践来看,数据科学应该进一步改变其内在结构,以促使人们更加关注数据科学的应用及其影响。为了实现社会正义,解决与算法相关的最紧迫的社会问题,数据科学必须在更广泛的范围上重新构造其技术体系,同时,还需要深思熟虑地调整数据科学这种技术工具的认识论特征、动机意图、与应用间的关系,以适应特定组织或社区的需求。如果数据科学家想要为改善社会做出贡献,那么他们需要一种更为严格的认识论,以确保数据科学工具在社会现实环境中应用时产生有益的影响。

依循这一逻辑,数据科学家应该采取一种反思性的政治立场,从而严格地评估数据科学可能产生的社会与政治影响。为此,未来数据科学研究的一个必然方向是构建跨学科的认识论框架,以帮助数据科学家考虑其干预措施的实际影响,这就意味着要将注意的视角引向各种形式的“不确定性”上,因为这些“不确定性”可能导致算法产生与开发人员预期不同的后果。

3.将数据科学嵌入更广泛的政治情境中

当然,数据科学的变革不会在政治或社会的真空中发生。它的变革需要在更广泛的政治情境中进行结构性与制度性的重构,以促进建设一个更加公正且持续发展的社会。必须承认,着力于实现社会正义的数据科学家应该努力进行更多系统性、整体性、协同性的改革,对体制机制的顶层设计提出更高要求,以应对数字技术可能带来的社会威胁。例如,在工人之间建立促进团结与权力合理分配的机制能够使数据科学的发展远离不利因素;近年来,已有很多美国科技工作者自发组织起来反对本公司与国防部和国土安全部建立合作关系。这些技术专家并不认为自己“只是一名工程师”,而是认识到自己在更大的社会技术系统中所扮演的角色及所处的政治地位,认识到自己的工作与其社会影响之间的联系,并要求自己(及其公司)对这些可能产生的社会影响负责。

综上所述,数据科学家本身并不能对促成社会与政治进步负责,他们只是众多社会行动者中的一员。数据科学家的任务不是独自应对社会挑战或消除数据技术的潜在危害,而是在广泛的科学、政治与结果联盟和社会运动中充当深思熟虑且富有成效的合作伙伴,与其他社会成员共同建立一个更加平等公正的社会。

结语

在“算法统治”时代,虽然数据科学没有直接参与任何社会政治活动,但数据科学家必须抛弃其过去政治中立的认知理念,认识到数据科学的运行逻辑、方法和技术正在成为塑造人们日常生活的主要力量,进而成为塑成一般思想习惯的主要力量,社会将根据数据技术的作用来运作。因此,仅仅有良好的意愿是不够的,还需要数据科学家将他们的努力建基于明确的政治承诺与对技术后果的严格评估之上。

首先,对数据进行正义性的规制与承诺。数据与算法是冷漠的,它計算的是理性与效益第一,忽视的是人格、尊严与丰富性。只有通过对数据进行正义性的规制与承诺,以此立场出发才可能找到更为完善的治理应对措施。因此,一方面数据科学家们在开发软件、设计算法的过程中,需要给技术以机会完善自身,成为人类的认识伙伴,而不是用智能、“客观”的“模型”来武断地代替人们去认识世界,多对“标准化”、“理想化”以外情景进行考虑,保留更多的治理温度。另一方面,政治决策者以及公众需要在社会正义承诺的指引下,警惕身边的数据“采集”行为,多注意一下这些技术的用途,拒绝没有经过同意的技术应用。

其次,重視数据评估工具的智能化赋能。数字正义具有不同层面的社会正义要求,其实现与否需要综合法律、技术、伦理和代码才能判断,加之神经网络深度学习算法日益复杂化,传统评估方法显然无法满足算法影响评估的需要。对此,应对评估工具进行智能化赋能,用“数据评估数据”。简单来说,可设计出一种数据影响评估模型,通过该模型就能够向数据以及算法监管机构和社会公众证明算法随机选择输入数据的公平性,且自动化决策是根据一套统一规则做出的不存在任何歧视性输出结果。

最后,构建技术与人文的良性互动,引导“技术治理”向“技术善治”的转型。数字正义的目标应是实现“数字包容”,而不是加剧“数字鸿沟”。应对治理难题,推进整体性转变需要全社会的共同参与,而不能仅仅惠及数字化的强者。消解技术社会化困境,实现社会的包容性、公正性的发展,需要建立起人文与技术双重叠加后的耦合发展,在技术中植入人伦情感的考量。在强调技术效率的同时也要增强心灵关怀,要以人文关怀为核心,牢记“技术以人为本”,体现“人本主义”的伦理关怀, 引导“技术治理”向“技术善治”转型,将“技术治理”从“技术逻辑”中拉回“治理逻辑”,驯化技术,而不是变成技术的囚徒。

总之,数据科学作为一种政治行动的形式,数据科学家则是参与社会范式构建的政治参与者,他们利用算法和工具为重要的社会政治决策提供信息。回溯历史、关照现实,以一种历史的、发展的眼光来理解正义与数据科学之间的关联,可以说数字正义的实现过程,本质是审视人类文明这个复杂系统整体呈现的数字化,正义作为公共性建构的统领,其理念建构、制度建构、逻辑建构面临新挑战、新动向、新使命。为此,只有正视数据不公正问题,研判当代正义的总体特征及其实践价值、场域和历史指向,进而为整体认识数据科学带来的新挑战,形塑新逻辑、融合新理念、构建新制度,才能为实践数据正义提供一种学理性的、系统性的思考。

参考文献:

[1] D. J. Patil. A code of ethics for data science [EB/OL]. (2018-02-02)[2023-02-12].https://medium.com/@dpatil/a-code-of-ethics-for-datascience-cda27d1fac1.

[2]B. Green. The Smart Enough City: Putting Technology in Its Place to Reclaim Our Urban Future[M]. Cambridge, MIT Press, 2019:102-105.

[3] Dencik L,Hintz A,Redden J,et al.Exploring Data Justice: Conceptions, Applications and Directions[J]. Information,Communication&Society, 2019(7) : 873-881.

[4]Heeks R. A Structural Model and Manifesto for Data Justice for International Development[J] .Development Informatics Working Paper,2017(69) : 1-16.

[5]Park S,Humphry J.Exclusion by Design: Intersections of Social, Digital and Data Exclusion[J]. Information,Communication & Society,2019( 7) : 934-953.

[6]Pena Gangadharan S,Niklas J. Decentering Technology in Discourse on Discrimination[J].Information,Communication & Society,2019( 7) : 882-899.

[7]A. Leftwich. Politics: People, resources, and power, in What is Politics? The Activity and its Study[M]. Oxford: Basil Blackwell, 1984: 62-84.

[8]H. D. Lasswell. Politics: Who Gets What, When, How[M]. New York: Whittlesey House, 1936: 44-50.

[9]卢江. “施瓦布景象”真的存在吗?——技术牵引条件下系统性变革的政治经济学分析[J].天津社会科学,2017(2): 19-23.

[10] P. Butler. Chokehold: Policing Black Men[M]. New York: The New Press, 2017:89-102.

[11]A. Lorde. The masters tools will never dismantle the masters house, in Sister Outsider: Essays & Speeches[M]. Trumansburg: Crossing Press, 1984: 110-113.

[12]L. Winner. The Whale and the Reactor: A Search for Limits in An Age of High Technology[M]. Chicago: University of Chicago Press, 1986:123-129.

[13]Virginia M. Miori. The Pollyanna Problem: Assignment of Participants in a Gift Exchange[J]. International Journal of Business Intelligence Research, 2014(1):12.

[14]S. Jasanoff. In a constitutional moment: Science and social order at the millennium, in Social Studies of Science and Technology: Looking Back, Ahead, B[M]. Netherland: Springer, 2003:155-180.

[15]B. Mittelstadt. Principles alone cannot guarantee ethical AI[J]. Nature Machine Intelligence, 2019(1): 501-507.

[16]Yoshihiro S, et al. Society 5.0: For Human Security and Well-Being[J]. Computer,2018(7): 91-95.

[17]R. M. Unger. False Necessity: Anti-Necessitarian Social Theory in the Service of Radical Democracy[M]. Cambridge: Cambridge University Press, 1987: 97-110.

[18]溫亮明, 张丽丽, 黎建辉. 大数据时代科学数据共享伦理问题研究[J]. 情报资料工作,2019(3): 38-44.

[19]〔美〕乔纳森·科尔,斯蒂芬·科尔. 科学界的社会分层[M]. 赵佳苓,顾昕,黄绍林,译.北京:华夏出版社,1989:205-208.

[20]ACRL. 2020 top trends in academic libraries[J]. College&Research Libraries News, 2020(6): 11-15.

[21]P. Butler. Chokehold: Policing Black Men[M]. New York: The New Press, 2017: 142-145.

[22]S. Hooker. Why “data for good” lacks precision [EB/OL]. (2018-06-22)[2023-02-12].https://towardsdatascience.com/why-data-for-good-lacksprecision-87fb48e341f1.

[23]A. S. Vitale. The End of Policing[M]. London: Verso Books, 2017: 55-62.

[24]W. Kenton. Social good, Investopedia [EB/OL]. (2021-05-31)[2023-02-12].https://www. investopedia.com/terms/s/social_good.asp.

[25]Z. Obermeyer, B. Powers, C. Vogeli, S. Mullainathan. Dissecting racial bias in an algorithm used to manage the health of populations[J]. Science, 2019(6464): 447-453.

[26]李重照,黄璜. 英国政府数据治理的政策与治理结构[J]. 电子政务,2019(1):20-31.

[27]J. Sylvester and E. Raff. What about applied fairness[C]//Machine Learning: The Debates Workshop at the 35th International Conference on Machine Learning. Sweden: Stockholm, 2018: 230-234.

[28]A. Gorz. Strategy for Labor[M]. Boston: Beacon Press, 1967: 330-335.

[29]黄璜. 美国联邦政府数据治理:政策与结构[J]. 中国行政管理,2017(8):47-56.

[30]A. Karakatsanis. The punishment bureaucracy: How to think about “criminal justice reform” [J]. The Yale Law Journal Forum, 2019(128): 848-935.

[31]A. M. McLeod. Confronting criminal laws violence: The possibilities of unfinished alternatives[J]. Harvard Journal of the Legal Left, 2013(8): 109-132.

[32]S. Frenkel, N. Confessore, C. Kang, M. Rosenberg, and J.Nicas. Delay, deny and deflect: How Facebooks leaders fought through crisis [EB/OL]. (2018-11-14)[2023-02-12].https://www.nytimes.com/2018/11/14/technology/facebook-data-russia-electionracism.html.

[33]S. Levin. YouTube alters search algorithm over fake Las Vegas conspiracy videos [EB/OL]. (2017-10-06)[2023-02-12]. https://www.theguardian.com/us-news/2017/oct/06/youtube-alters-search-algorithmover-fake-las-vegas-conspiracy-videos.

[34]C. O. Scharmer. The blind spot of leadership [EB/OL]. (2014-08-02)[2023-02-12].https://zampellagroup.com/wp-content/uploads/2014/08/ 2003_TheBlindSpot.pdf.

[责任编辑、校对:党 婷]

猜你喜欢

伦理
《心之死》的趣味与伦理焦虑
科技伦理治理的理论与实践
护生眼中的伦理修养
伦理批评与文学伦理学
我们需要什么样的伦理传播
医改莫忘构建伦理新机制
四 婚姻伦理演变的当代启示
二 家庭伦理剧视野下婚姻伦理的演变
一 婚姻伦理与家庭伦理剧概述
论《觉醒》中的伦理关系