APP下载

数字孪生时代的算法风险与伦理治理

2022-11-27徐瑞萍

关键词:伦理人类数字

徐瑞萍,刘 杰

(1.佛山科学技术学院 法学与知识产权学院,广东 佛山 528000;2.佛山科学技术学院 马克思主义学院,广东 佛山 528000)

当今社会,诸如智能制造、智慧城市、航空航天以及医疗、教育、建筑、能源等行业都纷纷引入了数字孪生技术。2020 年4 月国家发改委特别指出要将数字孪生作为支撑数字化转型的基础设施和技术创新赋能的关键对象。数字孪生已经进入我国国家发展战略,具有广阔的应用前景,一个以“虚实映射、实时同步、共生演进、闭环优化”为特征的数字孪生时代正悄然来临。数字孪生时代的到来使算法技术不断渗透进我们的生产领域和生活世界,并以海量数据驱动下的算法为核心实现数字化转型。事实上,数字孪生时代,各类人工智能算法能够帮助数字孪生体解决大量复杂的任务,包括训练出面向不同场景需求的模型,以及完成诊断、预测及决策任务。[1]当然,任何事物都具有两面性——我们在高度重视算法技术为社会生产生活带来重要作用的同时,也要关注其应用带来的风险挑战,如算法偏见、算法归责难等。更需引起注意的是,这些风险挑战背后涉及的是社会伦理问题。因此,在算法技术日益广泛渗透的当下,厘清算法风险的伦理问题,分析其产生原因并探寻治理对策,有助于算法技术在数字孪生时代的健康向善发展。

一、数字孪生时代的算法风险

随着物联网、互联网、云计算、大数据、人工智能、算法、VR、AR 等诸多技术的集成,数字孪生技术框架得以成熟。其中,算法技术是指采取数学模型建构来解决某一类问题的方式。提出数字孪生的目的就是从根本上解决物理世界的数字化,让物理世界的运行实现低成本和可持续改进等目标。因此,正是算法技术使得解决物理世界的问题的成本降低、效率提升以及实现全生命周期持续改进。科学技术作为先进生产力的重要标志,大大促进了社会和人的发展。但是,在具体的实践中,科学技术往往也会带来一些风险挑战。数字孪生时代,算法技术发展进程中引发了算法偏见、算法归责难、人类主体的自主性削弱、隐私泄露和数据滥用、数字鸿沟、人与算法的矛盾等伦理风险。

(一)数字孪生的概念和典型特征

数字孪生作为一种理论模型最早由美国密歇根大学迈克尔·格里夫教授提出,指在信息空间建构一个可以映射表征物理设备的虚拟系统,物理设备和虚拟系统之间可以在产品的全生命周期内实现双向的、动态的联系。数字孪生的概念被广泛运用于航空航天、船舶、城市管理、建筑、工业制造、电力、金融、健康医疗等多个行业,成为打造数字化社会、进行数字化治理的重要抓手。当前数字孪生应用最为成熟的行业当属智能制造,在产品研发的过程中,数字孪生可以虚拟构建产品数字化模型,对其进行仿真测试和验证。在生产制造阶段,可以模拟设备的运转和参数调整带来的变化。在维护阶段,采用数字孪生技术通过对运行数据的连续采集和智能分析,可以预测维护工作的最佳时间点、提供维护周期的参考依据、提供故障点和故障概率的参考。数字孪生为智能制造带来了显而易见的效率提升和成本下降。

相较于既有的数字化技术,数字孪生具有四个典型的技术特征:虚实映射,即数字空间中的孪生体和现实世界中的物理对象可以实现双向映射;实时同步,即孪生体通过实时获取到多元数据可以全面、精准、动态反映物理实体的状态变化;共生演进,即数字孪生所实现的精准映射能够覆盖产品的全生命周期,并随着孪生对象生命周期进程不断演进更新;闭环优化,即数字孪生体通过描述物理实体的内在机理,分析规律、洞察趋势,基于分析与仿真对物理世界形成优化指令或策略,实现对物理实体决策优化功能的闭环。

(二)数字孪生技术体系与算法技术

数字孪生以数字化方式拷贝一个物理对象,模拟对象在现实环境中的行为,为了达到物理实体与数字实体之间的互动需要经历诸多的过程,也需要很多基础技术作为依托,更需要经历很多阶段的演进才能很好地实现物理实体在数字世界中的塑造。数字孪生技术体系包括物理层、数据层、运算层、功能层和能力层五个层次,分别对应数字孪生的五个要素:物理对象、对象数据、动态模型、功能模块和应用能力。

物理层所涉及的物理对象既包括物理实体,也包括实体内部及互相之间存在的各类运行逻辑、生产流程等已存在的逻辑规则;数据层的数据来源于物理空间中的固有数据,以及由各类传感器实时采集到的多模式、多类型的运行数据;运算层作为数字孪生体的核心,可以利用多项先进关键技术,包括云计算、人工智能、算法等,将来自数据层的大量数据进行分析,并能够支持功能层实现数字孪生系统的认知、诊断、预测和决策;功能层的核心要素“功能模块”是指由各类模型通过或独立或相互联系作用的方式形成的半自主性的子系统;最终,通过功能模块的搭配组合解决特定应用场景中某类具体问题的解决方案,在归纳总结后会沉淀为一套专业知识体系,这便是数字孪生可对外提供的应用能力,也可称为应用模式。

位于运算层的算法技术可谓数字孪生系统之灵魂,是数字孪生系统进行预测、决策的重要技术支持。在数字孪生系统中,大量来自物理实体的实时数据会驱动各类算法完成诊断、预测和决策任务,并将指令传递到现实世界中去。可以说,离开算法,数字孪生的技术价值是无法实现的。

(三)数字孪生的算法风险挑战与伦理问题

算法技术的价值在数字孪生时代得到了进一步的彰显。与此同时,算法技术的应用过程也引发了诸如算法偏见、算法归责难、人类主体的自主性被削弱、数字鸿沟、隐私泄露和数据滥用、人与算法的矛盾等一系列风险挑战和伦理问题。

1.算法偏见

进入数字孪生时代,孪生世界和物理世界实现实时互动。数字孪生既可以接受物理世界的实时信息,又能够反过来实时驱动物理世界。比如,交通拥堵的疏解指令能够及时传递到城市交通指挥系统,候车人流高峰时段公交车辆的派发能够智能化调度。算法技术在数字孪生中扮演着“决策分析和制定者”的重要角色,来自现实中的问题交付给算法,一方面依靠算法设计人员设计运作规则,另一方面依靠搜集和存储的数据,是二者共同作用的结果。但是,算法设计人员存在主观价值偏差。中国大数据领域有影响力的专家周涛指出,“令人不安的是,由系统设计人员引入的初始偏见,伴随着数据的累积和算法的运作有可能逐渐地进一步强化放大。”[2]同时,来自物理世界中的数据也并不能做到全覆盖。这两方面因素共同导致算法产生偏见,于是在数字孪生框架中算法技术继承和放大了人类偏见[3],做出了非中立的、差异性的决策。

深度学习算法是算法技术的进一步发展,指能够自主学习、自主编程、自主发展的学习算法,可以用来解决更复杂的任务。但也正是因为算法深度学习这一特性,使得算法偏见问题更加棘手。当算法具备深度学习能力时,即算法通过对输入数据的不断深入学习可以实现新的运作规则的创建,如果输入给算法的是大量带有偏见性的数据,那么算法就会通过自主学习形成新的带有偏见色彩的运作规则。

算法技术设计发展的根本目的本应是造福人类,但是现实却相反:由于算法越来越具有生命属性,算法偏见已成为最易引发的算法伦理风险[4]。人们并没有在算法技术发展过程中获得公平公正的对待,而是导致了非公正、非中立的社会问题出现。数字孪生时代不乏算法偏见的案例,数字孪生技术赋能金融风控,由于缺乏正当性的信用评级体系,引发大范围的歧视问题。可以说,算法偏见问题严重违背了公平原则,损害公众基本权利和个体利益。

2.算法归责难

算法技术是一种程序式的代码,一方面,由于信息不对称和不公开,导致算法的运作方式和背后机理于绝大部分人而言是难以理解的;另一方面,算法技术从数据输入到决策结果输出的决策过程不可解释。人类可以非常明确地感受到算法对其产生的影响,但是却不能对其内部原理和运作机制一探究竟。这两方面的原因共同促使形成“算法黑箱”问题。

正因为算法黑箱问题的存在,算法技术的道德责任追究成为难题,这也一度成为学术界的研究热点,主要集中在:算法技术不透明、不公开导致归责难。安德鲁·塔特(Andrew Tutt)提出算法责任挑战主要在于:算法责任测量难、危害追踪难、责任分配难。[5]首先,算法责任测量难。例如,自动驾驶汽车在紧急情况下做出牺牲小部分人(乘客或者路人)保全大部分人的决策,如何测量此类算法行为的责任我们仍然没有明确的方案。其次,算法危害追踪难。以智慧城市建设为例,算法作为公共资源分配和社会治理的主角,但算法可能会因为种族、性别等导致不公平的结果。然而,由于算法设计人员、输入数据等都有可能导致算法偏见这一危害,所以对该危害的确定性来源的追踪具有很大的挑战性。最后,责任分配难。一项算法的设计囊括多个参与主体,同时算法又可以被标价买卖,从而会应用在多种场景中,一旦算法产生危害,数据提供者、算法设计者、算法使用者等多方利益相关人员的责任难以划分。

3.人类主体的自主性被削弱

由于智能算法功能的强大,而人类对其存在的缺陷认识不足,导致人类对于智能算法技术的过度依赖并进而产生算法技术崇拜。随着数字孪生的越来越广泛的应用,算法技术已经越来越多地嵌入人类认知活动,深刻地影响着人类的判断和决策,在人类面前树立起了高大伟岸的形象。但是,试想如果人类的所有决策、判断都完全放手于算法,就有可能走向唯算法主义,使人类自身的自主性被严重削弱。由于算法的主体性和人类的主体性呈现此消彼长的态势,算法自主性增强的同时作为主体的人类自主性削弱,甚至出现主体隐匿[6]。人类的行为轨迹被数据化,利用算法实现对人的行为的记录、分析、调控。一个被记录、被解析的解析社会正悄然来临。虽然算法技术功能强大,但与此同时,人的主体性被减弱,久而久之,人类可能陷入被技术人造物控制的尴尬境地。正如德国哲学家京特·安德斯指出,尽管人类一直坚信“创造是人的天性”,但是人们面对其创造物时,却愈发有一种自愧弗如与自惭形秽的羞愧,此羞愧堪称“普罗米修斯的羞愧”——在技术面前,这种“创造与被创造关系的倒置”使人成了过时的人。[7]

4.数字鸿沟风险

数字孪生时代,算法技术为我们带来极大的便利,与此同时,我们也要警惕数字鸿沟风险。一方面,信息不对称、不透明以及算法技术的知识技术门槛,客观上会导致并加剧信息壁垒、数字鸿沟等违背社会公平原则的现象与趋势。如何缩小数字鸿沟以增进人类整体福祉、保障社会公平,这是一个具有世界性意义的伦理价值难题。另一方面,算法技术的设计、使用程度都与当地经济发展水平、人才水平密切相关,这也会造成数字鸿沟。数字孪生时代,利用物联网等技术对城市运行各项数据进行搜集、存储,算法技术可以实现赋能城市治理,辅助人类做出合理的城市治理决策。如抗击新型冠状病毒期间,全国各地推行了出行需出示健康码政策,在疫情防控中发挥了重要作用,但令人遗憾的是老年人以及其他无法使用网络的弱势群体却被残酷地“阻挡”了出行的脚步。因此,如何利用算法赋能社会各领域,并实现发达地区与欠发达地区算法技术的共享,助推各地区共同发展,让算法技术造福全人类,是社会各界不容忽视的重要问题。

5.隐私泄露和数据滥用

算法作为数字孪生的基底,是一种全新的认识世界和改造世界的方法论。数字孪生与社会的联系日渐紧密,算法对社会产生的影响更为深刻。算法以大数据和机器深度学习为基础,并且具有越来越强的自主学习和决策能力。算法技术越“会算”,就越需要个人信息数据作为其迭代升级的“养分”。获取、存储和分析海量的个人信息数据时,难以避免会牵涉个人隐私保护这一重要的伦理问题。数字孪生时代,在人类不知情的情况下,各类数据信息采集无孔不入,人类的隐私化身成数据存在于数字化空间中,不断地被存储、复制和传播。譬如,数字孪生时代,智慧城市建设使得每个城市必须管理自己的数字孪生兄弟。值得警惕的是,数字孪生城市数据来源面广、接入点多,数据集中度高,城市的基础设施高度依赖数据的运行,一旦被入侵,其安全危害就很大,整个城市的运行会瞬间瘫痪。最重要的是,城市的很多数据涉及公民隐私,需要有效保护。若我们不能有效地管控算法技术,就会造成使人类隐私“裸奔”的严重伦理风险。个体数据权利因此受到前所未有的重视,欧盟2018 年5 月颁布的《一般数据保护条例》(GDPR)中郑重强调了个人数据就是保护的主体,同时明确界定了数据的获取权、修改权、被遗忘权、数据可携带权、异议权等数据主体的权利。人类应该充分发挥自身能动性的优势,找回人类的主导权,主动、积极地参与到数字画像过程中,使人类有权决定对自己的数据进行处理与洞察,减少数据滥用,降低对数据主体的伤害。

6.人与算法技术的矛盾

数字孪生时代,面对日益强大的算法技术,一方面,人类使用并惊喜于算法的便利、高效,并逐渐产生对算法的依赖。例如,数字孪生医疗中电子病历、疾病注册库和可穿戴设备中的数据可用作创建患者的“数字模型”,根据患者目前的状态,数字孪生技术可以将各种数据呈现给医护人员,算法帮助医护人员及时判断可能会发生的紧急情况并提前做出应对措施。拥有算法技术的“加持”,医护人员能获取更多有价值的信息,帮助他们为患者提供更高效更有效的护理服务。另一方面,就如同库兹韦尔指出的人工智能爆发的奇点,人类开始担忧能否一直掌控算法技术。算法技术越来越智能,人类就越容易提出这样的问题:算法技术这一人工智能是否可能超越人类智能?算法技术是否可能带来巨大风险而人类不知晓甚至无法预知?算法技术是否可能逐渐演变为一种不受人类控制的自主性的力量?诸如此类的问题不胜枚举,反映出数字孪生时代人与技术之间的矛盾关系。

二、数字孪生时代算法风险的伦理问题成因

在数字孪生时代,算法技术引发一系列伦理风险挑战,算法的复杂性、人的认知失衡、算法设计者的价值偏差和公众算法素养亟待提升这几个方面是引发上述伦理风险挑战的成因。

(一)算法的复杂性

首先,就算法自身而言,算法是一项非常复杂的技术。假设追溯分析算法本身的道德责任,实际上计算量是非常具有挑战性的。例如,深度学习算法存在数以千计的数学函数,并由函数构成了无数的连续软件层,现在的网络可达两百多层。而且算法技术在加工信息时是非线性的变换,当信号传递到深一层的函数时,信息的复杂度也会指数级增长。实际上,当前的算法还远远达不到可理解性和值得信任的要求。其次,就算法关涉的因素而言,包括人的需求和利益、当前的技术、设计开发者水平、社会环境等,这些因素之间相互影响、相互作用,共同促进算法技术生成,并且算法技术的复杂性与解决问题的复杂性呈正相关,所要解决的问题越复杂,算法的代码构成就越复杂。随着人类要解决的问题越来越复杂,人类在设计过程中就会忽略一些因素,人类也就会越来越难以驾驭算法,导致算法产生一些不可预测的后果。算法的复杂性导致算法的运作结果无法被我们准确地预测,因此可能会出现一些出人意料的结果,我们无法对其予以约束控制。

(二)人的认知限制

算法技术作为人的技术设计产品,无论如何都会受到人的认知水平的限制。一方面,算法设计人员可能存在算法知识盲区,在算法设计过程中可能存在不甚了解的算法知识,导致算法设计与初衷背离;另一方面,人类在进行算法技术设计的时候,更多地会从功利主义角度出发,考虑的是算法技术的商业价值,人文价值被忽视,道德意蕴被抛弃。这样,算法技术带给我们的只是生存、生活的量的提升和效率的变革,但是质的飞跃却无从谈起。

(三)算法设计者的价值偏差

价值与算法是相伴的,可谓每一种算法技术内部都内嵌着价值[8]。从哲学的角度来看,价值是指客体能够满足主体需要的效益关系。费利西塔斯指出,“算法存在价值负荷,拥有不同价值判断的人会使用不同的算法来处理问题,因而会设计出不同的算法”[9]。算法技术的价值对不同的人而言是不同的,因此价值观念、利益诉求不同的主体会设计出不同的算法技术或者选择不同的算法技术。个体之间的价值观偏差就导致算法存在一定的偏见、歧视风险。如果是算法设计者有意为之,即算法设计者权衡利益之后进行特定设计,那就是有目的的人造风险。这种风险的规避只能从准确认知算法中的价值观念出发。

(四)公众算法素养不高

算法素养是指算法设计者和算法使用者与算法共处时应该具备的品格和能力。同时,算法素养是一种多元素的素养,包括算法意识、算法认知、算法思维、算法伦理、算法价值理性以及构建人与算法的和谐共生关系。公众不断提升自身算法素养在数字孪生时代具有重要意义,一方面,人类可以深刻地认识到算法技术在数字孪生时代的重要时代价值,助力算法技术向上向善发展,不断促进算法技术赋能社会生活各领域,从而为人民群众创造美好生活;另一方面,人类可以更好地应对数字孪生时代的算法风险挑战。然而,当下公众的算法素养跟不上技术飞速发展的步伐,明显低于数字孪生时代的要求,亟须提升。

三、数字孪生时代算法风险的伦理治理原则

在进一步深入探讨数字孪生时代算法风险的伦理治理之时,还须清晰认知算法风险的伦理治理所应遵循的根本原则。

(一)尊重人的主体价值原则

要确保人类始终处于主导地位,防止算法技术这一人造物超出人类的可控范围。虽然已有研究指出,算法具有拟主体性,但是人类仍然并将始终是主导者。算法要能够尊重使用者,尊重社会文化,避免人类的利益、尊严和价值主体地位受损,确保算法技术持有与人类相同的价值观,始终坚守不损害人类自身的道德底线,实现造福人类的正确价值取向。当算法技术替人类做出决策时,应该尊重人的主体价值,让人类处于主导地位。以算法技术赋能医疗为例,判断一个人是否会生病以及诊疗方案的选择应该让医生处于主体地位,在尊重医生的选择判断的基础上参考算法技术的意见。如果不能让人类处于主导地位,那么技术作为人造物就会反过来控制人类,让人类丧失主导权。

(二)安全可靠原则

算法技术必须是安全、可控的,这是算法伦理中的首要原则。要保证企业和用户的隐私安全以及与此相关的政治、经济和文化安全,对于危及人类安全的算法技术,应该果断舍弃,不应因为功利价值而忽视最重要的安全问题。此外,要保证算法不被滥用,黑客、犯罪团伙、敌对势力等为了获取非法私利而更改、破解算法,危害人的生命财产安全、破坏社会稳定、严重危害国家安全的行为应当明令禁止,严厉打击。因此,对于科学技术的发展,需要人类严格审慎地权衡取舍。例如,数字孪生建筑的算法系统中,存在于多种设备和终端上的数据,包括设计数据、机械(电气、管道)系统运行数据、环境数据、施工数据以及零件和运维数据等,是使数字孪生建筑算法系统运作的重要动力源,若数据泄密甚至数据被恶意更改,将会引发重大的安全问题。因此,明确算法技术的安全可靠原则至关重要,必须将算法技术严格限制在安全的轨道上运行。

(三)以人为本原则

算法技术应为广大人民群众带来福祉、便利和享受,而不能仅成为少数人的专属。算法技术应该体现对算法使用者中的弱势群体提供更多的包容和理解,不应因身份、地位和财富、性别等不同而差异对待,应该让算法技术满足广大人民群众的基本需求和对美好生活的向往。与此同时,应鼓励公众提出质疑和有价值的反馈,保障公众参与以及个人权利行使,从而共同促进算法技术产品性能与质量的提升。算法技术使用中始终秉持以人为本、为广大人民群众谋福利才是算法技术的正确发展方向,才是算法技术造福全人类的价值彰显。

(四)公开透明原则

在数字孪生时代,算法技术的广泛应用更要求其遵循公开透明原则。算法技术透明重点强调的是包括算法的代码、内容、形式以及使用、组织、管理等信息的公开、透明。算法技术要做到公开透明,禁止过时、错误、片面或带有偏见的数据输入算法,以防止算法技术对特定人群产生偏见和歧视。因为算法技术门槛较高,大多数算法使用者由于专业和知识的限制难以知晓算法的代码、内容及其运作方式,这就导致算法使用者对于算法的安全、质量和有效性的认同存在滞后性,这在一定程度上不利于算法技术的顺利发展。因此,公开算法的相关信息,增强公众对于算法的认知、识别,既能让算法使用者更加安心使用,又能让算法技术更加顺利发展。

(五)公正原则

公正是我国的社会主义核心价值观念之一。社会主义核心价值观是我国的主导社会价值观,其价值观念就是打造平等社会、消弭偏见。算法偏见根源是算法设计人员将社会中存在的偏见带入算法,或者算法依赖的训练数据也存在偏见,甚至隐私保护中也可能存在偏见。因此,解决算法偏见问题的根本就在于遵循公正原则,消除现实世界中的不公正,并尽可能避免在算法技术中引入新的不公正。

四、数字孪生时代算法风险的伦理治理路径

为保障算法技术的良性运行和创新发展,需要进行伦理治理,在秉持尊重人类主体、安全可靠、以人为本、公开透明、公正五项基本原则的基础上进行算法技术的伦理设计,创新制定伦理准则,努力引入责任伦理,集聚合力协同共治,提升公众算法素养。

(一)算法技术的伦理设计

算法是价值负荷的,必然对社会的伦理、政治和文化等价值都有可能产生直接的影响。如果想要算法技术的发展符合伦理,那么从这项技术设计之初就应该遵循伦理原则。技术领域的“道德物化”是现代技术伦理发挥效用的一种新兴研究思路,即通过对技术进行恰当的设计,将道德理念“嵌入”技术人工物的功能之中,使技术人工物在使用的过程中,能够从道德意义上引导和规范人的决策和行为。在某种意义上,技术就是物理空间中的算法,算法就是赛博空间中的技术[10]。算法和技术的强内在一致性使得算法技术可以按照这一思路进行设计:算法技术做出的决策应该是道德可接受的、合乎伦理原则的,甚至算法输出的结果是可以引导人类向善,从而帮助人类做出明确的符合道德准则的决策。

首先,“算法从善”道德形态的构建,是一种人工构建,依附于人类主体模式的道德建构,算法只有体现或遵循人类主体模式下的“善法”,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入[11]。因此,人类尤其是作为算法技术人造物设计主体的算法技术设计人员,应该具备一定的伦理学知识、道德判断和推理能力,保持对道德问题的敏感度,能够将这种伦理学知识嵌入到算法技术设计中,将义务论、后果论、境遇伦理和契约伦理融入算法程序设计中。这体现了对算法技术人员学术性和技术性的双重挑战。其次,作为依靠数据推动的一项技术,要确保采用的训练数据是客观中立的,让算法通过自主学习形成稳定的道德推断模式,能够做出合乎伦理的道德决策。

(二)创新制定伦理准则

在面对一项新技术的伦理问题时,一般情况而言,我们不能运用演绎的思路依赖已有的或者新创制的规则,自上而下地进行处理;反而我们需要自下而上地分析处理这些伦理问题,考虑其特点并权衡利益相关者的价值,寻求解决之道,再应用伦理学的理论和原则加以论证。[12]因此,在制定算法技术伦理准则时,要自下而上寻找解决问题的方法,提高伦理准则的实效性。

首先,制定公平正义的伦理准则。一方面要关注伦理准则自身的公平与正义,只有公正的规则,才能获取民心、广得美誉,更好地被信服与纳用;另一方面要确保伦理准则被寄予善的价值目标,只有具有正能量的动力因素,才有存在与被采用的价值,而且在潜意识被“利己主义”攻城略地的数字孪生时代,利益的引诱极易使社会成员走向“一切向钱看”的错误道路,为减少此种不谐事件,我们需要伦理准则中“善”的指引与约束。其次,不断更新与完善伦理准则。随着算法技术的深入发展,现行的具体伦理准则确实已经很难真正保护好我们的隐私,这是不容忽视的现实。在迅速兴起的数字孪生时代,原有的伦理准则的滞后问题日益凸显,因而要结合数字孪生时代的发展要求与时俱进、不断完善。再次,发挥传统伦理思想的约束力。传统伦理思想可为现代伦理道德建设提供重要而又有效的思想资源,尤其是“仁”的观念、“诚”的思想、“义利”之辨和“慎独”精神。[13]借助传统道德思想的约束力,提升伦理准则的实效性。最后,促进自然科学领域和人文社科领域的专家形成良性对话机制,双方合力制定算法伦理准则。中国作为人工智能发展大国,却没有制定适合我国数字化社会发展需求的算法伦理准则,实为一项亟须解决的问题。因此,我国可以参照欧美国家制定的在全球范围比较有影响力的算法伦理准则,在此基础上形成具有中国特色的算法伦理准则,助力我国算法事业的发展。

(三)努力引入责任伦理

首先,明确划分责任人。算法技术设计人员要明确树立对发明创造的技术负责的责任意识,能够向公众客观阐明自己设计的算法技术成果利弊。其次,树立全民责任意识。数字孪生时代所有人都享受了算法技术带来的福利,对此,数字孪生时代下的每一位公民有义务承担起合理合情使用算法技术、防止算法技术滥用的责任。最后,政府和算法技术人员要承担主要责任。政府要通过制定相关政策,推动和监管算法技术向上向善发展,算法技术人员要更新技术观念,摒弃技术与道德的错误观念,以善良道德引导算法技术发展方向。从算法技术设计之初到应用的全部过程都要保持道德合理。

(四)集聚合力协同共治

伦理治理是依靠社会各群体对道德的传扬来加强对社会的治理,须弘扬社会“善”的主旋律。数字孪生时代算法风险的治理需要社会治理的合力与伦理治理有效结合,协同共治,以提高治理的效力。

首先,伦理与法律互补。法律的制定是在道德的基础上产生的,但是法律的权威性和实际效力是凌驾于道德之上的。于是,伦理引导与法律治理的结合将对当今社会公民起到内外双重影响的作用。既在心灵层面给人以约束,让人的行为回归“善”的本原,也能促进人的外在行为符合善的要求,以符合法律的规章制度。具体而言,应利用法律规范输入数据的采集、利用和共享,保证算法的运作透明、公正,同时根据算法应用的成熟程度及其影响范围来区分算法政策的优先级。其次,伦理与监管互助。一方面监督行为要具有善的目的,符合伦理需求,且提高监管的公正、有效性;另一方面伦理治理的推行也需要政府的监督与管理,以提高伦理治理的实际效力。因此,算法技术发展需要在伦理治理下,政府进行进一步的监督、落实。尤其算法背后潜藏着资本权利和企业利益,需要政府干预防止算法权利异化。例如,2022 年1 月4 日国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合发布了《互联网信息服务算法推荐管理规定》。该规定明确指出了算法推荐服务提供者的信息服务规范,包括建立健全用户注册、信息发布审核、数据安全和个人信息保护、安全事件应急处置等管理制度和技术措施,切实维护公民的合法权益。最后,伦理与技术互协。脱离技术实际问题的伦理治理是空泛的、无力的;不被赋予伦理道德价值观的技术是无界限、无底线的。给研发的技术赋予一定的道德意念,将有效预防算法技术风险;被赋予伦理价值意义的技术研发,能切实防范算法伦理风险。

(四)提升公众的算法素养

面对数字孪生时代一系列算法风险伦理问题,人类要做的应该是敢于去面对技术,承担原本属于人的责任。提升公众自身的算法素养,在当下就显得十分重要。

首先,加强公众的算法认知教育。通过对公众进行算法认知教育,使其真正认识到,数字孪生时代,虽然算法技术面临着风险挑战,但其具有重要的时代价值:精准预判、全生命周期管理、帮助人类更快更优做出决策等,所以我们也要看到算法技术为人类创造幸福生活做出巨大贡献,造福人类。因此,重要的不是苛刻地要求算法在其应用过程中完全不能存在任何的偏差或歧视,而是要以更为实际的态度评估算法;在此基础上,再通过协调算法各方相关利益者,探讨制定改进与创新算法治理的机制。其次,引导公众弘扬算法伦理。通过伦理教育,使算法技术人员树立责任伦理意识,引导算法技术向善发展。在算法设计之初,对人类伦理道德价值与行为规范,诸如“生命权、隐私权、福利、公平”等进行充分考虑,使其能够尊重生命、保障人类权益、增进人类福祉、维护社会公正。大学生和研究生群体要接受人文与伦理教育,深入认识和学习作为科技主体应当具备的道德意识、道德判断力以及肩负的道德责任。最后,公众要与算法技术构建和谐共生关系。对算法技术的盲目恐慌和崇拜都是不可取的行为,唯有批判地看待算法技术,认识到算法技术的优劣,维护人的主体地位,理性对待和处理人与信息、人与机器、人与科技以及价值理性与工具理性、技术可能性与伦理合理性之间的关系[14],才能实现人与算法技术的和谐共生。

猜你喜欢

伦理人类数字
《心之死》的趣味与伦理焦虑
人类能否一觉到未来?
人类第一杀手
护生眼中的伦理修养
1100亿个人类的清明
答数字
数字看G20
人类正在消灭自然
医改莫忘构建伦理新机制
成双成对