发展人工智能的政府伦理责任探要
2023-03-08陈仕伟刘艳红
陈仕伟 刘艳红
(江西财经大学马克思主义学院,江西南昌 330013)
一、问题提出与文献回顾
在大数据技术的推动下,人工智能技术得以再次振兴,以至于世界主要国家都已将人工智能的发展提升至国家战略的高度。马克思主义认为,“国家是整个社会的正式代表,是社会在一个有形的组织中的集中表现”[1];现代公共行政理论认为,政府的权力来自公众,并基于公众利益最大化行使权力。“责任体系把政府的行政部分和政治部分联系在一起,并最终对公众负责。归根到底,政府的任何行动都是公民通过他们的代表所进行的行动。公共利益的追求‘需要一种精心设计的责任结构以确保那些代表公民利益的人为了公民的利益能够付出最大的努力’。”[2]既然政府代表公众行使权力,在发展人工智能的过程中,就需要对公众负责,积极促进人工智能的良性运行,确保给公众带来福祉,并不断增强公众的获得感。基于此,从政府治理层面分析发展人工智能的伦理责任,需要从“加大人工智能对社会的影响研究”“努力实现人工智能时代社会的公平正义”和“加强对人工智能科技的监管与调控”等方面以建构友好人工智能[3]。
从现有的研究来看,学术界侧重于对政府运用人工智能所面临的伦理挑战及其治理的探讨。柳亦博认为,政府至少可以在“消除信息歧视、发展机器伦理、建立熔断机制、进行伦理审查、防止计划体制”五个方面开展抑恶行动[4]。徐敏宁等人认为,将人工智能嵌入基层治理中存在七个风险点,包括主体性丧失、技术治理利维坦、技术哲学与行政价值冲突、责任主体割裂、数据安全隐患、基层社会极化等[5]。谭九生等人认为,人工智能为政府治理的革新提供了技术支持,但同时也可能带来隐私侵犯、公平损益、责任模糊、技术依赖和参与缺失等伦理风险[6]。段伟文强调,虽然中国的政府和企业对发展人工智能持乐观态度,但是其中的伦理风险并非虚构,需要“通过技术伦理评估、‘技术—伦理’矫正和信任机制的构建,展开必要的价值伦理校准”[7]。总的来说,现有的研究主要关注政府运用人工智能进行治理时可能出现的伦理问题及其防控措施,而较少探讨政府在领导发展人工智能时应当主动承担的伦理责任。随着科技革命和产业变革的深入发展,人工智能技术日新月异,如果政府不能承担起相应的伦理责任,势必影响我国新一代人工智能发展规划目标的实现。因此,政府在引领人工智能发展战略的过程中,需要主动承担伦理责任,以实现公众利益的最大化。不仅要确保人工智能战略的顺利实施,还要确保人工智能的发展能够保持在安全、可控的范围内。因此,深入研究政府在发展人工智能中所承担的伦理责任具有重要意义。
二、政府在发展人工智能中承担伦理责任的必要性分析
“责任伦理”一词最早出现在1919 年马克斯·韦伯(Max Weber)的《作为职业的政治》一文中。“针对当时的政治家只讲权力运用而不考虑行为后果的现象,韦伯呼吁社会倡导一种超越良知伦理的责任伦理。”[8]政府在发展人工智能中承担伦理责任,意味着政府具备完全的道德行为能力,并必须在人工智能发展过程中承担道义上的责任。
(一)政府承担伦理责任是统筹规划好人工智能发展战略的必然要求
政府是代表公众行使权力的组织机构,通过其工作人员来具体行使权力,他们在具体领导实施人工智能战略时必然需要承担相应的伦理责任,需要在领导实施人工智能战略前做好承担相应伦理责任的准备。虽然责任伦理是针对行为的后果而提出,但“强调的是一种前瞻性的责任”[9]4。责任伦理认为,责任主体并不是在后果出现之后才考虑承担相应的伦理责任,而是在进行行为之前就要对可能产生的后果进行必要的预测,因而对自身将要承担的伦理责任进行评估和考量,否则就是盲目的,不具有可持续性。责任伦理要求我们“不仅强调对已经发生的事情负责,而且还对未发生的事提前负责,彰显的是一种对事前的责任的伦理追问,是以长远的眼光来审视人类所应承担的整体责任”[9]4。对于政府来说,领导实施人工智能战略需要在实施之前对可能产生的伦理问题以及社会影响进行必要的评估和预测。因此,在规划人工智能战略时,政府需要承担起相应的伦理责任,绝对不能在后果出现后再考虑承担伦理责任。
(二)政府承担伦理责任是实施好人工智能发展战略的必然要求
作为代表公众行使权力的政府,应当基于公众利益最大化的原则来发展人工智能。政府要承担起领导责任,不仅要制定并颁布人工智能战略,还要领导人工智能战略的具体实施。然而,要实现人工智能战略目标,仅有政府的领导和组织是远远不够的,必须有科研机构、企业和公众等主体的广泛参与,建立起发展人工智能的共同体。在这个共同体中,政府代表公众行使权力,能够聚合全社会的力量来共同发展好人工智能。
政府不仅要承担统筹规划的伦理责任,还要承担起监管责任。这旨在保证人工智能能够沿着健康有序的方向发展,进而真正实现公众利益最大化。政府承担起监管责任的目的,是确保发展人工智能始终坚持以人为本,防止某些研究机构、企业、公众为了追求自身的利益而不负责任地研发、应用人工智能。因此,政府应当承担起监管责任,以防止人工智能的异化现象冲击人的主体地位。
(三)政府承担伦理责任是保证人工智能良性运行的必然要求
实际上,“责任伦理是基于现代科技时代的伦理反思,对现代责任进行理性的伦理追问,在整体的视阈下探究与当代现实社会责任相关的问题,强调的是一种责任理念和价值诉求,它既是一种责任模式,同时又体现一种伦理诉求”[9]6。政府正是需要从“整体的视阈”来承担伦理责任,否则很难保证人工智能的良性有序运行。人工智能分为弱人工智能、强人工智能和超人工智能[10]。弱人工智能已广泛应用于我们的生产生活中,但强人工智能还存在许多技术上的难题,而超人工智能还仅是理论上的概念。值得注意的是,随着强人工智能的研发与应用,人工智能就不“只是简单地执行我们交给它的任务”,而已“具备自己独特的意识,完全独立于人的意识之外,能够自主适应外界环境的变化和挑战”[11]了。因此,政府作为承担持续而全面伦理责任的主要主体,需要采取措施来防控人工智能异化的风险,确保人工智能的发展始终在人类的掌控之下。
二、政府在发展人工智能中承担伦理责任的基本内容
人工智能的发展,“营造出了一个崭新的政府治理环境”[12]。政府作为发展人工智能的领导者,必然要承担全方位的伦理责任,以保障人工智能的健康有序发展,保证人工智能为公众所用,为公众生产生活带来福祉。
(一)前瞻性伦理责任
前瞻性伦理责任是一种有限度的预防性责任。随着人工智能的快速发展,政府应该确保公众在使用和消费人工智能时的可靠性和安全性。根据卡鲁姆·蔡斯(Calum Chace)研究分析,公众在使用和消费人工智能时面临的最大问题就是隐私、安全、不平等和孤独[13]。为了实现公众利益的最大化,政府需要承担前瞻性的伦理责任。具体而言,政府需要选择正确的发展方向和价值取向,制定科学的发展人工智能活动的道德标准和规范,并履行说明义务,解释发展人工智能可能带来的后果。总之,基于公众利益最大化的原则,政府应在领导实施人工智能战略之前,确保该战略能够为公众带来福祉。
(二)过程性伦理责任
政府作为发展人工智能的领导者,应承担起相应的伦理责任,即持续性的过程性伦理责任。政府需要协调好科研机构、企业和公众等主体之间的关系,以确保人工智能战略目标的顺利实现。虽然政府负责领导实施人工智能战略,但实现目标还需依赖这些主体的参与。无共同参与,人工智能战略就无法转化为现实。
因此,政府在领导实施人工智能战略时,还需承担对这些主体的伦理监管责任。这包括对研发、分配、交换和消费等环节的统筹协调,以充分协调其中的利益关系。通过承担这些责任,政府能够确保人工智能战略的顺利实施,并为公众提供人工智能产品和服务。
(三)后果性伦理责任
政府不仅要承担前瞻性伦理责任和过程性伦理责任,还要对具体实施人工智能战略的后果承担伦理责任,即后果性伦理责任。责任伦理的核心在于关注行为后果,要求行为主体必须对自身行为产生的后果承担相应的伦理责任,无论这个后果是积极的还是消极的。如果后果是消极的,行为主体还需要承担相应的补偿性伦理责任,即尽最大可能将造成的伤害降到最低限度。尽管政府基于公众利益最大化的原则领导实施人工智能战略,但在后果的伦理评估和考量方面,应对政府所承担责任范围内的所有“利益”及后果进行全面评估和考量。“事实上,人工智能对政治、经济、社会、法律、文化甚至军事等方面都带来了多重影响,而我们现在还没有足够的知识储备和恰当的概念框架来理解、应对、引导这些影响,这才是智能化社会的真正危险之处。”[14]相较于其他主体的伦理责任,政府的伦理责任范围更广、要求更高,它代表着发展人工智能中的国家利益和社会公众利益。因此,政府所要承担的后果性伦理责任不仅涵盖政治、经济方面的伦理责任,还涉及文化、社会和生态等方面产生的伦理责任。此外,政府还需要对已经产生的后果承担伦理责任,并延伸到由这些后果所衍生出的其他后果。
(四)终极性伦理责任
政府之所以需要对领导实施人工智能战略的后果承担伦理责任,是因为“政府是社会控制的最基本的最重要的形式,政府是制度和法规的制定者和执行者,政府控制着自然和社会的绝大多数资源,政府还是民族国家大政方针的制订者和执行者,也是先进伦理道德的倡导者和实践者……因而政府的责任也特别重大”[15]。因此,政府需要承担领导实施人工智能战略的全面后果责任。在承担政治、经济、文化、社会和生态等方面的伦理责任过程中,政府应以最终价值诉求为指引,承担各方面的伦理责任。这些伦理责任的实现有助于实现最终的价值诉求。在我国,各级政府应在共产党的领导下,围绕实现共产主义远大理想的最终价值诉求,承担各方面的伦理责任。这种承担不仅能够促进共产主义远大理想的实现,也是为了更好地实现人工智能的健康有序运行。有学者认为,发展人工智能与实现共产主义是相互促进的关系[16]。政府在领导实施人工智能的过程中,需要对最终的“善”承担伦理责任。这意味着,政府在推进人工智能战略的过程中,必须紧密围绕最终的“善”这一价值目标,避免偏离这一方向,以免给人类带来巨大的伦理风险和灾难性后果。因此,政府必须承担终极性的伦理责任,以确保人工智能的发展符合“善”的目标。
总之,政府在领导实施人工智能战略的过程中,需要同时承担前瞻性伦理责任和过程性伦理责任,以及后果性伦理责任和终极性伦理责任。只有这样,才能确保人工智能战略目标的顺利实现,保障人工智能的良性运行,并始终坚持以人为本的发展理念。
三、政府在发展人工智能中承担伦理责任的基本策略
如前所述,政府作为公共利益的代表,需要承担起前瞻性、过程性、后果性和终极性伦理责任,但是这些伦理责任的具体承担还依赖于具体策略的实施。根据行政伦理学的相关理论,政府要承担起相应的伦理责任,可从制度伦理和德性伦理两个视角出发,不断建立健全相应的制度规范并严格执行,保证在发展人工智能过程中实现“有法可依、有法必依、执法必严、违法必究”;与此同时,积极弘扬社会美德,促进社会成员形成优秀的道德品格。
(一)政府承担伦理责任的两条基本策略:客观责任和主观责任
行政伦理学家特里·L.库珀在《行政伦理学:实现行政责任的途径》中将公共行政责任划分为“客观责任”和“主观责任”,提出:“客观责任与来自外部的影响因素有关,主观责任则与我们内心的观念和想法即对自身责任的认识有关。”[17]74具体而言,“客观责任来源于法律、组织机构、社会对行政人员的角色期待,但主观责任却根植于我们自己对忠诚、良知、认同的信仰”[17]84。也就是说,“客观责任”主要是从外部视角强调行政人员需要承担“来源于法律、组织结构、社会对行政人员的角色期待”的伦理责任;而“主观责任”则是从内部要求行政人员承担行政人员“自己内心的情感和信仰赋予”[17]84的伦理责任。政府在领导实施人工智能战略过程中也应从内部和外部两个视角来具体承担自身的伦理责任。从外部的“客观责任”视角而言,政府要承担发展人工智能主要伦理责任应该是制定并执行好相关伦理制度规范;从内部的“主观责任”视角而言,政府则需要从德性伦理出发来承担发展人工智能的主要伦理责任。
(二)制度伦理:政府承担伦理责任的“客观责任”策略
政府要承担伦理责任,必须通过工作人员执行。为确保他们能承担责任,应将伦理责任细分到各部门和具体负责人。为确保他们能承担相应的伦理责任,政府需要从制度伦理出发,在实施人工智能战略时承担好相应的伦理责任。邓小平指出:“制度好可以使坏人无法任意横行,制度不好可以使好人无法充分做好事,甚至会走向反面。”[18]约翰·罗尔斯(John Bordley Rawls)在《正义论》中认为:“正义是社会制度的首要价值,正像真理是思想体系的首要价值一样。”[19]因此,从制度伦理视角出发,政府要在领导实施人工智能战略中真正承担好相应的伦理责任,首先就需要基于公平正义制定出“好的”“正义的”制度规范,如发展人工智能的行业制度规范、从业者的制度规范即职业伦理规范、人工智能的科研伦理制度规范、人工智能的使用伦理制度规范等等。总之,政府要保证在发展人工智能的全过程中都能够实现有法可依,有章可循。习近平总书记指出:“制度的生命力在于执行。”[20]政府制定出了“好的”“正义的”制度还不够,还需保证制定出来的制度能够顺利地执行下去,特别是对违规违法行为必须实施必要的惩处。只有政府、科研机构、企业、公众等主体都能够自觉地遵守和执行相应的制度规范,才能够保证人工智能战略目标的顺利实现。
(三)德性伦理:政府承担伦理责任的“主观责任”策略
实际上,无论制度规范多么完善,都不可能涵盖所有方面。为了真正承担发展人工智能的伦理责任,政府必须在加强制度规范的建设与执行的基础上,从外部转向内部,从德性伦理入手。不断加强政府、科研机构、企业等组织机构的工作人员和公众的思想道德建设,使其自觉地维护制度的公平正义,并努力促进人工智能的健康有序运行。
从根本上讲,德性伦理注重的是培养个人优秀的道德品质。一个具备优秀道德品质的人,其行为本身是善的,行为的结果同样也是善的。“每种技艺与研究,同样地,人的每种实践与选择,都以某种善为目的。”[21]因此,拥有优秀道德品质的人总是思考着这样一个问题:什么样的生活才是“善”的?换句话说,不“善”的生活是没有意义的。通过这种分析,德性伦理不仅强调行为本身的“善”,还强调行为结果的“善”。总之,具备优秀道德品质的人总是以心中的“善”来规范自己的言行举止。为了确保政府在发展人工智能过程中真正承担起相应的伦理责任,需要由具体的工作人员来执行政府制定的具体制度规范。而要让这些具体的制度规范得到彻底贯彻执行,需要不断提升政府工作人员的思想道德水平。此外,要实现人工智能战略目标,也需要不断提升科研机构和企业工作人员以及公众的思想道德水平。因此,工作人员在处理相关情况的过程中,内心应秉持“善”的理念,否则可能会被人工智能牵着鼻子走。“呈现为技术权力奴役下的自由和价值”[22],最终的结果可能是人工智能控制和规定人类,而非人类控制和规定人工智能。因此,政府必须承担起相应的伦理责任,通过弘扬社会美德,以“善”为目标发展人工智能。只有这样,人工智能的健康有序运行才能实现。
四、结语
政府具有集中全社会资源并代表公众行使公权力的能力,因此有义务和能力承担起全面发展人工智能的伦理责任。由于政府具有这种独特的优势,一旦全面承担起发展人工智能的伦理责任,就能够有效防范和化解人工智能带来的伦理风险。同时,政府在领导实施人工智能战略的过程中积极全面地承担相应的伦理责任,必然会促使政府建设好自身在人工智能时代的伦理责任结构体系。由于政府在领导实施人工智能战略过程中所要承担的伦理责任是全面的、持续的,因此要求政府随着人工智能的发展不断建设和完善自身在人工智能时代的伦理责任体系。