人工智能责任认定:坚持人类是最终责任主体
2022-03-17黄振地曲铭艺
黄振地 曲铭艺
(广西师范大学 马克思主义学院,广西 桂林 541004)
人工智能作为现代科技最突出的技术成果之一,其应用场景越来越广,随之而来的人工智能责任认定问题引起学术界关注与思考。人工智能责任认定问题在学界并非是一个全新的话题,早在21世纪初,卢西亚诺·弗洛里迪(Luciano Floridi)和桑德斯(J.W.Sanders)提出“无论所做之事是善还是恶,人工智能都要在道德上对此负责”[1]的观点,并赋予人工智能责任主体地位。然而,人工智能可能会作为一种新社会主体,给人类带来一系列新的伦理挑战。国家新一代人工智能治理专业委员会在《新一代人工智能伦理规范》文件中指出:智能时代面临人工智能责任困境,我们要坚持人类是最终责任主体,强化责任担当意识,在可控可信范围内开展公平公正的人工智能活动,为促进人机关系和谐美好、增进人类福祉提供有力保障。
一、人工智能的归责困境
责任需要行为主体承担,若人工智能归责主体不明晰,由归责对象不明引发的无人负责的困境会使人机交互技术的复杂性遭到忽视,给智能社会环境的和谐性造成破坏。人机共生的新型智能社会在人工智能使用过程中的行动主体有两类——人和人工智能(机器)。针对认定人工智能责任主体,可以从两类行动主体的角度分别分析:
(一)将人视为人工智能责任主体的困境
“能为行为负责的前提是能动主体可以自我决断和自由行动”[2],自主性来自人的自由意志,通常与主体行为能力相关。瓦拉赫(Wallach)和艾伦(Allen)认为,“人工智能体需要可以评估不同选择的能力,自主是指人类具有决定、选择和行动的能力”[3]。人工智能是人类创造生产的工具,它没有自我意识和自由意志,所以只有人类可以参与责任认定。
将人视为人工智能责任主体在实际运用中会出现忽视人工智能行动复杂性的问题,人与机器协作的联合性、融合性和机器自身的综合性会产生责任划分与认定困境。一方面,人工智能的行动需要参与者和智能机器联合意向共同实现行动目标。在意向高度融合的人机协作语境下,可能会造成行为责任划分的混乱、重叠,导致责任主体与责任行为匹配不明等多重责任认定困境。若将人视为人工智能责任主体,运载大数据先进技术的人工智能(机器)仅作为人的意志行为能力的简单延伸和机械性扩展的工具和载体,此时人工智能的责任会根据职务分工对人类或机构单位负责。人工智能从最初的设计到最后的使用,各环节层次之间的关系不易完全厘清,如何分析每个行动角色的影响,并依据影响程度来分配责任,成了难以解决的问题。
另一方面,人工智能可以在无人干预的情况下自主观察判断并做出相应动作,这种人无法干预的智能活动在责任认定环节可能会出现负责漏洞,产生责任分离困境,形成责任认定断层。人工智能的内设程序与算法编排使其行动目标具有不可篡改性,但是“在和其他智能系统相互作用时,其行动往往取决于具体的环境和系统之间的互动,超出了科研人员和制造商能够准确预测和控制的范围”[4]。数据系统与所在环境的相互作用可能使人工智能面对突发问题时进入“算法盲区”,此时分配责任需要对人工智能的生产使用进行全流程分析。然而,人类对产生问题的全过程不可知,无法明确地将责任归于具体环节中的某个人,这种不受人类干预的固定动作与非固定情景结合的行为超出了设计者与开发者的预期。人工智能本身的目的是完成目标指令,并不会思考自身行为产生的后果,也不会预测行动后对其他人或物的影响,所以如何做到责任认定范围全覆盖,依据什么标准公平公正地详细分配责任成为棘手难题。
(二)将人工智能(机器)视为人工智能责任主体的困境
将人工智能(机器)视为归责主体,人工智能(机器)要独立承担责任。苏林斯(Sullins)认为,即便人工智能没有自我意识与自由意志,但因为有算法能力,所以可以参与责任分配[5]。人工智能虽然按照人类的要求进行输入与输出,是一种受人类控制但没有自我意识和自由意志的机器,但它会在接收数据信号时给予算法对应的决策与行动。在图灵测试中,计算机在接收数据信号时虽不是有意识的理解消化,但它会按照算法进行分析和操作。
将人工智能(机器)视为人工智能责任主体看似在理论上解决了责任主体缺失难题,实际却带来一系列社会伦理问题。首先,人工智能(机器)行动原因并非完全出于自身,归责于机器会出现人借用机器免责现象。面对机器难以提供相应的责任补偿与赔偿的漏洞,利用机器使责任与行为关系脱钩已成为普遍现象[6]。其次,若人工智能(机器)的负责结果没有达到人类预期标准,事前的期待与事后的失望形成情感反差,会使人类对人工智能运行的选择合理性产生怀疑,进而极大地降低人类对人工智能行动的认可度,阻碍人机关系和谐发展。人工智能虽在使用中经常以一种独立主体形态存在,但实际上它们目前还只是由数据支撑和算法驱动的智能体。人工智能不会像人类那样灵活应对事件中的多重偶然性,更不会主动地凭借自身积累的经验自主完善和修改行动。面对不可控因素带来的被动性干扰,完全由人工智能(机器)承担会降低社会对人工智能的承受程度,使人工智能的发展受到桎梏。
二、坚持人类是最终责任主体的缘由
有多少人工,就有多少智能。人工智能的生产与运行都依附于人类,是通过人类得以创造和发展,面对责任认定问题,我们应坚持人类是最终责任主体。国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》为人工智能责任问题提供了理论性指导,总则提到的适用主体包括从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等,无不强调人类的责任主体地位。
(一)强调人的本质属性,助力智能时代人的全面发展
坚持人类是最终责任主体是人的本质展开过程。人是万物的尺度,人工智能的发展随着人类智力水平的不断提高而提升。人具有潜在的道德理性能力,可以通过实践不断强化对道德法则的认识和践行,培养道德理性,并按照内在的、必然的道德法则行事。相反,人工智能作为一种人类认识世界和改造世界的工具,无法自我决定自身活动,是人类为更好地自我实现而生产的一种技术存在物。从现有的智能技术来看,人类智能在整体上依旧高于人工智能,随着人类社会逐步进化到“人—机—社会”共生的新型社会形态,难免会产生人类过度依赖人工智能的现象。认定人类为人工智能责任主体,减轻了人类对人工智能价值属性的忽视,强调人工智能是人类智能的物化。人工智能技术的产业升级是为了更全面地丰富人类生活,发展人类的本质活动。在人工智能与人类的关系中,智能技术的发展很容易偏离最初的生产目的,坚持人类是最终责任主体更加明确一切的出发点都来自人,从而可以更好地实现人的全面发展。
(二)解决人机责任认定难题,促进人机协作和谐发展
坚持人类是最终责任主体解决了人机交互行动中的责任划分与认定问题,人类作为责任主体符合人机协作发展的需求。人机关系不仅是人与人工智能(机器)之间的关系,而且是通过人工智能(机器)作为中介表现出来的人与人的关系[7]。在人机交互行动中,责任主体不仅要对自身行动负责,还要对与其他行动体的整体交互行动负责。将人类视为责任主体不是以一概全,而是按照不同功能特点与行动范围划分不同的负责领域。此外,认定人类为最终责任主体可以在第一时间发现并解决问题,做到自身范围内最大程度的自治。人工智能除了受自身算法影响外,还受到周围环境等其他外部因素影响,将人视为最终责任主体使行动中各环节互相牵动、互相作用的效应关系有了负责任保障。坚持人类是最终责任主体作为一个良好的人机协作基础,为人类与人工智能技术的有效结合发挥了积极的促进作用,加快了人机关系的和谐发展。
(三)控制人工智能技术滥用,提高人工智能社会认可度
坚持人类是最终责任主体可以限制各个行动体的能力范围,进而在一定程度上控制人工智能技术的滥用。“在智能化的社会中,技术善恶的天平将会偏向哪个方向,不再只是取决于使用者,而且更取决于设计者。”[8]认定人类是最终责任主体从人工智能最初的设计到最后的应用,每一环节都在提醒人们在各自的运行领域内要符合行业规范、遵守法律法规、履行责任义务。人们不光要在合理范围内使用人工智能,更要按照人工智能运行标准设计、制造和生产人工智能,这种良好的运行状态也会促使人类与人工智能更好地融合发展。人工智能责任认定越明晰,事故责任分配越明确,人类对自我范围内的责任越重视,人机共处的环境越和谐。当未来人工智能发展到另一个更加智能的新阶段,坚持人类是最终责任主体可以更好地提高人们对智能技术的认可度,从而构建平衡型的人机社会治理模式,同时也为强化人类命运共同体的全球意识发挥积极作用,提高全球智能技术的共享合作,实现各方利益最大化。
三、坚持人类是最终责任主体的社会化考量
人工智能技术在社会应用中引发的问题层出不穷,需要我们长期努力并逐步完善。可以肯定的是,人工智能技术越来越渗透于人类生活的方方面面,但人工智能的社会规制程度却相对滞后于技术的进步,令人们不得不对其在某些方面可能产生的不利影响保持审慎态度。面对人工智能责任认定问题,应提前分析预判,制定和完善人工智能法律法规,加强监管防范;加强网络意识形态建设,落实伦理规范;推行人工智能安全标准,倡导行业自律;构建人机关系动态平衡,加快技术创新,尽量避免人机协同环境出现新问题。
(一)加强监管防范:制定和完善人工智能法律法规
随着技术的发展,人工智能对法律的挑战已逐步显现,法律的合理约束是一种保护,有法可依是人工智能发展的重要保障。国务院于2017年颁布《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018—2020年)》,将人工智能的发展与应用纳入国家战略,并提出要加强人工智能相关法律研究,建立保障人工智能健康发展的法律法规。不同类型的人工智能在其活动领域内的潜在危险性及工作危险程度不同,技术的发展速度远大于法律制度的更新速度。我们不仅要调整人工智能群体法律,更要依据不同类型的人工智能设立不同的法律条款,明确人工智能的侵权责任制度划分。人工智能作为机器被人类赋予运行算法达到社会活动目的的过程并不是无限制的,需要给予约束并试图创造合理边界。我们要充分遵循人类优先原则和社会公共利益优先的理念,制定出符合我国国情的人工智能法律制度,达成人机之间的协调发展与动态稳定关系。
(二)落实伦理规范:加强网络意识形态建设
社会随着技术的改变而改变,伦理在某种程度上也会随着社会的改变而适当调整。落实伦理规范有助于加强人们网络意识形态建设。在数据与算法的大规模运用促进社会智能化的同时,也使社会陷入虚拟化,引发社群隔阂,造成信息分流。数据的筛选与甄别严重影响主流意识形态建设,我们在认定责任方面要加大执行力度,利用网络数字平台的多元性与开放性特点,将主流意识渗透到不同人群,并尽可能达到全覆盖。
《新一代人工智能治理原则》强调,应积极学习和普及人工智能伦理知识,将伦理原则嵌入社会,并在人工智能与人类中相互适应,以助力人机和谐共处。伦理委员会作为伦理评估方,更要积极挖掘人工智能技术背后可能引起的社会伦理问题与价值冲突,明确责任义务及责任边界,面对责任分配不忽视不漠视,加强人们网络意识形态建设,倡导理性科技观,体现技术多元化的价值取向。只有塑造正确的价值观,才能使人工智能真正地促进人类全面发展,进而减少人工智能技术带来的伦理风险和不可控危机。
(三)倡导行业自律:推行人工智能安全标准
推行人工智能安全标准,制定我国人工智能行业规约,可以限制人工智能运行的行动范围,使人工智能市场平稳健康发展。建立人工智能安全标准,可以方便不同智能应用领域之间排查评估,提前制定事故治理预案。“我们在技术上能够做到的和由此所危害的一切,必须在道德上加以预防”[9],人工智能的不当使用会导致危险发生,从业人员(如研发人员、部署人员、操作者、企业决策者、管理者和供应商)在进行技术创新迭代时应考虑降低或避免成果带来的潜在风险,非从业人员(包括用户和其他参与人员)也应有学习和自我教育的责任。为促进人与人工智能和谐共生,这些角色之间应相互配合,以备风险明确时做到迅速应对。可以根据不同主体(公共部门、运营商、公司企业、公民个人等)分级分类管理,对数据主体、数据价值、数据产权等核心概念作出统一责任界定,如:开发者与生产者分担对出厂机器的质量责任,设计者与开发者要对使用者提供说明服务,并对使用者的隐私数据做可靠的信息保护,等等,详细的责任区域划分可以更好地避免出现责任漏洞。
推行人工智能安全标准,有助于提高行业人员的社会责任感。大部分技术产品的生产与使用是为了弥补人类的先天性不足以及代替人类进行重复性和复杂性的工作,随着科学技术取得突破性进展,“弥补不足”和“增强机能”之间的界限日益模糊,进而诞生了旨在大幅度提升乃至改变人类生物性特征的人类增强技术[10]。人工智能按照设计者编入的算法运行,却无法在事故后对选择结果解析说明,如果这种无法全然预知的机器被推广到社会,很容易产生舆论问题,从而大幅度降低人工智能产品在大众中的信赖度。所以,应加快推行人工智能安全标准,统一行业制造规则,让人工智能技术的相关开发者与生产者在追求技术迭代和企业利润的同时明确自身社会责任,尽可能实现事故可控性、原因可分析性,围绕相关规范做到有所为和有所不为。
(四)加快技术创新:构建人机关系动态平衡
面对科学技术的发展,人类难免产生“危机感”与“自卑感”,但人工智能的生产初衷是弥补人类某些性能上的弱点,若人工智能对人类某些性能不能做出弥补或超越,它便背离了科技创新的本来意义,人类应为自己创造物的优良性及其进化而欢呼,而不是过多地将其推到自身的对立面,作为异己力量去相互较量,陷入无限的自寻烦恼中[11]。认定人类是最终责任主体不是一种约束,而是一种肯定。应采用科学有效的措施去完善现有智能技术,尊重人工智能发展规律并实行多维度协同治理,有序推动人工智能健康和可持续发展。
同时,也不能将人工智能在某方面的优越视为科技手段本身的“胜利”。智能机器的优越实际上是背后设计者的“功劳”,人工智能作为人实践能力和认识能力提高的证明,是人类掌握和利用客观规律的成功。我们应正视技术发展,加快技术创新,将认定人类是最终责任主体作为开拓创新的行动基石,从坚持以人为本、遵循人类共同价值观的角度,在更明确、更安全、更符合行业社会标准及伦理道德的状态下实现与人工智能的频繁互动,达成人机关系的动态平衡。