APP下载

论人工智能发展的伦理原则

2022-10-31孙伟平

哲学分析 2022年1期
关键词:伦理主体原则

孙伟平 李 扬

我们正处在一个社会全方位急剧变革的伟大时代。继工业化、信息化之后,智能化已经成为时代强音,成为“现代化”的最新表征,成为一个国家和地区发展水平的标志。智能时代标志性的高新科技——人工智能——究竟会如何发展,可能导致哪些伦理后果,可能推动人与社会走向何方?这些问题的重要性越来越凸显出来。或许人们观察和思考这些问题的视角不同,认知也不一,短时间内难以取得基本共识,但人工智能作为一种开放性、革命性、颠覆性的高新科学技术,确实已经引发了大量的伦理问题和伦理冲突。如何立足智能科技的发展和社会的智能化趋势,准确研判其伦理后果,提出合理的、整体性的、具有前瞻性的伦理原则体系,对人工智能的发展予以必要的引导、规制和支持,是不容回避的重大理论和现实课 题。

一、事实判断:人工智能之所“是”

显而易见,提出关于人工智能研发、应用的具有前瞻性的伦理原则体系属于价值判断的范畴。正如休谟在《人性论》一书中所揭示的“应该”必须以“是”为基础一样,合理的价值判断也必须以事实判断为基础。只有回答了“人工智能是什么”“人工智能存在一些什么样的发展可能性”“人工智能可能给人与社会带来哪些改变”等问题,才能提出人工智能发展的合理的价值原则(体系)。这正如海德格尔所说,“揭示发生之处,才有真实的东西”。

人工智能是以基于大数据的复杂算法为核心,以对人类智能的模拟、延伸和超越为目标的高新科学技术。它比人类历史上所发明的任何科学技术都更具革命性和颠覆性。究竟应该如何给人工智能下一个定义?这是一个令所有人都感到头痛、迄今仍然莫衷一是的问题。囿于当前人工智能的发展现状,特别是远未定型的事实,或许任何匆忙的定义都是不明智的。不过,无论“人工智能是什么”的问题具有怎样的开放性、革命性和颠覆性,我们都应该清醒地意识到:它仍然是人类所创造并一直服务于人类的一种高新科学技术;或者说,人工智能与其他任何“属人的”科学技术一样,都植根于人类生活实践活动的需要,都服务于人的解放、自由全面发展的价值目 标。

在人类早期的社会实践活动中,人是具体社会实践的发起者与评价者,是实践工具的制造者和操控者,是社会协作的组织者和参与者,是实践动力的提供者和实践后果的承担者。在原始的渔猎、采集活动,以及农耕、家庭手工业活动中,人不仅需要承担大量的体力劳动,而且几乎包揽了全部的脑力劳动。以蒸汽机为标志性成果的第一次科技革命和以内燃机、发电机为标志性成果的第二次科技革命,通过机器代替人承担社会实践所需的大部分动力,承担越来越多的体力劳动,大幅提升了人类活动的能力和效率。机器在发展过程中,还通过“生产流水线”这一协作方式,将包括教育、文化在内的各项生产活动高效地组织起来。在“生产流水线”上,既有机器之间的,也有人与人、人与机器之间的分工与协作。随着大机器生产的应用和普及,个体的人日益成为“生产流水线”的一部分。具体的社会实践不再仅仅由人发起,机器开始“承担”部分的脑力劳动,“接管”一部分职责和权力。“生产流水线”外化、固化了人的“生产思维过程”。每一步生产加工什么?怎么进行生产加工?各个生产加工步骤如何衔接?……这些原本人脑思维过程之中的内容使用“生产流水线”“表达”、固定下来了。当然,生产流水线般对人脑思维过程的外化、固化不仅是片段的,而且缺乏对思维过程的变动性处理,省略了作为思维过程背景的知识体系,造成了实践过程的“程式化”和“机械化”,产生了一系列非人性、异化劳动者自身的后果。对此,以马克思、马尔库塞、海德格尔为代表的思想家们进行过深刻的揭露和批 判。

第三次科技革命不同凡响,出现了模拟人的大脑和智能,并以“像人一样思考、像人一样行动”为目标的人工智能。这导致人类生活实践的内容和形式正在发生重大变革。人工智能是以互联网、物联网、大数据、云计算等为基础的现代高新科学技术。它基于强大的数据采集能力、处理能力和大数据,弥补了生产流水线所欠缺的作为思维过程背景的知识体系的不足;它以算法为核心,不仅外化了人的思维过程,也可以对思维过程进行变动性处理,实现了机器在“思维”“理性”方面的跃升。无论是“弱人工智能”还是“强人工智能”,都能够在一定意义上“发起”具体的社会实践活动,实现对实践工具的操控,组织人与机器的社会协作,并对实践过程适时进行评价和调整。作为“人造物”的人工智能甚至日益接近突破“图灵奇点”,在人类历史上第一次接近成为像人一样的“主体”,从而前所未有地取代人的工作,将人从各种繁重、单调的强迫劳动中解放出 来。

人工智能突飞猛进的发展和在生活实践中的广泛应用,特别是日益接近突破“图灵奇点”,日益接近成为“主体”,不可避免地给人和社会带来巨大的、全方位的变化。这种变化不仅体现在智能科技日益成为整个社会的基本技术支撑,智能机器人在一定意义上日益成为“人”(如2018年沙特阿拉伯授予汉森机器人技术公司研制的类人机器人索菲亚“公民”身份),而且促使社会的方方面面经受无孔不入的“智能化洗礼”,导致我们身边的一切快速信息化、智能化,以至于“世界每天都是新 的”。

首先,智能科技的发展和应用重塑了社会生产方式,使经济活动日益信息化、自动化和智能化。这不仅极大提高了劳动能力和劳动生产率,导致物质财富前所未有地丰富,而且令信息和知识成为最重要的经济和社会资源。“在21世纪的数据驱动型社会中,经济活动最重要的‘食粮’是优质、最新且丰富的‘实际数据’。数据本身拥有极其重要的价值,对数据领域的控制决定着企业的优劣。”信息、知识具有可共享性、主体依附性、价值增益等与土地、资本、自然资源完全不同的自然禀赋,这种与源自资源的自然禀赋之不同正在深刻地改变经济活动,改变人与人之间的经济和社会关系——例如,催生知识经济、智能产业快速崛起,将知识劳动者置于经济活动中的核心位 置。

其次,伴随智能产业的崛起和传统产业的智能化,一种前所未有的社会分工体系正在形成。人工智能的发展给以往“机械”“呆板”的机器装上了聪明的“大脑”。智能机器不仅能够自己“看”和“听”,也能对生产过程进行“思考”,从而“自主”地运转起来,开展灵活多样的“订制型生产”。人们所从事的大量重复、单调、繁重的体力劳动,以及越来越多的脑力劳动,正被一批又一批地交给智能机器去做。在信息化、自动化、智能化背景下,人与机器之间正在重新分工,传统的“人机关系”在轰轰烈烈的解构中重建。在这种新型的社会分工体系中,“知识劳动者”以其自身掌握的信息和知识,特别是科学研究和技术开发,成为社会生产、服务、管理的主体;各种智能系统“渗透”到社会的各行各业,承担越来越多、越来越重要的劳动任务和工作职责;一种人机协作、人机一体化的新型分工体系正在形 成。

再次,社会上层建筑正在“重筑”,信息化、智能化的组织方式和治理方式渐成主流。与农业时代、工业时代依靠土地、工厂组织社会生产和生活不同,人工智能带来的技术基础设施和经济、社会资源的转向,使得人们的生产和生活日益出现摆脱地域限制的趋向,虚拟银行、虚拟企业、虚拟车间、虚拟商店、虚拟博物馆、虚拟法庭、虚拟学校、虚拟医院、虚拟社区、虚拟家庭等新兴社会组织方式大量出现。新兴社会组织方式以其数字化、虚拟化、智能化特点,呼唤社会治理方式进行相应的调整和变革。在信息科技,特别是人工智能的“加持”下,社会治理和社会服务变得更为敏捷,更加多样化,与此同时,金字塔式的科层组织管理结构日益显现出自身的弊端,组织管理结构出现了扁平化、分权式之类的趋 向。

最后,在生产方式、社会分工、社会组织方式、社会治理方式变迁的基础之上,思想文化领域也必然发生相应的变化。基于智能经济、智能社会而产生的各种新思想、新文化,基于智能算法推送的各种公共信息、文化服务和商业广告,可以越来越及时、精准地传递给受众。思想文化的生产、传播、消费在人工智能的“加持”下日益信息化、智能化。同时,随着信息、知识转变为最重要的经济和社会资源,随着社会组织方式和组织结构的变迁,农业时代、工业时代产生的意识形态、价值观念、伦理道德正在遭受猛烈的冲击。与全新的社会生活实践相适应,一种新型的具有智能时代特质的思想文化体系正在孕育、生 成。

毋庸置疑,目前人工智能的发展仍然处于早期,远未成熟、定型,它对人与社会的变革、塑造仍然是初步的。未来人工智能将如何发展,并以此为基础如何变革、塑造人与社会,仍然有待冷静观察。但非常明显的是,正在发生的变革与塑造之快速、广泛与深刻,是以往一切科技革命无法比拟的。事实上,人类正处在一场波澜壮阔的生存、活动革命之 中。

二、关系判断:人工智能导致的伦理后果

伦理道德作为人与动物相揖别、“调节人与人之间社会关系的一种价值体系”,植根于人们的社会生活实践之中,且随着社会生活实践的发展而发展。人工智能作为一种深刻改变世界、对社会“再结构”的高新科学技术,正在全方位、深刻地影响人们的社会生活实践,影响人与人之间的社会关系和伦理道德关 系。

(一) 人工智能的自主程度日益增强,在经济和社会领域越来越活跃,对人作为唯一道德主体的地位提出了严峻的挑 战。

伦理道德曾被认为是专属于人的哲学范畴。从传统伦理学的视角看,人因其有理性、会思维,能够根据自主意识开展活动,而被认为是“宇宙之精华,万物之灵长”,被设定为唯一具有自主性的道德主体。如果说人工智能作为“人造物”日益接近突破“图灵奇点”,在人类历史上第一次接近成为“主体”,那么,它是否可能成为“道德主体”?这引发了持不同立场的学者之间的激烈争 论。

弗洛里迪(L. Floridi)和桑德斯(J. Sanders)提出了判断X是否为道德主体的标准:只有X在能够起作用,例如对世界产生重要的道德影响的前提下,并且具有交互性、自主性和适应性,它才是道德主体。即是说,只有X能够与其环境发生交互作用;能够在不受外部环境刺激的情况下,具有改变其自身状态的能力;能够在与环境发生交互作用中改变规则,才是道德主体。显而易见,智能系统能够符合上述各项标准,弗洛里迪和桑德斯由此直接承认了智能系统的道德主体地 位。

而与此相对照,不少学者则表示质疑,拒绝承认智能系统的主体地位,最多只给予其“准道德主体”的地位。有些学者引用泰勒(P. Taylor)1984年提出的判断道德主体地位的五条标准:“第一,具有认识善恶的能力;第二,具有在道德选择中作出道德判断的能力;第三,具有依据上述道德判断作出行为决定的能力;第四,具有实现上述决定的能力与意志;第五,为自己那些未能履行义务的行为作出解释的能力”,据此质疑、否定今天智能系统的道德主体地位。例如,布瑞(P. Bery)用道德主体应该具备的三个特征,即“有能力对善恶进行推理、判断和行动的生物;自身的行动应当遵循道德;对自己的行动及其后果负责”,来否定智能系统的道德主体地位。然而,如果我们深入地进行分析,那么不难发现,上述判定标准存在两个不容忽视的问题:其一,判定标准,特别是其中“意志”“生物”等用语,直接显示了标准提出者的“人类中心主义”思路,明显是以人为参照物来衡量人工智能的道德主体地位;其二,根据上述判定标准得出人工智能仅具有“准道德主体”地位的结论,显示其理论视野仅仅局限于弱人工智能,而没有考虑到突破“图灵奇点”之后的强人工智能或超级智能。但无论学术界具体认定的标准是什么,无论不同学者站在不同立场上得出什么样的结论,激烈的争论本身就表明,人工智能的横空出世与快速发展已经对人作为唯一道德主体的地位提出了严峻挑 战。

如果说肯定纯粹由人所制造的智能系统拥有道德主体地位还存在难度,一时难以被学术界和社会公众所认同,那么,说生物智能与人工智能的混合体将拥有道德主体地位,则明显比较容易被认可和接受。因为,否定人工智能具有道德主体地位的关键就在于,人工智能并不拥有真正意义上的“心灵”,而“心灵”则是独属于人的。随着生物技术的发展,特别是生物技术与智能技术的综合发展,人的自然躯体一直在被修补、被改造。虽然这种修补和改造目前还是初步的,还停留在物质性的躯干部分(如假肢对手或腿的修补、冠状动脉支架对血管的改造),还没有深入到对人脑及其智能的修补和改造,但是,“生物智能必将与我们正在创造的非生物智能紧密结合”,人机互补、人机一体显然处于技术发展的逻辑进程之中。人工智能所具有的强大感知能力、记忆能力、计算能力、快速反应能力等,正是人的自然躯体所缺乏或存在严重局限的智能和技能。科幻小说中所描绘的在人脑中植入特定的芯片,辅助人脑承担感知、记忆、判断、表达等功能,创造出打破技术与人的传统界限的新生事物,都很有可能变成现实。在智能化进程中,无论在何种程度上否定这种生物智能和人工智能“共生体”的道德主体地位,将会直接导致对人的道德主体地位的否定。可见,人作为唯一的道德主体的地位遭遇到人工智能强有力的挑 战。

人工智能在挑战“人的唯一道德主体地位”的同时,还通过所拥有的越来越强大的劳动能力,以及对人所占据的劳动岗位的排挤,令人的生存、生活环境变得恶劣。人工智能的自主程度正在日益增强,在生产、生活的诸多领域展现出相对于自然人的优势。它们不仅能够代替人从事各种危险或有毒有害环境中的工作,而且开始向曾经“专属于人的工作岗位”发起挑战。例如,在复杂的城乡道路上开车曾经一直是人的“专利”,而无人驾驶汽车正在兴起;写出自己所感、所想,引起他人共鸣,一直是作家引以为傲的资本,“薇你写诗”之类智能程序也可以做到;绘画、书法、作曲、弹琴、舞台表演一直是高雅的人类艺术,相应的智能系统正在向这些领域快速进军……在智能技术指数级进步速度的衬托下,人(特别是“数字贫困者”之类普通劳动者)的进步速度显得过于缓慢,远远跟不上智能机器进化的速度;加之现实社会中原本就存在的贫富差距、技术差距和“数字鸿沟”,“数字贫困者”之类普通劳动者在这场智能革命中很可能彻底丧失劳动的价值、工作的权利,从而被经济和社会发展体系排斥在外,沦为“无用阶层”或“多余的人”。在社会快速信息化、智能化进程中,这种不公正、不人道的“社会排斥”现象可能愈演愈烈,越来越多的人因为丧失劳动价值、丧失工作机会,从而令自己在生活实践中的主体地位遭遇危机,令自己的存在看上去变得可笑和荒谬。

(二) 人工智能不仅重构了社会基础设施,而且渗透到人类社会生活的各个领域和方面,发挥的作用也越来越大,传统社会的伦理道德关系面临越来越多、越来越大的挑 战。

首先,“人—智能系统”的道德关系已经引发忧虑与不解。人工智能既是人类所创造的一种工具,又绝非一般性工具,它具有成为“主体”的潜质。它剧烈地冲击、解构着传统的“人机关系”,引发了学术界关于“人—智能系统”的道德关系的热烈讨论。目前学者们的立场和观点越来越分裂,达成普遍共识的难度越来越大。有些科学家和学者甚至充满忧虑地提出,“强人工智能”或者“超级智能”是否会失控、异化,反过来统治、虐待、奴役人类。如阿库达斯(Arkoudas)和布林斯约德(Bringsjord)在为《剑桥人工智能手册》 ()所供稿件中认为,人工智能不会仅仅满足于模仿智能或是产生一些聪明的假象,成为真正的主体是技术发展的逻辑追求。库兹韦尔甚至预言:“(有意识的)非生物体将首次出现在2029年,并于21世纪30年代成为常态。”这种超越其设计者的“强人工智能”自我学习、自主创新、彼此联系,是否会超出原先设计者对其职能边界的设定而走向“失控”,成为统治、虐待、奴役人类的“超级智能”?这种“强人工智能”或“超级智能”是否会基于自身的强大,判定人类“没有什么用”,并且“浪费资源”,从而怠慢“数字贫困者”之类弱势群体,进而漫不经心地灭绝人 类?

其次,人工智能对现有的“人—人”之间的道德关系带来了冲击。人工智能作为一种尚未成熟、定型的通用型技术,已经展现出自身强大的威力,开始改变人与人之间的社会关系,已经并正在造成一系列严重的伦理后果。例如,在历史与现实中,人与人之间本来存在一定的自然能力差距、贫富差距、城乡和地区差别、社会分化等现象,这种不平等的现实往往令弱势群体感到愤愤不平,而在死亡面前的“终极平等”又构成了人类社会最基本,甚至是最重要的平等。或许正是因为“死亡面前人人平等”,人与人之间的一切不平等都变成了有限的不平等。而随着人工智能的发展,特别是生物技术与智能技术的综合发展,一些原本处于优势地位的人可能更有条件实现“智能+”,更好地享用先进的科技成果,人与人之间的分化可能以知识、智慧为突破口而不断拓展,“数字贫困者”之类弱势群体可能处于更加无助、无奈的地位。医疗技术、生物技术与智能技术的综合发展,还可能对人的基因进行重新编辑,通过基因增强大大改善人的健康状况,大幅延长人的寿命;通过“思维上传”实现“精神不死”,甚至成了一些精英群体现在就开始讨论的话题。如果基因增强等技术真的能够实现,原本处于优势地位的精英群体自然更有可能受益,可能优先获得弱势群体渴望而不得的提升机会。这将直接瓦解“死亡面前人人平等”的自然铁律,令既有的社会不平等得以长期延续,甚至变本加 厉。

再次,基于人工智能的研发和应用,可能产生难以计数的道德问题。例如,在具体的道德关系中,如何确定智能系统的道德责任就是当前困扰人们的一个道德难题。正处于测试阶段的智能无人驾驶汽车如果获准上路,马上就颠覆了传统的驾驶员与其他道路交通参与者之间的关系。智能无人驾驶固然可能更便捷、更安全、更高效,可以减少交通事故的发生,但它显然并不能完全消灭交通事故。而一旦发生交通事故,传统的以驾驶员为中心的责任体系已经土崩瓦解,智能无人驾驶系统的设计者、生产者、拥有者、使用者等之间难以避免相互间的责任推诿。此外,智能无人驾驶系统本身还会加剧原有的一些“道德两难”问题。如义务论和功利论争论不休的“电车难题”并非没有根据的理论设想,完全可能出现在发达的智能时代。例如:一辆载有大量乘客的智能无人驾驶汽车突遇横穿马路的行人,在刹车不足以避免相撞的情况下,紧急转向可能导致车辆侧翻,造成乘客伤亡,而不转向、仅刹车则可能造成行人伤亡。面临两难情形,如果驾驶员是自然人,凭借自身的道德直觉所作的决定往往能够得到人们的理解;而如果是算法主导的智能无人驾驶,则很难逃脱义务论者或者功利论者的苛责,以及没完没了的追 责。

人工智能的研发和应用可能导致的伦理道德挑战还有很多,比如近年来人们热衷讨论的虚拟对真实的挑战、大数据与隐私权问题、算法可能内嵌的歧视问题、智能推送加剧人的单向发展问题、人形智能机器人对人际关系(特别是婚恋家庭关系)的挑战、杀人机器人的研制和应用问题,等等。我们可以肯定,更多的新问题、新挑战还将随着时间的推移不断地显现出来。所有这些新问题、新挑战对智能时代的伦理建构和道德治理提出了新的要求,呼唤我们基于新的伦理原则体系重建新的伦理秩序,建设更加合乎人性、人们的幸福指数更高、社会也更加公正的新型智能文 明。

三、价值判断:人工智能发展的伦理原则体系

直面人工智能的快速发展和对世界的变革,以及所产生的新的伦理问题和挑战,社会各界对此都极其关注。不少组织机构提出了人工智能发展的伦理原则和道德规范。例如,微软公司将“公平、包容、透明、负责、可靠与安全、隐私与保密”作为人工智能的六个基本道德准则;腾讯研究院从“技术信任”“个体幸福”“社会可持续”三个层面提出若干道德原则;欧盟将“人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制”作为“可信赖人工智能”的七个关键性条件。乔宾(Anna Jobin)等人从美英等国84份关于人工智能伦理指南的资料中,按出现频率的高低,将人工智能的伦理原则归纳列举如下:“透明、公正和公平、不伤害、责任、隐私、有益、自由和自主、信任、尊严、持续性、团结”。还有不少国内外学者从不同的理论视域提出和论证了“透明”“责任”“问责”等人工智能的伦理原则,要求智能系统具有一颗“良芯”的呼声此起彼 伏。

然而,细致思考既有的各种伦理主张,以及所提出的各种伦理原则,我们不难发现,其中或隐或显地存在着两个严重的缺陷:其一,诚如有些科学家所说,面对人工智能对世界的全方位改造和对社会生活的整体性参与,这些伦理原则彼此之间缺乏有机联系,并没有针对新的问题和挑战提供整体性的解决方案;其二,这些彼此之间缺乏有机联系的伦理原则更多是对人工智能发展的消极预防或限制,而很少顾及对于人工智能发展的积极伦理支持。无论是从智能科技的良性发展而言,还是从智能社会的伦理建构来说,这两个严重的缺陷都是不容回避的,应该得到关注和解 决。

基于人工智能的快速发展和广泛应用,建构能够整体性回应人工智能对现实社会的众多问题和挑战,并包含对人工智能的发展给予必要规制和积极支持的伦理原则体系,必须寻找一个类似“阿基米德支点”的“基点”。这个“基点”,也就是人工智能研发、应用的最高伦理原 则。

这样的“基点”或最高伦理原则只能从“从事实际活动的人”出发,立足人自身的立场去寻找。众所周知,无论是伦理道德,还是人工智能等高新科学技术,都是“属人的”创造物,都是为人类的根本目的和利益服务的。任何科技活动(包括技术的应用)本质上都属于人类实践活动的范畴,是“人为的”且“为人的”价值创造活动。这类活动必须遵循“人是目的”,以人作为“万物的尺度”的原则。因此,无论人工智能体多么接近突破“图灵奇点”,多么接近成为具有自主意识的“主体”,都不可能也不应该改变其“属人性”。“人”是我们在这里看待一切问题的出发点,“人本原则”是人工智能研发、应用的伦理原则体系的“基点”和最高原 则。

当然,“人本原则”是既抽象又含混的,学者们对其内涵与外延的争议颇多,聚讼不断。但删繁就简,它至少应该包含以下三重含义:首先,在技术的伦理价值取向方面,人工智能的研发、应用必须“以人为中心”,始终坚持“人是目的”,尊重人的人格和尊严,维护人在世界上的主导性地位。其次,积极推进人工智能的发展和应用,为人类提供更好的产品和服务,更好地满足人类的需要,同时在技术研发、应用的方向上,防止它朝着蔑视人类,甚至危害人类的方向发展。再次,就具体的风险防控而言,不能放任人工智能“随心所欲”地发展,不能对任何可疑的技术风险和负面社会效应听之任之;相反,正如稍后提到的责任原则将要论及的,必须强化相关人员的责任意识,对一切不负责任的行为问责、追责。迈入智能时代,面对越来越智能、越来越强大的人工智能,人类自身的不完满、局限性和缺陷正在被不断放大。但是,不完满、有局限性和缺陷的人依然是一切社会实践活动的主体,依然是伦理道德或“人机(智能系统)道德关系”的主体,依然是一切科技、人文活动的目的和宗旨之所在。各种智能系统虽然可能在体力甚至脑力活动方面超过人,却始终只是人的工具、助手和伙伴。任何算法都不能忽视人类的生存和发展、人格和尊严,任何不直接受人控制的智能系统,例如“智能杀人武器”,都不应该被研发和应用,任何智能系统都不应在能够救人于危难时袖手旁 观。

作为人工智能发展的最高伦理原则,“人本原则”是所有的、各个层级的伦理原则的“基点”和“统领”。即是说,其他各项伦理原则都可以从“人本原则”中推导出来,并基于“人本原则”得到合理的解 释。

“公正”是亚里士多德所谓的“德性之首”,是“人本原则”在现实社会最为基本的价值诉求。公正作为人们被平等相待、得所当得的道德直觉和期待,是社会共同体得以长久维系的重要保障;公正作为一种对当事人的利益互相认可并予以保障的理性约定,更是社会共同体制度安排、“人—人”的道德关系、确定主体和“类主体”道德责任最为基本的伦理原则。当然,对于公正是什么、公正怎样阐释才是合理的这类问题,自古以来人们一直争论不休。如何在现实社会实现公正,特别是解决一直存在的不公正现象,并没有一劳永逸的万能方法。或许应该说,公正的理解和实现都是历史的,人们永远只能在社会发展过程中踉跄前行。在促进人工智能快速发展和广泛应用,并对人与社会带来革命性、颠覆性的改变时,我们需要“以人为中心”进行“公正的制度设计”,既遏制“资本的逻辑”之贪婪成性和为所欲为,也防止“技术的逻辑”的漠视人性与横冲直撞,从而让每一个人都拥有平等的接触、应用人工智能的机会,都可以按意愿使用人工智能产品,并与人工智能相融合,都能够从这一场前所未有的科技革命中受益;我们需要不断完善相应的劳动时间、社会财富的公正分配体制,采取有效措施消除数字鸿沟和“信息贫富差距”,消除经济不平等、社会贫富分化和“社会排斥”现象,维护“数字贫困者”等弱势群体的人格、尊严和合法权 益。

责任是人工智能研发、应用过程中最基本的伦理原则,也是“人本原则”的逻辑延伸。如果说公正原则更多关注的是社会整体,那么责任原则更多指向的则是个体。人工智能的研发毕竟是由科研人员进行的,他们往往是处在人类知识边缘的直接评价者和具体决策者,他们的所思所想、所作所为往往决定着人工智能及相关产品、服务的社会影响,因而肩负着神圣的、不容推卸的道义责任。人工智能的研发人员不仅要关心技术的进步,以及技术的应用可能给人类带来的福祉,也要关注技术本身的伦理后果、技术应用的负面社会效应。这正如科学巨擘爱因斯坦对科学工作者的谆谆告诫:“如果你们想使你们一生的工作有益于人类,那么,你们只懂得应用科学本身是不够的。关心人的本身,应当始终成为一切技术上奋斗的主要目标;关心怎样组织人的劳动和产品分配这样一些尚未解决的重大问题,用以保证我们科学思想的成果会造福于人类,而不致成为祸害。”责任原则绝不仅仅局限在人工智能的研发领域,它同样也是对生产者、所有者、使用者的道德要求。它不仅是确定智能系统的道德责任的伦理原则,而且是在受人工智能影响的“人—人”道德关系中确定相应主体道德责任的伦理原则。在人工智能的研发、应用过程中,研究者、生产者、所有者与使用者都应该对人工智能的技术边界有着清晰的界定,应该让人工智能“可靠”地为人类服务;一旦出现问题,则可以及时、有效地追责;从而确保信息化、智能化发展的正确方向,实现为人类谋福利,促进人类自由、全面发展的伟大目 标。

总而言之,以“人本原则”为“基点”和“统领”,以公正原则和责任原则为主干,这就构成了人工智能发展的整体性的伦理原则体系。这一原则体系在逻辑上是提纲挈领、一以贯之的,是一个有主有次、层次分明的有机整体。它既涵盖了对人工智能可能导致的负面后果进行必要的伦理规制的内容,也能够对人工智能的研发、应用提供积极的伦理支持。同时,人们经常讨论的诸如公开、透明、可控、可靠等次级伦理原则,或者更为具体、更为细致的伦理实施细则,完全可以结合相应的生活实践领域,以上述三个基本原则为基础加以解释,从而被纳入人工智能发展的伦理原则体系之中,实现对由人工智能引发的诸多问题和挑战的整体性回应。当然,在时代和社会急剧变迁过程中,以上人工智能研发、应用的整体性的伦理原则体系是否合理、是否有效,我们必须坚持辩证的、历史的观点和方法,将其具体地应用于解决问题、应对挑战,使之在智能时代的社会生活实践中不断得到检验、丰富、完善和发 展。

猜你喜欢

伦理主体原则
论碳审计主体
磨课活动中多元主体需求的深度挖掘
十二星座的做事原则
何谓“主体间性”
浅谈我国社会工作伦理风险管理机制的构建
租赁房地产的多主体贝叶斯博弈研究
租赁房地产的多主体贝叶斯博弈研究
亲组织非伦理行为研究
亲组织非伦理行为研究
非伦理领导对员工职场非伦理行为的作用机制研究