APP下载

人类中心主义视角下人工智能道德风险防控与治理

2022-11-21计海庆

长沙大学学报 2022年4期
关键词:中心主义道德风险福祉

计海庆

(上海社会科学院哲学研究所,上海 200235)

人类中心主义,又被称为“人类中心论”,主张将人类利益置于首要地位,强调人类利益是所有物种行为的价值尺度。关于人类中心主义的界定很多,综而观之,主要是指以人类的利益、价值作为评判事物、行为的尺度和标准。古希腊哲学家普罗塔哥拉提出的“人是万物的尺度”,可以说是最早的人类中心主义思想,可见人类中心主义思想由来已久。艾萨克·阿西莫夫(Isaac Asimov)的机器人三大定律是人类中心主义思想体现在机器人领域的典型代表,其实质性内涵为:在人机发生冲突时,机器人应该为人类的利益作出牺牲;只有在保护人类和服从人类的前提条件之下,它才能去尽可能保护自己;它不可能为了保护自己而伤害人类。

学界对人类中心主义和非人类中心主义一直存在探讨与争论。在生态伦理领域,关于非人类中心主义的呼声较高;在人工智能伦理领域,关于人类中心主义的呼声则较高。简小烜所撰写的《人工智能道德风险的防控与治理》一书对人工智能道德风险的防控与治理进行了较为系统、深入的探讨,该书告诉我们,为何在人工智能伦理领域,关于人类中心主义的呼声会更高。该书主要从以下四个方面体现了作者所持有的人类中心主义视角与立场。

一 强调道德风险是对人类利益和责任的损害

汉斯·尤纳斯(Hans Jonas)于 1979 年指出:在科学技术迅速发展的今天,技术性质已发生改变,不再是人类为了达到某个目的而使用的工具,具有自身的发展目的,是一种“独立的力量”[1]5;在技术的影响下,行为者、行为与行为后果,已经发生改变,不再是近距离性质的;技术革命带来的负面影响是世界性的,并具有长远性,不再局限于某一个地方,也不再局限于当下。鉴于技术的新特性以及传统伦理学的历史局限性,他提出“未来伦理”“整体性伦理”,强调人类对现在和将来的责任,并以长远性和整体性为道德原则,以尽可能减少或消除人类社会、技术等发展过程中的风险因素。毋庸置疑,尤纳斯的责任伦理是持人类中心主义立场的。

《人工智能道德风险的防控与治理》一书对人类利益和责任的强调是非常明显的。该书指出,人工智能所导致的道德风险就是其从各个方面对人类利益、福祉造成的损害。就目前而言,人工智能技术带来的隐私泄露、算法歧视、数字鸿沟等风险层出不穷,而随着人工智能对人类就业的负面影响,大量重复性工作将被人工智能所取代,这也将影响到部分人社会价值的实现。从未来性而言,如人类与人工智能的结合,即人机融合智能,能够改造人类自身生理结构中存在的缺陷,兼具人和机的优势,这虽然提高了人类的身体素质,但对人类的自由意志、尊严、地位等都是一种打击或侵犯,影响到人类自主性的实现,在某种程度上消解或减弱了人类的主体性和道德地位。

整体而言,该书较为深入地讨论了人工智能对人类主体地位、道德责任、隐私权、安全等带来的负面影响和风险,探讨了人工智能算法所导致的歧视与不公等风险问题,同时也深刻指出了造成道德风险的主要因素:人工智能体自主性的增强、技术世界工具理性和价值理性的冲突、人类责任的弥散和逃避、相关伦理规制的缺乏、法律法规的滞后与缺失、监管体系的不完善、技术自身的局限性等。该书基于人类中心主义视角的探讨比较深入和系统。

该书还重点探讨了人工智能在道德责任领域带来的风险。由于人工智能体已具有一定的自主性,在人机交互中,人类对它的决策行为只具有一定程度的控制性,人工智能体对自身的行为也不具有完全控制性,那么,按照传统道德责任理论,由人工智能体行为带来的损害结果,人类无法为之负责,人工智能体更无法为之负责,这就产生了道德责任困境。面对此责任困境,一部分学者主张应该采用非人类中心主义视角进行研究,提出将人工智能体界定为道德责任主体,以使其承担责任。然而人工智能体没有意识、情感,感受不到情绪,更认识不到被批评或被表扬的意义所在,问责对它没有意义。作者清醒意识到此点,也指出这种观点其实造成了“人工智能体在理论上具有道德主体地位,在现实中却又不能承担道德责任”[2]57的悖论,因此并不赞成由人工智能体承担责任,而是主张由人类来承担责任,人类才是永远的被追责者。人的因素在科学技术活动中是首要的,任何非人的元素都不可能脱离人而独立发挥作用[3]。人,创造了人工智能;人与机的交互,亦来源于人,人是第一位的责任主体。

作者还指出,责任困境甚至导致了人类责任的弥散,人们经常把责任推给人工智能体,比如人们经常抱怨的“导航把我带错了地方”。为解决这些问题,作者提出构建前瞻性责任伦理,否则负责任创新和人工智能向善无从谈起。道德责任问题本身是人工智能伦理领域的一个前沿问题,作者站在人类利益视角进行讨论,但同时也毫不留情地指出人类自身存在的问题——对责任的逃避,强调人类并不能因为人工智能体的自主性而忽视自身责任。这既是对人类未来的考虑,也是基于人类整体的考虑,是对尤纳斯责任伦理的继承与创新。“为了避开整体上最大的恶,为了追求善,人类应当履行实质责任。只有这样,才能确保人类的福祉和未来。”[4]

二 认为人工智能体的道德地位应低于人类

关于人工智能体道德地位的探讨很多。传统理论认为,自由意志、自我意识是基本前提,人工智能体并不具备,不能成为道德主体,不具备道德地位,更不能承担道德责任。实用理论则倾向于摒弃非凡的自我意识和自由意志,而从人工智能体的自主性和意向性等类人属性出发(实体论),或者从人机之间的关系出发(关系论),深入论证人工智能体能够成为道德主体,从而具备道德地位,能够承担道德责任[5]。《人工智能道德风险的防控与治理》一书则摒弃了极端的二值逻辑(要么主张把人工智能体作为工具来对待,要么主张把人工智能体当作自然人来对待),并将传统理论与实用理论相结合来进行研究。作者首先分析了人工智能体的道德能动性,如理性、自主性、意向性,论证其是人工道德能动者;接着分析了人工智能体特殊的人格性、物的属性和不完整的社会性,认为其在本质上有别于人类,它是二阶道德能动者,人类是一阶道德能动者;最后得出结论——作为人机交互系统中的二阶道德能动者,人工智能体具有非完全道德主体的道德地位,其道德地位低于人类。

从现实情况而言,在大多数人的心中,人类的地位高于动植物以及人工智能体的地位,这毋庸置疑。而一阶道德能动者和二阶道德能动者的区分并不仅仅是对应着道德责任的完全和非完全。至关重要的是,这种区分还意味着人工智能体对人类而言处于从属地位,其拟主体性由人类赋予,说到底它是人类的创造物和服务者。因此,人工智能体基于其拟主体性所实现的道德决策也必然只能是致力于实现人所能作出的最好决策,它的决策要为人所规定、约束、修正甚至是否决[6]。

布鲁诺·拉图尔(Bruno Latour)的行动者网络理论(ANT)有着明显的去人类中心化的特性。这种特性首先就表现在他将人类与非人的身份和地位并置。按照拉图尔的说法,行动者网络没有所谓的中心,也没有主客体的对立,每个节点都是一个主体、一个可以行动的行动者,彼此之间是相互影响的主体间性关系;非人的行动者通过有资格的“代言人”(agent)来获得主体的地位、资格和权利,以至可以共同营造一个相互协调的行动之网[7]18。这可以看出,拉图尔对非人行动者赋予与人一样的道德主体的地位,试图消除人类社会与自然之间的二分法,这与奥尔多·利奥波德(Aldo Leopold)土地伦理学的非人类中心主张一致。利奥波德的土地伦理提出“土地共同体”的概念,认为人、土壤、空气、水、动植物等构成了土地共同体,而人和土壤、空气、水等一样,都是共同体中的平等一员[8]157,这在某种程度上也消除了人类的中心地位,消除了人与自然的对立。

在试图消除二元论的学者中,有人非常赞同拉图尔的对称性原则。广义对称性原则在一定程度上实现了科学研究一直诉求的公正性、客观性,这也是人类社会向往已久的生存原则;其实践中所主张的科学研究的主客体身份的模糊性恰恰印证了人类社会诉求的人与人、人与物之间的平等性[9]。二元论是一种“强不对称性”态度,拉图尔却又走向另一种极端,即“强对称性”,强调人类与非人类的完全对称。但是,将人与非人置于完全对等的道德地位,既不符合现实情况,也存在理论弊端。有学者就指出:“当从表象转向实物,从符号转向具体的现实,从作为文本的世界到作为物体的世界,非人元素的能动性作用便不再明晰。在这些转换的过程中,人与非人元素在能动性上的等同事实上并未如拉图尔所愿,成为一个确定的本体论条件。”[10]

如果说ANT 在理论上消解了人类与非人类的主客体之分,那么目前的人工智能技术正在从实践上实现这种消解。在当今技术社会,人与物一样被符号化、数字化、信息化,只是一个符号、一组数字、一组图像,人的尊严、自由、精神和隐私被技术排挤,人之为人的主体性、主观能动性正在被技术消解,人正在成为海德格尔所说的技术座架下的“无灵”之物,一部分人越来越具有“机器性”“机械性”。这引起了学术界的高度重视和深入研究。这再次从社会实践角度证明,人与非人元素在网络中、在人机交互系统中的身份和地位具有对等性确实是不可思议的。

科学技术活动,包括人工智能体的研发,都是为人类福祉和利益而开展的。将人工智能体置于与人类平等的地位,确实是去人类中心化了,但这明显违背我们的初衷。而且,将人工智能体赋予与人类一样的道德主体地位,这会加大人工智能体给人类带来的道德风险。一旦某一天它们具有真正的生命,具有如人类一样的意识、意志与自由,那它们要的可能远非平等。也许它们要做的第一件事,就是让人类成为它们的服务者,也许是工具,也许是宠物,也许什么都不是,因为它们不需要人类这种弱者了。无论如何,至少从理论上,人类应该防止这种可能性。

所以,拉图尔的“强对称性”原则应该被打破。皮克林就表示:我们要追随行动者网络理论的精神和方法,但不能完全照搬[11]。《人工智能道德风险的防控与治理》一书亦认可此观点,因此采用了弱人类中心主义态度。人类中心主义有强弱之分,强人类中心主义只强调人类的利益和福祉,弱人类中心主义在强调人类福祉的同时,也会顾及非人元素的利益与福祉,主张尊重自然、动植物、人工智能体等。基于弱人类中心主义态度,作者承认人工智能体具有一定的道德地位,但未将这种地位绝对化;认可其在人机交互系统中的重要作用,但不将它与人类的能动性等同。人工智能体确实已不同于纯粹的工具,我们应认识到其在人机交互系统中的重要社会作用,承认其具备一定的道德地位,这种主张一方面切合实际,在理论上也未给予人工智能体以凌驾于人类之上的可能性,另一方面则有利于人类的生存与发展。从奇点论视角来看,人类中心主义主张也许可以避免未来人类的灭亡。

总而言之,我们应该认识到物的能动性和拟主体性,重视物的作用与价值,重视人类责任和实现人机和谐相处。对服务于人类利益的人工智能体,我们应持尊重的态度,不管它有无意识与情感。但同时,我们应该深刻地认识到人的主体性地位正在遭到技术无情的消解,我们应采取措施预防和消减道德风险,更不能自降地位和身份。这是《人工智能道德风险的防控与治理》一书将人工智能体界定为“二阶道德能动者”以及认为其具备“非完全道德主体”地位的重要原因,也体现了人类中心主义在人工智能伦理研究中的重要地位之所在。

三 呼吁有限道德能动者的伦理设计

人工智能体原本便是为了人类的发展与繁荣而被研发与应用的,这意味着,它需要全力服务于人类,也需要遵守人类的道德规范与行为准则,这便有了对人工智能体的伦理道德设计。在人工道德能动者的伦理设计方面,作者分析了目前常见的三种进路,即自上而下、自下而上,以及混合进路;同时也指出还面临诸多挑战,如人工道德能动者实现难、道德认知和选择难、计算机算力局限等。但人工智能体的道德设计在设计目标方面一直未形成统一的意见,学者们对设计成完全道德主体还是一般的道德行为体也都意见不一,而在具体的设计中,确实面临很多难以解决的具体问题。如,如何将个人利己行为和为他人负责行为之间的博弈进行编码,是基于康德的义务论还是基于边沁的功利论?它们各有优点,又各有缺点,我们很难找到一个完备的推理与判断的系统模型。同时,道德设计还涉及情感、情绪、经验等方面,产生的信息复杂而量大,目前的计算机算力尚难以满足这一要求。

《人工智能道德风险的防控与治理》一书的态度很明确:人工智能体道德设计要实现的不是完全道德主体,而是有限道德能动者。作者认为,将人工智能体设计成完全道德主体,正如将它的道德地位置于与人类平等的地位,均会增加道德风险。有朝一日,万一人工智能体具备了意识、意志和欲望,那么它所要的可能远非平等[2]82。作者还指出,因为完全道德主体具有情感、意识、意志和欲望,一旦脱离人类的控制,人类文明很可能终结于这个“完全道德主体”,这不是大家所希望看到的。因此,作者不但反对赋予人工智能体与人类一样的道德地位,而且认为在人工智能伦理领域,采用非人类中心主义的观点和视角是不适宜的。人工智能伦理不同于生态伦理,人工智能体也不同于自然中的植物与动物,它已经具有一定的智能和拟人性,甚至“超人”的能力。“智能”意味着与人一样的自主性与创造性,如果再赋予它意识、情感,也许某一天,它会让人类成为它的服务者。非人类中心主义适合于生态伦理,但不一定适合于人工智能伦理。生态系统中的动物、植物、土壤、空气、水等,不同于人机交互系统中的人工智能体,它们不存在可以超越人、控制人的可能性,但人工智能体可能存在。利奥波德的土地伦理不存在给予生态系统中的动植物以统治人类的机会,但非人类中心主义的人工智能伦理则很有可能给予人工智能体以此机会。

所以,作者指出,人机交互领域必须坚持“以人为本”的原则与底线,所有人工智能体的研发必须以人类福祉为中心。确实,在人工智能伦理领域,非人类中心主义会大大提升非人元素的“物格”的地位,而造成人的“人格”的贬损。如前所述,目前的人工智能已经在某种程度上带来人类的物化、机器化,“它在以其强大的智能技术范式重筑社会基础设施、重塑人们的社会生产方式和生活方式的过程中,正在‘分裂’出自己的对立面,甚至发展成为一种新的外在的异己力量”[12]。人类的创造性和能动性已经受到一定程度的损伤,信息茧房、依赖机器决策等便是例证。无论如何,在研发设计方面,我们不能赋予人工智能体与人类一样的角色,这意味着不能给予它控制、主宰人类命运的机会,哪怕一点点机会也不能给予。我们并非不可以采用拉图尔的行动者网络理论,而是应对它有所超越。

人类应该拥有一个欣欣向荣的未来,而不是一个被人工智能体统治的世界,人工智能体应只为人类福祉而研发。该书在结语部分亦做了强调:我们所设计的人工智能体,应将保护人类权益作为第一准则,要尊重人类道德价值观,且一定是安全和“向善”的[2]160。从中可见作者立场的坚定、态度的谨慎与负责任,这也秉承了《新一代人工智能治理原则》(2019)中的原则与要求。

四 提倡基于人类福祉而研发与利用

无论是《新一代人工智能治理原则》,还是《新一代人工智能伦理规范》(2021),都指出人工智能的研发是为了增加人类福祉。《关于加强科技伦理治理的意见》(2022)中,第一条伦理原则就是“增进人类福祉”[13]。《人工智能道德风险的防控与治理》一书一直秉持这一思想。该书指出,加强人工智能道德风险的防控和治理是一项系统工程,涉及研发、制造、使用等各个环节,应从伦理规约、制度建设、文化培育等维度着手,多管齐下。在科技研发环节,重在完善人工智能从业机构与伦理道德研究、教育、监督机构之间的长期沟通交流机制,不断提高科技从业人员的伦理道德水平,引导研发人员增强风险防控意识,完善人工智能伦理审查机制,建立有效监管体系。在研发初始环节,应预测和评估人工智能产品可能引发的道德风险,并将人类社会的伦理规范和道德要求植入人工智能体体内,使其成为有限道德能动者,从设计源头进行防控;同时完善多主体道德责任制度,尤其重视前瞻性道德责任制度,以实现预防原则的约束作用。在应用环节,同样需要绷紧伦理道德风险防控这根弦,应构建“负责任创新”框架,寻求风险的最大化规避,完善和普及与人工智能相关的法律法规,引导社会公众以正确的价值观念看待和运用人工智能技术,并推动全社会共同参与人工智能伦理治理;要防止人工智能被非法利用进而危害社会,确保科技研发活动始终在伦理道德的轨道上平稳运行。这些措施与制度都是从人类利益和福祉出发的,作者从始至终都坚持着人类中心主义立场与态度。

在这个因人工智能技术带来巨大经济效益和社会进步动力的时代,我们应正确分析和理性看待人工智能所带来的道德风险问题,全面认识技术的两面性,通过实践与理论的结合,采取各种手段和方法进行风险的防控和治理,趋利避害,让人工智能积极 “向善”,从而实现它的安全与可控。这对人类社会的发展、文明的进步以及个人幸福指数的提升都有着重要而实际的意义。归根结底,我们的理论或应用研究,应服务于人类的权益和福祉。如果人类本身都受到了威胁,不能生存,谈论人工智能的福祉没有任何现实意义。

正如迈克斯·泰格马克在《生命3.0:人工智能时代人类的进化与重生》中所说,随着人工智能自主性的增强,极好的可能性和巨大的风险同时存在[14]XXXIII。因此,基于人类中心主义立场,对人工智能导致的道德风险的防治便意味着:在时间上,要求我们不仅对当下利益负责,更要对未来影响负责,并强调对人类整体负责;在空间上,要求我们不但对人负责,还要对人工智能负责;在责任主体方面,不仅对现在的人类负责,更要对未来的人类负责。

五 结语

随着土地伦理理论、动物权利理论等的相继出现,非人类中心主义理论越来越受到学者们的重视,但人类社会其实并不存在一种真正意义上的非人类主义理论。首先,我们无法真正站在人工智能体的立场去思考和行为,“子非鱼,焉知鱼之乐”。斯克鲁顿反对非人类中心主义,认为一个合理的动物伦理观应该建立在以人类为中心的等级制上[15]109。其次,非人类中心主义在某种意义上就是人类中心主义,它们殊途同归,最终仍是为了人类的福祉和利益。避免伤害自然的唯一理由是为了避免伤害人类自身[16]4。利奥波德的土地伦理,也是基于这样一种考虑:如果我们破坏了生态系统,也就破坏了人类赖以生存的环境和系统;要实现人和自然的和谐共存,就应该确认植物、动物、水和土壤在一种自然状态中持续存在的权利[8]。这其实仍然是以人类为中心的一种考虑。正如人与人之间的关系,如果一个个体过于注重自身利益而完全无视甚至损害他人的利益,他自身的个体利益最后可能也无法保证。

另外,非人类中心主义理论也有着自身的困境。利奥波德的土地伦理美誉度很高,被认为“开创了生态整体主义以及非人类中心主义环境伦理学”[17],但在“义务论方面,它没有将人类价值放于优先位置,导致当出现多种义务时难于抉择的困境”[17]。或许我们要尽力打破人类中心主义与非人类中心主义之间的二元对立,为实现全人类长期福祉的最大化的政策提供强有力的伦理辩护。基于此,彼得·温茨(Peter Wenz)提出了环境协同论,认为从长远角度看,非人类中心主义和多元人类中心主义的思考是相互强化的[18],主张我们应该把人类中心主义和非人类中心主义视为协同论的两个方面。而站在协同治理的视角看,人类中心主义和非人类中心主义可以是伦理治理(“一体”)中的“两面”。如果我们拥有一个适当的精致人类中心主义,那么在实践中人类中心主义与非人类中心主义将走向趋同[19]。

猜你喜欢

中心主义道德风险福祉
福祉与福祉学的基本理念与宗旨
如何理解福祉与福祉学及其实践
环境哲学视域下的人类中心主义辨析
试论人类中心主义与非人类中心主义之争
新常态下优化以家庭需求为中心的组织功能探索
西方中心主义遮蔽西方之乱
中国僵尸企业现象的经济学分析
股票市场对上市公司道德风险的反应研究
我国医疗保险中的医疗道德风险问题研究
An Eco—critical Interpretation of the Conflicts in the Poem “Snake”