智能机器人的伦理困境
2021-03-28赵欣
赵欣
摘 要:智能机器人在给人类生活带来日新月异变化的同时,给人类带来新的伦理挑战。智能机器人智能性的提高,促使人类在与其互动中更深刻地思考人的本质。智能机器人替代部分人类社会角色从事繁重危险的工作,解放劳动力的同时也引发人们对智能机器人的警惕和担忧。脑-机接口、人机交互技术使人机关系从对立走向融合。智能机器人与人在技术实践中构成共同的道德行动者,但目前,智能机器人仍然是弱人工智能,无法独立承担道德责任,不能成为和人类同等地位的道德主体,破解智能机器人的伦理困境,需要建立人-机责任共同体。
关键词:智能机器人;机器伦理;道德能动者
“人工智能”一词最初在1956年达特默斯学会上提出,这次会议被看作是人工智能诞生的标志。人类在进入计算机时代后,计算机技术的飞速发展为机器模拟人的某种思维和行为提供了必要的技术支撑,使人工智能的实现成为可能。人类希望能够用计算机构造出复杂的、达到同等甚至超越人类智慧的机器。如今人工智能融合计算机科学、认知科学、哲学以及其他自然学科,在相互融合、相互渗透的基础上,逐渐发展为新型的综合性研究领域。智能机器人是人工智能的应用领域之一。近年来,教育机器人、保姆机器人、军用机器人、超声机器人等在使用中的突出表现不断刷新着人们对人工智能的认知和期待。但是,在享受智能科技给生活带来日新月异的变化的同时,由此引发的伦理道德问题也给人类带来了困扰。
一、“智能机器人”的概念
人工智能的本质是对人的意识、思维的信息过程的模拟。约翰·塞尔最早将人工智能划分为弱人工智能与强人工智能。弱人工智能认为人工智能模拟人类心灵的价值原则是为我们提供一个强有力的工具。而强人工智能则认为计算机在能够给出合适的程序的意义上,可以被理解为拥有其他种类的认知状态,应该被视为一个心灵[1]。塞尔的区分得到很多人的支持。弱人工智能是擅长特定单方面的智能,没有完全自主性,服从于人的某种需要,并不真正拥有智能。强人工智能拥有和人类同等的心灵理解力,具备心灵的人工智能能够产生自我意识,具有意向性,独立思考问题,进行自主抉择,承担行为责任。强人工智能具有道德主体地位。强人工智能的进阶是超级人工智能。牛津大学未来人类研究院主任Nick Bostrom把超级人工智能定义为在几乎所有领域都比最聪明人类的大脑聪明很多。超级人工智能在各个方面强于人类,是超越人类的智能。雷·库兹韦尔在《奇点临近》中认为“该技术性特异点将会在2045年这个不远的将来出现,人工智能跨过‘奇点,计算和思维能力将远超人脑。”
捷克剧作家Karl Capek在戏剧作品中创造了robot这个名词。这个词源于捷克语的robota,意思是“劳役、苦工”。国际标准化组织将机器人定义为一种自动的、位置可控的、具有编程能力的多功能操作机,这种操作机具有几个轴,能够借助可编程操作来处理各种材料、零件、工具和专用装置,以执行各种任务[2]。机器人是人造的机器,根据智能性程度一般分为简单机器人和智能机器人。简单机器人多用于工业中,比如,工厂生产流水线上的机械臂、汽车制造过程中运用的喷漆机器人和搬运机器人,以及适应电商的迅速发展出现的仓储物流机器人等。它通过简单的计算机编程,依靠人类的指令,在特定的工作领域完成重复性动作。智能是智力和能力的总称,核心是思维,智能机器人的中央处理器嵌入人工智能程序,相当于人类发达的大脑,能够自主判断和决策,是人工智能在真实世界中应用的载体。
二、作为道德能动者的智能机器人
1998年荷兰学派创始人彼得·克洛斯和安东尼·梅耶斯提出“技术哲学的经验转向”,把经验转向作为荷兰技术哲学研究的立派范式,也促逼着技术哲学研究转换到经验语境中[3]。所谓技术哲学的经验转向是指与经典技术哲学主要关注技术作为整体现象的“条件”不同——与之相伴随的是“技术决定社会”“技术支配或将统治人类社会”的恐慌——当代技术哲学则更加关注具体的技术如何影响人类生活本身,技术如何通过“物质性”的手段或方式对人类的行动和体验进行塑形。技术哲学的经验转向实质上开辟了技术与伦理相结合的研究方式。技术观的变化反映了不同历史时期人对技术实践的认识和反思。人类纪元的开端伴随着技术的出现,它体现了人类从被动适应环境到主动征服自然的转变。经典技术哲学或者把技术看作实现人的目的的工具,认为技术本身不负载道德意义和道德价值,只是人类用来达到特定目的的工具,技术本身无善恶而言,因人的不同使用而造成善恶结果。工业革命后,人类饱尝技术发展给环境生态带来的恶果,片面夸大技术的自主性,对技术持悲观主义态度,认为人被技术所奴役。技术建构论看到了技术工具论和实体论的缺陷,提出技术与社会之间是互相建构,互相影响的。20世纪末,技术哲学的经验转向关注技术本身,在实践中理解技术,使人与技术之间形成经验上的动态互动机制。传统伦理学建立在人本主义的基础之上,伦理学被看作是人类的专属领域,独立的个体的人占据着伦理反思的核心地位。但是随着经济和社会的发展,人类技术不断地攀登一个又一个高峰,技术人工物不仅种类越来越多,其智能性也越来越高。技术已经开始以各种各样的方式调节人类的实践和体验,影响我们对外在世界的感知和行为方式,構建着道德选择的环境。伦理学已经不再完全只是关乎于人类,技术的发展呼吁与之相适的伦理学的出现。伦理学问题只发生在如何使用知识时,科学研究引起的伦理学问题实质上是伦理学本身不发达。重建理性化的伦理学,当纳入不了时应该修改理论体系,而不是削足适履,拒绝现实[4]。
实际上,自机器人诞生之初,学者们就围绕着机器人的伦理展开广泛讨论。图灵认为测试者同时向一台计算机和一个人提出问题,如果测试者从得到的答案中不能区分计算机和人,那么该机器就可以被看作是可以思维的(从而具有心灵和自由意志)。德雷福斯认为人类推理依赖于本能与直觉,智能机器依赖于算法与程序,算法和程序是人类的编程,智能机器不可能具有人类一样的道德主体地位。道德的前提是自由意志,如果将道德赋予技术物,那么技术物就必须具备两个必要条件:即形成意向的能力以及实现意向的自由。意向性即心智指向某物,是理解人与世界关系的核心概念。人与世界之间存在着密不可分的关联,人的一切活动总是指向某物。在技术实践中,人的意向性总是指向技术人工物,通过技术人工物得以实现,又或是在技术人工物的背景下得以形成。同时,被意向性指向的人工物反过来影响人的意向性。减速带提醒驾驶员要减速,摄像头能够震慑到犯罪分子。因此,意向性并非人类独有,技术人工物拥有“非人”部分的意向性。道德决定和行动是人与技术人工物共同努力的结果。维贝克认为技术意向性是在人与非人的关联中产生的,是一种“杂交意向性”或者“复合意向性”。在理解技术与自由的关系上,维贝克从自由作为道德活动必要条件的现实性入手,认为对于一个能应对行动的主体来说,拥有自由的某些度就够了,无论是人还是非人,绝对的自由都是不可能的。维贝克将自由理解为行动者与外在影响因素建立起联系的能力,处于人—技术的关联中,从而将技术物纳入自由的维度中[5]。人类活动的自由也是有限度的,总是受到各种内外因素的制约。人类设计智能机器人的编程代码和运算规则,使机器人在算法框架内运行,但是智能机器人在面对复杂状况时,能够在多种可能性中选择执行,每一种可能性的选择与周围环境和人之间形成的互动联结都会有所不同。智能机器人的程序是预先设定的,但是机器人的行为选择与外在因素之间的关联可能性结果是不确定的、变动的。尽管有程序的预先设定,智能机器人在行为中总是会出现各种偏差,偏离对智能机器人的运行初衷,这与人类行为的不合目的性和多样性基本一致。机器人的自主性与人类的自主性在可能性上是等量齐观的[6]。另一方面,大数据、人工神经网络、深度学习等智能技术使智能机器人不断重新组织已有知识结构和信息,改善自身性能,在信息不足的情况下做出预测推理,人类对机器人知识能到达的峰值尚未可知,对智能机器人可能的行为发生也不完全可控。
拥有意向性和自由的技术人工物在技术实践中与人构成共同的道德能动者,拉图尔在行动者网络中认为,道德行动者以多种方式相互交互,行动者既可能是人,也可能是非人。但是智能机器人不具备和人类同等的道德主体地位。布瑞提出作为道德主体应该符合三个基本特征:“有能力根据对错进行推理、判断和行动;对自己的行为应当遵守道德规范;对自己的行为及后果负责。”[7]智能机器人以道德能动者身份参与到人类伦理体系中,使机器人与人之间互相界定,影响人类道德判断,构建人类道德决策环境,调节人类道德实践。但是,就智能机器人的目前发展水平而言,智能机器人仍然处于弱人工智能水平,虽然具有一定程度的意向性和一定限度的自由,但是不能对自己的行为负责,不能承担道德责任的主体不能成为完全的道德主体。
三、智能机器人带来的伦理风险
智能机器人发展不断冲击“人”的概念。法国唯物主义的自然主义人性论者认为人的本质就在于人自身,即人的自然本性。拉美特里宣称人是机器。近代资产阶级理性主义认为人的本质是理性,而理性也就是自由。康德认为,人只有不受感觉世界的支配,服从自己理性发出的“绝对命令”,才是一个自己主宰自己的真正意义上的人。马克思的实践的唯物主义立足于现实的人和现实的人类社会,表明了人的本质的两个方面,一是“劳动创造了人本身”,一是人的本质“在其现实性上,它是一切社会关系的总和”[8]。人在本质上是自然属性和社会属性上的统一。从自然维度上来说,人的自然属性是人的生物学特性,人具有称之为“人”的外部形态特征、内部机体构成、思维意识形态以与其他物种区分。在社会维度上,人与人之间在实践过程中产生出各种关系,在社会性交往中互相规定,形成“人之为人”的伦理纲常规范。技术上的成熟使智能机器人与人之间外在上的相似度越来越接近,甚至于高度仿真的类人机器人使人陷入“恐怖谷”理论,人的自然外表特征不再为人类所独有。此外,完整健全的人拥有头部、躯体、四肢,而因为各种原因导致肢体残缺者也称为“残疾人”。随着智能科技的发展,人工假肢、人工内脏器官应用在临床医学,接受人工器官移植的人不再是传统生物学意义上纯粹的“自然人”,人与智能技术物相结合,成为“赛博格人”。如果科技足够发达,人的全身器官都可以替换,那么,人和智能机器人之间区分的界限在哪里?界限的模糊难免使人陷入“忒修斯之船”悖论。此外,在社会实践中,人与智能机器人之间形成了各种各样的关系,如伴侣、宠物等。机器人智能性的提高,不断挑战人类的尊严,使人类更深刻地反思自己的主体地位,思考人的本质。
智能机器人对社会角色的替代引起伦理争论。智能机器人在实践中的应用产生正负两方面的效应。智能机器人把人从繁劳的工作中解放出来,剩余劳动时间增多,从而寻求人的自由全面发展。智能机器人也用于代替人从事危险指数高的工作,比如扫雷机器人、勘察机器人、军事机器人等。在新冠肺炎疫情中,医院借助5G网络,利用超声机器人为新型冠状病毒感染的肺炎疑似患者开出远程超声诊断书;一批战疫机器人在防疫一线24小时工作;使用消毒机器人杀灭病菌;利用送餐机器人为病人服务等。智能机器人在新冠肺炎疫情的防控工作中大放异彩,在压缩人力资源成本的同时,降低了医院的交叉感染率,守护医生和病人的生命。此外,智能机器人具有补位社会角色的作用,例如养老机器人替代子女看护老人,监测老人健康状况,即使子女不在身旁,老人也可以得到照顾;治疗精神病患者的陪伴机器人可以替代人不厌其烦地与其进行沟通,帮助进行康复治疗;学习机器人能够在家长繁忙或者能力有限时辅导孩子学习。但是,智能机器人对部分人力的替代引发失业恐慌,尤其是低端体力劳动的从业者,这部分人本身社会技能欠缺,跟不上智能技术的步伐,会被淘汰在科技洪流外,增加社会负担。另一方面,智能机器人依靠内外部传感器检测自身状态感知外部世界,通过感知和思维,规划和确定任务。内部计算编程偏失、外部环境的多样性以及复杂性导致智能机器人在替代人进行活动过程中因判断误差导致不良后果,后果的责任划分难以厘清。智能机器人对社会角色的补位也会淡化人的责任意识。如护理机器人进入家庭代替或帮助子女为父母养老,解决了未来社会养老问题。然而,护理机器人补位子女养老会导致孝养关系疏离化、孝道降阶化等伦理风险[9]。
智能机器人的发展诱发对人-机关系的思考。一般机器是受控于人类,实现人类目的的工具性技术物。智能机器人不同于其他技术物。首先,智能机器人是对人类本体的模拟,具有人类的基本特征,如外观、动作、语言等,人往往对类人机器人有特殊的情感。智能机器人以“类人”角色进入人类世界,人不止把机器人当作工具,机器人也是人类的伙伴。人对普通机器的人为损毁习以为常,但是智能机器人的肢体破坏却让大部分人极为不适,人对智能机器人的特殊道德情感,导致在处理问题时会有情感偏袒。其次,智能机器人的综合性能远超人类,得益于智能技术的发展,智能机器人的自主性越来越高,人类担心机器人某天会反过来控制人类。2014年Elon Musk在麻省理工学院的一场公开访谈上提出“研究人工智能就像召唤恶魔一样”。霍金也曾提出人工智能威胁论。假如“不受控”机器人出现,使得自然人不是以主体对待客体的方式,而是以主体对待主体的方式对待机器人,也就是说,自然人和机器人之间的关系不是主客体关系,而是主体间关系,不是人机关系,而是跨人际主体间的关系[10]。此外,“脑-机接口”技术打通人脑智能与机器智能之间的联结,实现人工智能植入人脑,人脑与智能机器之间交互连接构成新型生物人工智能網络。人与机器人的关系从人机分离的隔离状态发展到人机协作的混合环境。智能机器人的开发和应用带来的一系列伦理风险呼吁建立与之相适应的机器人伦理,规范和引导智能机器人发展。
四、构建人-机责任共同体
就目前发展水平而言,智能机器人仍然处于弱人工智能水平,不能独立承担道德责任,需要建立人-机责任共同体,使智能机器人与人在技术实践上始终处于动态互动中,共同承担道德责任。在设计阶段,专注于特定类型的智能机器人设计,把所有利益相关者的利益和相关涉的伦理问题都暴露出来,进行充分讨论分析,把技术实践与人文关怀充分结合,制造出合乎社会道德规范的智能机器人。在使用过程中,设计者、生产者与用户之间有效协调,对智能机器人的行为及时调整,政府充当监督者角色,使智能机器人在合乎伦理的框架内行动。不能成为道德主体的智能机器人在法律上也不具有主体地位,智能机器人只能承担部分道德责任,责任后果需要在设计者、生产者、用户之间进行权责划分。欧盟议会提出赋予人工智能“电子人”的法律主体地位,由人工智能对其造成的损害直接承担责任[11]。弱人工智能是无法独立承担道德责任的,我们期待人工智能的进一步发展,使强人工智能成为独立的道德主体。
参考文献:
[1][日]松尾丰.人工智能狂潮:机器人会超越人类吗? [M].赵函宏,高华彬,译.北京: 机械工业出版社,2011:1.
[2]苑亚钦.云计算概念及发展历程[J].科技信息,2011(20):229.
[3]刘宝杰.试论技术哲学的荷兰学派[J].科学技术哲学研究,2012,29(4):64-68.
[4]赵南元.认知科学解密 [M].北京:清华大学出版社,2002:5.
[5]彼得·保罗·维贝克. 将技术道德化——理解与设计物的道德[M].上海:上海交通大学出版社,2016.
[6]张正清,黄晓伟.作为“他者”而承担道德责任的智能机器——一种人工智能成为道德能动者的可能性[J].道德与文明,2018(4):26-33.
[7]闫坤如.人工智能机器具有道德主体地位吗?[J].自然辩证法研究,2019,35(5):47-51.
[8]邓晓芒,赵林.西方哲学史 [M].北京:高等教育出版社,2005:4.
[9]王健,林津如.护理机器人补位子女养老的伦理风险及其防范[J].道德与文明,2019(3):131-137.
[10]程广云.从人机关系到跨人际主体间关系——人工智能的定义和策略[J].自然辩证法通讯,2019,41(1):9-14.
[11]吴高臣.人工智能法律主体资格研究[J].自然辩证法通讯,2020,42(6):20-26.