人工智能的道德风险及其规避路径
2018-04-03闫坤如
闫坤如
(华南理工大学 马克思主义学院,广东 广州 510640)
人工智能经过半个多世纪的发展,取得了众多的理论和实践成果。1997年,IBM的“深蓝”计算机成功击败世界围棋冠军卡斯帕罗夫,2016年,阿尔法狗(AlphaGo)战胜韩国职业围棋名将李世石,2017年又战胜世界职业围棋第一人柯洁。2009年,谷歌启动无人驾驶汽车项目,各国纷纷开展无人驾驶汽车研究。人工智能产品突破实验室壁垒,纷纷走入寻常百姓家,人工智能的社会效应越来越明显,促进了社会进步和人类发展。除了人工智能的这些正面效应外,人工智能的负面效应也越来越明显。虽然人工智能还处于发展的初期,但是已经引发新的伦理思考,比如,人工智能产品可能引发信息安全风险,可能影响社会的稳定和社会公平,等等。本文通过梳理人工智能的发展历程,挖掘人工智能可能引发的道德风险,从伦理学层面寻找规避人工智能发展引发道德风险的解决路径。
一、人工智能及其发展嬗变
1956年,人工智能(Artificial Intelligence)的先驱明斯基(Marvin Minsky)、麦卡锡(John Mccarthy)、西蒙(Herbert Simon)和纽厄尔(Allen Newell)等人在美国达特茅斯召开“达特茅斯专题研讨会”(Dartmouth Conference) ,宣告了人工智能的产生。
人工智能的具体含义众说纷纭,麻省理工学院的温斯顿(Patrick H. Winston)教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”[1](P1-11)美国斯坦福大学的尼尔森(Nils J. Nilsson)把人工智能界定为关于知识的获取和运用的活动,“人工智能是关于知识的科学,是知识的表示、知识的获取以及知识的运用”。[2](P1)人工智能是通过计算机的方式来模拟人的思维,从而完成只有人类才能完成的智能工作。技术性内容包括机器学习、自然语言处理、图像识别以及人机交互等方面。人工智能的外延范围非常广泛,包括智能机器人、无人驾驶汽车、机器翻译、虚拟现实,等等。
人工智能在一定程度上延伸了人类大脑的功能,以追求实现人脑劳动的信息化。人工智能一般可以分为弱人工智能(Artificial Narrow Intelligence)和强人工智能(Artificial General Intelligence),有人从强人工智能中划分出超人工智能(Artificial Super Intelligence)。弱人工智能指的是通过预先设计好的具体的、严格的程序来模拟生命体的思维运行和基本判断,从而表现出一定的智能行为。弱人工智能本身并没有自主意识,更不能主动地学习,是完全根据人类的命令做出相应的反应。强人工智能则是具有意识并且能够思考的机器,“带有正确程序的计算机确实可以被认为具有理解和其他认知状态,在这个意义上,恰当的编程计算机就是一个心灵”。[3](P83)
人工智能经过半个多世纪的发展,取得了众多的理论和实践成果,人工智能产品也不断地从实验室走入我们的日常生活。在日常生活中,人工智能产品的应用主要可以分为硬件领域的运用和软件领域的运用。在硬件领域,主要包括最新型的电子计算机、智能机器人、无人机、智能感应穿戴设备、新型CT扫描仪和肿瘤诊断系统,等等,而在软件领域的运用则是以语音助手、智能面部识别等代表的广泛领域。
人工智能自成立以来经历了三次重大的跨越式发展过程:第一次跨越式发展是实现了问题求解,实现了基本的逻辑推理功能,主要关注机器翻译和数学理论、定理的证明、博弈等。在这一阶段,纽厄尔和西蒙等人在理论和定理证明工作中取得了重大突破,开辟了计算机程序对人类思维模拟的发展道路。这些重大的突破和进展,一度使众多的科研工作者认为计算机技术很快就能够对人类的思维方式进行模拟,并掌握人类思维的规律。第二次跨越式发展是实现了能与外部环境进行自动交互的专家系统,人工智能可以从陌生的环境中获取有用信息从而进行自主推理工作,并反映在实践中去主动地影响环境,如爆破机器人等。由于理论探索和计算机发展的高度紧密结合,人工智能在此阶段开辟了在商业领域运用的新天地,人工智能产品在这个阶段开始走出实验室,走向市场。第三次跨越式发展是追求机品类人的思维和认知能力。人工智能研发领域取得了一系列科研成果,如机器学习算法、机器翻译、无人驾驶汽车、智能机器人,等等。进入21世纪,人工智能技术发展的深度和广度不断加深和扩大,各行业和各领域的发展都可能与人工智能相关,这表明人工智能拥有技术突破的无限可能,更体现出人工智能巨大的市场需求。
经过半个多世纪的发展,人工智能在工程、教育、国防、医学、生物学、哲学等领域均取得了显著成果。人工智能在社会发展和人类生活中发挥着越来越重要的作用。人工智能已成为继哥白尼革命、达尔文革命、神经科学革命之后重大的革命性实践。卢西亚诺·弗洛里迪(Luciano Floridi)在其著作《第四次革命——人工智能如何重塑人类现实》中,直接把“人工智能革命”称为“第四次革命”。[4](P5)从科学技术对人类影响而言,人工智能业已成为继蒸汽机发明、电力应用、计算机应用之后的第四次科技革命,人工智能的社会效应越来越明显。从宏观和社会层面上来说,人工智能能够提高国家的综合国力和竞争实力,促进国家和区域各产业比例的合理调整,可以持续产生新的创业方向和形成新的商业运行模式,有助于创造更多的工作岗位。人工智能的作用从微观层面来讲,提高了人类的生活质量,使人们的生活更加方便快捷。
人工智能的研究涵盖多个学科,它是包括信息技术、仿生学、控制论、神经生理学、心理学、哲学、语言学、计算机科学、数学等众多学科而建立起来的新的综合集群性学科。根据研究的维度和视角,我们可以把人工智能的研究分为三种进路:联结主义(connectionism)、符号主义(symbolicism)和行为主义(actionism)。联结主义来源于仿生学,把人工智能当作对人脑模型的研究,认为神经元是人类智能的基本构成和传递单元,神经元具有复杂的结构,并不是通过简单的符号就可以模拟的。联结主义开始于MP模型。1943年,生理学家麦卡洛克(Warren McCulloch)和数理逻辑学家皮茨(Walter Pitts)创立了脑模型,即MP模型,用电子装置模仿人脑结构和功能。1986年,鲁梅尔哈特(David Everett Rumelhart)等人提出多层网络中的反向传播(BP)算法。联结主义进路从模型到算法的发展历程实现了联结主义人工智能产品的工程化和市场化。联结主义指出,人工智能的重要来源是人类大脑本身,核心议题是对人脑模型深入研究,联结主义人工智能的研究进路采取结构模拟的思路;符号主义学派主要依靠计算机逻辑符号来模拟人的认知过程,把人工智能的理论来源归结为数理逻辑,其代表是专家系统的开发和应用,采取功能模拟的思路,其主要代表人物为麦卡锡、西蒙、纽厄尔和明斯基等人;行为主义认为人工智能来源于控制论(Control Theory),人工智能的研究特点在于,人工智能的技术产品根据搜集的外部数据调整自己的行为以主动适应外部环境,而不是依赖人类的算法和预先设定的程序对外界做出反应,行为主义学派专注于智能控制与智能机器人系统,采取的是行为模拟的思路,其人工智能机器具有具身性(embody),环境介入到认知过程中,其代表人物是六足行走机器人的研发者布鲁克斯(R. A. Brooks)。
二、人工智能引发的道德风险分析
人工智能在理论和实践中不断取得新的突破使之成为21世纪最有前景的新兴技术之一,但是一些人工智能的产品在实际应用过程中却造成了许多意想不到的后果,带来了许多挑战。人工智能推动了社会进步和人类发展,在自动驾驶、语音识别、Pokémon Go等方面取得了重大突破,但是也存在一些失败案例。路易斯维尔大学网络安全实验室的罗曼(Roman Yampolskiy)教授发表的《人工智能和网络安全:人工智能的失败》[5]列举出发生在2016年的10项重大的人工智能失败案例。比如,特斯拉自动驾驶汽车造成人员伤亡、机器人伤人事件、保险公司利用脸书数据预测事故发生率涉嫌存在偏见,等等。这些失败案例可以归结为人工智能系统在学习阶段的错误,也可以归结为人工智能技术的不确定性所带来的道德风险。人工智能技术的不确定性可以理解为人工智能技术后果的难以预见性以及难以量化评估性。人工智能的道德风险还可能是由于人类的有限理性所致。科学技术的发展水平与人类历史阶段的生产力水平紧密相关,人工智能产品不能违背自然界规律,F·拉普(F. Lapp)认为:“人类所创造的和未来要创造的一切技术都必然是与自然法则相一致的。”[6](P102)随着生产力的进一步发展,人工智能科技会快速发展,但是人类自身的认知能力在特定的历史条件和阶段总是受到限制的,这也是人类认知历史发展的客观规律之一,人类理性的有限性表现为人类对人工智能产品道德风险认知的滞后性。人工智能产品除了符合自然规律这个物理性之外,还具有意向性。人工智能产品也会体现人类的意志和愿望。随着技术的发展,技术改变社会的作用增强,技术的发展可能会远离人类的最初目的和控制。“它不仅影响了我国公民之间、公民与国家之间的法律关系,还给国家治理、政治生态以及社会稳定等宏观法治秩序带来了安全风险。”[7]正确而全面地认识人工智能的潜在道德风险并合理地对道德风险进行规避显得十分必要。著名物理学家霍金(Stephen William Hawking)、美国太空探索技术公司创始人马斯克(Elon Musk)以及微软首席执行官比尔·盖茨(Bill Gates)等人都考虑到人工智能的道德风险,呼吁对人工智能开发、使用采取审慎的态度。
1.人工智能发展引发智能机器的道德主体地位的思考
人工智能离不开算法,算法是人类输入的数据,算法出现问题究竟由谁来负责呢?机器以及算法是否具备成为主体的条件和资格呢?人工智能能否具有道德主体地位呢?这是一个元伦理学问题,涉及对于道德主体地位的溯源,还涉及人类的道德推理能力是先天赋予的还是后天学习的结果的讨论。根据人工智能的现有发展速度和规模,人工智能或许在未来能够发展出具有自我意识的智能产品,这些人类制造出来的智能机器是否也该被赋予与人类同等的权利和地位呢?当这些高智能产品也具备了与人类高度相似的感知能力、情感水平的时候,是否会威胁到人类的自身利益呢?如果人工智能产品出现了伤害人类的情况,或者以造成人类伤亡为目的的人工智能产品出现,责任主体是人还是机器呢?美国警方曾经出动杀人机器人击毙犯罪嫌疑人,机器人是否有权剥夺人类生命呢?人工智能该有怎样的道德地位、能有怎样的道德地位呢?当人工智能机器人能够具有自我意识甚至能够模仿人的感情以后,机器是否有自制能力呢?上述问题涉及对人工智能产品的主体地位的思考,这些都是随着人工智能的发展而引发伦理问题。
2.人工智能发展引发新伦理问题
人工智能正在以更快的发展速度和水平融入人类社会的方方面面,甚至可以说半个多世纪的人工智能发展远远超过过去几百年的科技发展水平,人工智能是否带来了新的伦理问题呢?人工智能产品给人类造成的伤亡如何归责、追责呢?人工智能一旦获得同人类相近的思维能力和推理能力,如何界定人工智能与人类的道德地位将面临道德伦理挑战;人工智能的高效率和低失误率在司法审判领域的使用,会给传统司法审判带来巨大的法律伦理挑战;人工智能手术机器人将给医疗卫生领域带来医疗伦理挑战;当一个质量有保证的机器人可以为人类服务十数年,甚至服务人类祖孙三代的时候,人工智能的代际伦理又成为新的伦理问题。面对如此多的伦理挑战,我们将如何发展或者改进现有的伦理理论体系,使之更好地适应人工智能的发展,既要人工智能更好地服务于人类,又要限制其负面效应,这是人工智能发展面临的巨大挑战。人工智能的责任问题是现代社会不可回避的重要议题,因为没有一个算法和程序永远是完美无缺的。那么,通过人工智能以及新技术的发展是否会消解原来的伦理问题呢?新技术能否成为解决新的伦理问题的手段呢?这也是值得思考的一个问题。
3.人工智能引发新的社会安全和公平正义问题
人工智能的发展带来信息安全风险。人工智能产品在很多领域已经与人类形成了服务和被服务的关系,如手机语音助手、机动车的轨道偏离纠正,等等,当这些人工智能产品和人类进行交互时,如何保证使用者的信息安全,或者说使用者的信息一旦被上传到远程终端以后,又将如何保证信息安全这是一个伦理问题。
人工智能产品运用带来的人类健康、生命安全风险。自1979年美国汽车工厂发生首起机器人伤害事件以来,2015年谷歌研发的无人驾驶汽车伤人事件,2016年特斯拉自动驾驶汽车车祸,世界上每天都有机器伤害人事件发生。如果是人工智能设计时的算法输入导致这样的问题出现的,那么如何确保人工智能产品的安全运用,保障人类健康、生命安全,也会成为一个伦理问题。
人工智能可能导致工人失业、影响社会公平正义。人工智能机器人工作效率高、出错率低,维护成本少,能够保证工作的连续性。机器翻译可能取代人工翻译、机器人可能取代工人劳动,人工智能在各领域的运用会对社会稳定造成冲击。其中比较突出的是对人类就业的冲击,许多人的工作安全和稳定会直接受到人工智能发展的影响,特别是不需要专业技术与专业能力的工作,导致劳动者失业和未就业人口总量提高,这些都不利于社会的稳定和安全。当有足够多的无业人口时,甚至有引发社会动荡、局部战争的风险。人工智能发展也存在一些影响社会公正的情况。例如,Northpointe 公司开发的预测罪犯二次犯罪几率的人工智能系统的算法,因为黑人的概率远远高于其他人种而被指带有种族偏见倾向。上海交通大学利用唇曲率、眼内角距以及口鼻角度等的面部识别系统可以预测某些人具有犯罪倾向,但被质疑存在偏见。在首届2016年“国际人工智能选美大赛”上,基于“能准确评估人类审美与健康标准”的算法的机器人专家组对人类面部进行评判,由于未对人工智能提供多样的训练集,比赛的获胜者都是白人,机器人审美也存在人种歧视的现象。Pokémon Go 游戏发布后,因为算法发明者没有花费时间在黑人社区上,Pokémon多出现在白人社区,只有极少的 Pokémon 位于黑人社区,这涉嫌对黑人的歧视,涉及社会公正问题。社会公正是和谐社会的本质和基石,因为算法输入者或者人工智能设计者的问题导致一些新的社会伦理问题出现。人工智能导致的失业问题、公平公正问题,都可能带来新的社会伦理挑战,需要制定适应人工智能技术的法律和法规,需要对人工智能引发的新伦理问题进行反思。
三、人工智能道德风险的伦理规避路径
人工智能的社会影响越来越大,我们从来不否认人工智能的作用,但人工智能的发展已经导致一些伦理问题出现,并且可能引发新的伦理问题,人工智能作为一种新的技术,也会因为新技术的不确定性潜藏着道德风险。因此,必须对人工智能的道德风险进行规约,才能保障人工智能的顺利发展。
1.规避人工智能道德风险需要“道德嵌入”
美国技术哲学家唐·伊德(Don Idle)提出技术中介理论(technological mediation),他把技术作为人与世界的中介。伊德认为,人与技术、世界的关系,也就是说“人-技术-世界”的关系结构可以分为以下四种:人与技术的具身关系(embodiment relations)、诠释学关系(hermeneutic relations)、他者关系(alterity relations)和背景关系(background relations)。四种技术情境下的人、技术与世界的互动关系图式,分别是:
具身关系:(人-技术)→世界
诠释学关系:人→(技术-世界)
它者关系:人→技术-(-世界)
背景关系:人(-技术/世界)[8](P72-112)
第一种“人-技术-世界”的关系结构是具身关系,指的是技术与人融为一体, 比如,为了看得更清晰的近视眼镜就属于具身关系的存在,一旦人习惯了眼镜的存在,人就与眼镜融为一体,人往往忽略眼镜的存在,人与技术人工物形成一个整体来经验世界。这时,技术具备知觉的透明性(perception transparency)。第二种“人-技术-世界”的关系结构是诠释学关系,比如温度计,人只要能够读懂温度计上的数字就能经验世界,无须亲自感知室外温度。温度计上的数字就是外部世界的诠释学表征。第三种“人-技术-世界”的关系结构是他者关系。技术不是无意向性的对象,是仅次于他者的准他者(quasi-other),作为准他者的技术是一种中性的技术实体,准他者技术作为世界的一部分与人类交互,像计算机、自动机就属于交互的技术。伊德把“人-技术-世界”的具身关系、诠释学关系和他者关系中的技术称作前景(foreground)中的技术,相对于前景技术而言,他把“人-技术-世界”的第四种关系结构称为“背景关系”。如空调属于伊德的背景关系,人在空调环境中很少感知到空调的存在,空调作为背景而存在,一旦空调停止运转,人才能感知到空调的存在。
随着人工智能的发展,“人-技术-世界”的关系结构发生了改变,比如增强现实(augmented reality,简称AR)技术就突破了伊德传统意义上的“人-技术-世界”的关系结构。不管是具身关系、诠释学关系、他者关系还是背景关系,都不能准确地刻画技术在人与世界中的地位和作用。荷兰后现象学技术哲学家维贝克(Peter Paul verbeek)提出“人-技术-世界”的赛博格关系(cyborg relation)和复合关系(composite relation)。赛博格关系表现为人与技术融合(merge)而非互动(interact),如帮助人们缓解情绪的抗抑郁药品、人工瓣膜和心脏起搏器等。
赛博格关系、复合关系及对应的图式是:
赛博格关系:(人/技术)→世界
复合关系:人→(技术→世界)[9]
按照维贝克的观点,增强现实技术提供了两种平行关系(parallel relations),技术除了构造了人和世界的感知关系,同时提供了世界的表征。他用如下图式表示:
(人-技术)→世界和人→(技术-世界)[10]
“人-技术-世界”关系结构的理论前提是关于技术认识论研究,这涉及对技术是否负载人类价值的讨论。一般来讲,我们可以分为两种形式:技术工具论与技术实体论。技术工具论认为技术没有负载人类价值,技术具有价值中立性(value-neutral of technology),技术仅仅是改造世界的手段。雅斯贝尔斯(Karl Theodor Jaspers)指出,“技术仅是一种手段,它本身并无善恶。一切取决于人从中造出什么,它为什么目的而服务于人,人将其置于什么条件之下”。[11](P142)梅赛恩(Emmanuel Mesrthene)也坚持技术价值中立的观点,“有益的做法是将技术定义为一般意义上的工具,不但包括机器,还包括语言工具和智力工具以及现代分析方法和数学方法”。[12]有的技术哲学家坚持技术价值负荷论(value load of technology),认为技术负载了人类价值,技术本身蕴含着人的价值取向,技术涉及主体的意图和目的。如戈菲(Jean-Yves Goffi)认为,“技术从来不是中性的,而总是一种个性的投射”。[13](P116)不管是技术价值中立论还是技术价值负荷论,都只考虑到人对技术的影响,而没有把技术对人的影响考虑在内,都没有考虑到技术在设计、开发、制造过程中的价值负载问题。
技术实体论认为技术与人一样,是一种实体,技术具有独立存在的价值和意义。埃吕尔(Jacques Ellul)就强调了技术的普遍性、自主性和决定性。一方面,技术被认为具有与社会无关的自主性,独立于社会。另一方面,技术能够影响社会发展。在埃吕尔看来,技术是既能够影响社会发展又独立于社会的自主力量。“技术可以导致人类的劳动价值丧失;也可导致个人的孤独封闭和人际间的疏远冷漠等精神方面问题。人的思维成为无必要的。技术就是一个摒弃人类能力的过程。”[14](P95)乔治·巴萨拉(George Basalla)认为:“技术和技术发展的中心不是科学知识,也不是技术开发群体和社会经济因素,而是人造物本身。”[15](P43)技术有时不受人的意志控制,具有独立的存在价值。
随着人工智能的发展,传统的“人-技术-世界”的关系结构也在发生转变,在技术本质问题上,技术哲学的研究经历了从技术工具论到技术实体论的发展,但技术工具论和技术实体论都是在人与技术间具有明确边界的语境下讨论人与技术关系问题的。人工智能产品一旦具有了意识和人类情感,会使人与技术的边界逐渐消失,在这种意义上,我们需要重新思考人与技术的关系。技术不但在人与世界中起着“中介调节”(mediation)作用,还影响着人类的行为模式。
一般来讲,坚持“技术工具论”的学者往往认为技术本身不具有伦理属性,人工智能产品也不具有伦理属性,人工智能的属性由人的使用方式决定;坚持技术实体论的学者认为,人工智能可能具有自主意识和情感,因此,技术人工智能产品就具有了伦理意蕴,可以作为独立的道德能动者。还有一种道路,认为人工智能产品的道德属性源于人工智能设计者。伊德认为:“越接近于技术所允许的隐形性和透明性,就越能扩展人的身体感觉,就越是好的技术。值得注意的是,设计的完善不仅仅与机器有关,还与机器与人的组合有关。机器沿着一个身体的方向完善,并且是根据人的感知和行为塑造的。”[8](P74)
维贝克出版了《将技术道德化——理解与设计物的道德》一书,在这本书中,维贝克把技术人工物和道德的关系划分为两个层面:第一个层面,技术带来新的伦理问题。第二个层面,通过技术设计改变人类的道德行为。人工智能技术,会带来一些新的伦理问题,但也可以通过新的人工智能设计改变人类的行为。人工智能的道德风险是预置的,是人类在设计人工智能之初就预先设置了的。人工智能设计具有意向性,嵌入了人类的目的,道德被“嵌入”(Moral Embeddedness)到产品中。就像拉图尔(Bruno Latour)说的“减速带”设计一样,如果不在减速带前减缓车速,车就难以平稳驾驶,在减速带中就嵌入了需要人遵守的减速驾驶的道德规则。超市的投币手推车也具有“道德嵌入”的功能,如果不把手推车归还到指定区域,就不能退换硬币,就会造成使用者的损失,这样,久而久之,就提高了人的道德水平。显然,这种设计的手推车也嵌入了人类道德。在“物”的设计中嵌入人类道德,使人不得不遵守伦理准则,这种道德不仅仅在于人,而且还在于“物”的情形被拉图尔称为“将装置道德化”,维贝克直接称其为“道德物化”(Moral materialization)。道德规范对人的约束转变为对物的“道德嵌入”,人工智能在设计之初就应该预测和评估人工智能产品可能引发的道德危险。因为人工智能具有人的推理能力,因此对人工智能的发展应该从设计源头进行规约。技术设计是把道德理论、道德规范和伦理学原则现实化的载体,具有道德调节、道德重塑的作用。在具体的人工智能产品设计上就应该进行道德风险评估,对人工智能可能引起的道德风险有个准确的把握。在人工智能的设计环节就应该有道德风险意识,这样才能防范人工智能可能带来的道德风险。
2.人工智能以不伤害人类为前提
康德的义务论和边沁的功利主义是西方伦理学中的经典理论。从义务论的角度看,一个行为的性质的正确与错误,并不是由这个行为的结果来决定的,而是由行为本身的性质、特点来决定的,正确的行为可能导致错误的结果,我们平时说的“好心办坏事”属于义务论的行为。功利主义是奉行目的论的典型,一个行为的优劣不在于行为的本意是否优劣,而在于这个行为所带来的结果是好的还是坏的。人工智能的设计不应仅仅局限于某一种状态,从设计者的设计理念到人工智能产品都应该规范与约束,才能保障人工智能发展不损害人类利益,不伤害人类。
美国科幻作家阿西莫夫(Isaac Asimov)的“机器人三定律”就是以不伤害人类为前提的。1942年,阿西莫夫在其文学作品《我,机器人》中提出了三条机器人定律:“第一条:机器人不得伤害人类个体,不能目睹人类受到伤害不干预;第二条:机器人必须服从他的命令,命令与第一条冲突时除外;第三条:机器人在不违反第一、第二条的原则下,要保护自己的安全。”[16](P1)电气电子工程师学会(IEEE)在2017年12月12日发布的《人工智能设计的伦理准则》(第2版)中提出,合乎伦理地设计、开发和应用人工智能技术应该遵循以下一般原则:人权——确保它们不侵犯国际公认的人权;福祉——在它们的设计和使用中优先考虑人类福祉的指标;问责——确保它们的设计者和操作者负责任且可问责;透明——确保它们以透明的方式运行。
2017年1月,在美国加州的阿西洛马召开了“阿西洛马会议”,近千位人工智能领域的专家和学者表达了对人工智能快速发展所带来的潜在问题和隐患的关心。阿西洛马人工智能原则(Asilomar AI Principles)旨在规范智能机器的发展,共同保障人类的命运和未来。阿西洛马人工智能原则是对人工智能和机器人发展所产生影响的长期观察比较集中和综合的表达。这些原则包括三个主要方面,分别是研究主题(Research Issues)、伦理与价值(Ethics and values)和长期议题(Longer-term Issues)。研究主题方面主要讨论了人工智能的发展方向、发展主题等问题,主要包括研究目的、经费来源、安全措施、文化建设、政策体系等方面的内容。伦理与价值方面主要讨论了隐私、价值观、道德地位、价值归属、故障追责等问题。长期议题方面则是站在长远角度,对人工智能发展可能出现的潜在危机和挑战进行了集中讨论和统一规约,主要包括能力警惕、风险以及公共利益等核心主题。[17]
3.人工智能发展以利于社会公平正义为目标
正义是一个社会健康发展的重要基石,是人类社会发展的价值追求。人工智能在设计、开发之初就应该关注社会的公平和正义。
首先,机器人设计应关注公平和正义。机器人不再是简单工具,在机器人的设计中应该关注责任伦理,其中正义原则是机器人设计需要贯彻的一个重要原则。著名技术学家H·伦克(Hans Lenk)指出:“在历史上人类从未像现在这样掌握如此多的技术力量和物质力量,技术不再是简单的工具,而是塑造世界、改造世界、创造世界的工具,在技术领域中出现的变化趋势使责任伦理问题突出出来。”[18]人工智能的设计要关注公平和正义,不应扩大主体间权力、地位的差距,导致实质上的不公平和不正义。例如,无人机的技术设计、生产需要大量的成本,导致价格昂贵,并非所有人都能享受该项技术成果,这就会致使一些落后国家和地区无法研制和使用无人机,导致地区间的不公平,造成公平性丧失;使用无人机送快递等会造成现有快递从业人员的失业,导致技术结果的不公平。罗尔斯(John Bordley Rawls)在谈到作为公正的正义时提出,“所有值得我们注意的伦理学理论都须在判断正当时考虑结果,不这样做的伦理学理论是奇怪的和不可理喻的”。[19](P27)技术设计的伦理学也应该追求技术结果的公平、正义,包括人工智能获取途径的公平、正义等。当然人工智能使用后果具有不确定性,人工智能设计只能尽可能做到公平、正义。根据康德和边沁的正义论,正义在这里可以理解为符合大多数人的利益,维护大多数人的权利。人工智能的设计中要确保其设计目的是为了人类的整体利益而不是某些个人或者集团的利益;人工智能的使用中要有助于大部分人的利益而不是少数人的利益;人工智能的使用要立足于消除国与国以及人与人之间的不平等,而不是加大贫富差距或者人为构建数字鸿沟。罗尔斯强调正义的制度健全,认为完善的制度是实现社会正义的重要保证。在发展人工智能的设计伦理时我们也应坚持制度健全:人为机器立法,从具体的人工智能的行业规范到区域法律法规,再到国家法律法规,甚至全球性的有强制力的公约,这些法律和制度都要考虑以正义性为核心因素之一。此外,从具体人工智能的设计者角度而言,随着智能机器人在人类日常生活和工作中的不断融入,人工智能产品不再像过去一样,仅仅被人类当成工具来看待,更多的新角色和功能被赋予到高智能机器人身上,使得旧的人工智能伦理观念受到冲击和挑战,这也要求人工智能的设计者在一定程度上考虑到社会影响,才能更好地解决人工智能的设计问题。
人工智能改变了传统的人与技术的关系,因此,在人工智能的设计、监控和管理等整个过程中都要秉承公平原则,把正义原则融入机器人的设计、研发、运行和管理等各个阶段,在机器人的设计和应用过程中关注程序正义和结果正义,通过机器人的发展推动社会公平,推动整个社会良性有序进行,规范和约束机器人发展,让人工智能更好地为人类服务。
综上所述,从技术伦理学视角来看,对人工智能风险应该采取描述性研究与规范性研究相结合的研究范式,一方面需要对技术使用前的设计、开发、制造过程进行伴随技术的哲学、伦理学分析;另一方面坚持对技术使用过程的伦理学分析,两者有效结合,才能实现后现象学意义上的动态分析与静态分析的有效结合。关注人工智能技术过程中的伦理问题,人工智能技术使技术安全性及隐私保护等方面的问题变得更加重要且紧迫,因此需要内化技术设计、决策主体的责任意识;完善技术设计制度,并促成各类技术主体之间的合作。只有这样,才能有效地规避人工智能道德风险,才能更好地促进人工智能的健康发展。
参考文献:
[1]Patrick H.Winston. Artificial Intelligence:A Perspective[A]//The AI Business: Commercial Uses of Artificial Intelligence[C]. Cambridge: MIT Press,1984.
[2]Nils J.Nilsson.人工智能(英文版)[M].北京:机械工业出版社,1999.
[3]玛格丽特·A·博登.人工智能哲学[M].刘西瑞,王汉琦,译.上海:上海译文出版社,2001.
[4]卢西亚诺·弗洛里迪.第四次革命——人工智能如何重塑人类现实[M].王文革,译.杭州:浙江人民出版社,2016.
[5]Yampolskiy R V, Spellchecker M S. Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures[J]. Computer Science,2016,(10).
[6]F·拉普.技术哲学导论[M].陈凡,秦书生,译. 沈阳:辽宁科学技术出版社,1986.
[7]张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017,(6).
[8]Ihde D. Technology and the Lifeworld: From Garden to Earth[M]. Bloomington: Indiana University Press,1990.
[9]Verbeek P P. Cyborg Intentionality: Rethinking the Phenomenology of Human-Technology Relations[J]. Phenomenology and the Cognitive Sciences, 2008, 7(3).
[10] Verbeek P P. Designing the Public Sphere: Information Technologies and the Politics of Mediation[M/OL]//Floridi L. The Onlife Manifesto. Cham: Springer Open, 2015: 217-227[2016-9-7]. https://link.springer.com/book/10.1007%2F978-3-319-04093-6.
[11] 雅斯贝尔斯. 历史的起源和目标[M]. 魏楚雄,俞新天,译. 北京: 华夏出版社, 1989.
[12] Mesthene E G. The Role of Technology in Society[J]. Technology and Culture, 1969, 10(4).
[13] 让-伊夫·戈菲. 技术哲学[M]. 董茂永,译. 北京:商务印书馆, 2000.
[14] J.Ellul.The Technological System[M]. Grand Rapids: Wm. B. Eerdmans Publishing, 1990.
[15] Basalla G. The evolution of technology[M]. Cambridge: Cambridge University Press, 1988.
[16] 阿西莫夫.银河帝国8:我,机器人[M].叶李华,译.南京:江苏文艺出版社,2012.
[17] 阿西洛马人工智能原则——马斯克、戴米斯·哈萨比斯等确认的23个原则,将使AI更安全和道德[J]. 智能机器人,2017,(1).
[18] Lenk Hans.Introduction The General Situation of the philosophy of Technology and Atributeto the Tradition and GeniiLoci [C]//Han Lenk, Matthias Maringeds.Advance and Problems in the philosophy of Technology.Munster:LIT,2001.
[19] 约翰·罗尔斯.正义论[M].何怀宏,何包钢,廖申白,译.北京:中国社会科学出版社,1988.