APP下载

自主机器人的道德责任困境研究
——基于人类责任视角

2020-01-17简小烜

湖南第一师范学院学报 2020年4期
关键词:使用者制造商主体

简小烜

(长沙学院 马克思主义学院,湖南 长沙 410022)

人工智能技术经过几十年的发展已经取得了巨大进展,它的产物——自主机器人兴起并席卷了人类社会生活的各个领域。随着技术更新速度的不断加快,自主机器人的自主性和学习能力不断增强,人类对其的控制却越来越弱。经典道德责任理论指出:虽然自主机器人已具有一定程度的自主行为能力,但它们没有意识、情感、欲望,对它们的问责是没有意义的,因此它们不可能是责任主体,也不可能承担责任;实用道德责任理论认为,如果由程序员、制造者和使用者负责,但他们原则上都不能预言和控制机器人的决策和行为,由他们负责是不公正的,他们也不可能是责任主体。两派争议很大,且不管他们的观点是否具有可行性,现实中的情况就是,由于存在研发、生产、使用、管理等多个环节及多个参与主体,再加之自主机器人又不具备独立承担责任的能力,容易出现因果链失效和远距离效应等问题,因此导致人类责任的弥散和逃避,最终造成了责任主体的缺失。我们的观点是,研发者、制造商、使用者和政府部门是主要责任主体,自主机器人的道德责任是多元主体责任;人类应树立“负责任创新”的理念,并从各个环节确定研发者、制造商和使用者以及政府部门等责任主体的责任,以保证每个意外、每个环节都有责任主体来承担道德责任。

一、困境:责任主体缺失

道德责任问题就是:就具体的事件/情况而言,谁应该受到奖赏或惩罚,或者赞扬/批评?这个“谁”就是道德行为的责任主体。因此,要判定道德责任,首先要判定清楚谁是责任主体。按照经典道德责任理论,成为责任主体的前提条件是具备意识、意志、情感和自由,因此道德责任的主体是人;自主机器人虽然具有一定的自主性,但终究是人类的工具,不可能成为责任主体。实用道德责任理论则不认为意识、意志等是成为责任主体的前提条件,他们认为自主机器人具有类人的特性和能力,且其行为确实产生了道德后果,因此可以是责任主体。两派的争论非常激烈。

早在1978年,在日本广岛的一家工厂就上演了第一宗机器人“杀人”事件,切割机器人在切钢板时突然发生异常,将一名值班工人当做钢板操作致人死亡;1989年,前苏联国际象棋冠军尼古拉·古德科夫和机器人对弈之时,机器人突然向金属棋盘释放强大的电流,众目睽睽之下将这名国际大师击毙[1];2007年10月,南非军队使用的一种半自主性机器人加农炮出了故障,杀死9名士兵,伤了14名;2018年3月的一个周日,在美国亚利桑那州坦佩市,Uber的一辆自动驾驶汽车与一名正在过马路的行人相撞,该行人被送往医院后于周一死亡[2]。这四个案例都造成了人员的伤亡,谁是责任主体呢?自主机器人吗?实用派立马指出,是的,自主机器人是责任主体,应承担一定的道德责任。然而,经典派提出质疑:自主机器人没有意识和情感,只是人类的工具,如何成为责任主体和承担责任?那么,是研发者、制造商、使用者吗?经典派立刻响应:是的,应该由他们负责。但实用派辩驳说:人类在研发、制造、使用环节未有任何疏漏,是自主机器人的学习和自主能力造成了伤害,应由机器人负责。从两派的理论争论而言,似乎谁都不可能是责任主体,而上述现实案例的最终结果确实是无人负责。可见,无论从理论还是实践而言,自主机器人的道德责任都面临着责任主体缺失之困。

随着机器更加智能化,也随着自主机器人的自主性越来越强,事故越来越多,道德责任问题被提出并持续发酵。比如,自主机器人的基础性作用是代替人类劳动,必然会导致很多人失业,谁将对此负责?医疗行业的人工智能,人类无法断定其治疗操作是否绝对不会出现问题,如果对患者造成伤害,谁将对事故后果负责?可以说,由自主机器人行为导致的损害或伤害,应该由谁来承担道德责任,这是道德责任领域最具争议的部分。无人驾驶汽车是人工智能最尖端的研究领域之一,它在现实中可能遭遇诸多困境,如:在刹车失灵的情况下,车是选择撞向十人,车内一人生还;还是撞向建筑物,车内一人死亡?无论哪一种选择,都存在着或多或少的争议,而对于造成刹车失灵的责任主体是当事人还是汽车的制造商,抑或是无人驾驶汽车,法律和道德至今未能给予答案,也无清楚的责任界定。

以智能化自适应电梯系统为例[3]。在高层办公楼中,已经使用自适应电梯系统,这些系统通常使用人工神经网络和强化学习算法来分析交通模式,并且它们试图最小化电梯用户的等待和运输时间,也即系统可以优化自身行为,以最佳方式工作。但是,正如大家所知,由于学习是通过反复试验完成的,犯错是任何强化学习系统都不可避免的,那么,这个电梯系统在学习过程中是可能犯错的。现在让我们假设,有一个具有学习能力和适应性的电梯(100层高,装有16个软件系统控制的电梯)犯错了,让一位公司高管在34楼等了半个小时,导致他无法按时参加重要商务谈判,并造成相当大的财务损失。谁是责任主体?由谁负责?制造商可以否认责任,因为能够学习的电梯在其运行过程中改变了其程序的参数,以便更好地适应建筑物中的交通模式,他不再可能在给定情况下预测或控制电梯的特定行为(尽管可能在数学上证明最终使用的算法将会收获到一些最佳行为,即电梯用户的最小总体等待时间)。由于制造商无法预测或避免在这种情况下产生的不良后果,他认为他不能对机器人的这种特定行为负责,不是责任主体。设计人员也认为:当初我的设计没有任何问题,机器人自主学习导致的这种行为我也无法控制和预测,我不能承担责任。最终结果还是责任主体缺失、无人负责。

二、原因:人类责任的弥散与逃避

针对技术产生的问题,尤纳斯曾经建构了“未来责任”伦理[4]。他的责任伦理理论强调了人类对现在和将来的责任,也强调了全社会的责任。从他的理论,我们可以推知,责任者不仅包括开发者、创造者和使用者,还包括政府部门,全社会都应当自觉承担起对人工智能技术发展的责任。现代技术不可逆,我们要慎重对待技术,不能拿人类的未来当作“赌注”,当下的忽视或疏漏必将造成不可挽回的损失。

大部分人倾向于由人类承担道德责任,然而,在因自主机器人的行为导致损害发生之时,人类却往往倾向于逃避责任。根据Miller的说法,计算机从业人员通常有意无意地采用了一种被称为“渎职行为”的责任模型,该模型本意是为确定造成损害事件的责任人,却导致了人类以各种借口推脱责任[5]。关键是,自主机器人的复杂性也使得人类可以回避责任。从研发设计、制造到使用,众多主体参与,而一个事故的发生,并非某一环节或某一个人的责任,这导致谁都可以负责,谁又都无法负责,而且,也没有直接的因果关系将人类的行为与损害联系起来,无法判定责任,也无法确认责任主体,最终导致一种“责任弥散”的情况出现——无人承担责任。而且研发人员经常申明不是产品缺陷,所以他们没有责任;制造商认为自己对事件链的贡献微不足道,因为他们只是团队的一部分;使用者则说:“我是严格按照说明书来操作的,我没有责任。”

科技的发展造就了无人机与军事机器人,它们应用于战争已成为现实。据资料统计,美国无人机参与的战争已经夺去了2500—4000人的生命,其中约有1000位平民和200名儿童,受到了世界各国的谴责。如果人类不小心误杀了3个孩子,那么他也许会在内疚中度过余生,甚至会受惩罚,但无人机的使用减轻了我们的负罪感,因为人不是我们直接杀害的,我们只是远距离遥控了无人机,并不是我们自己的行为导致了3个孩子的死亡,而是无人机的行为导致了这个悲剧[6]。这种“远距离效应”让责任因果链难以追溯,让人类的责任淡化甚至消亡。更可怕的是,无人机在一场战争中误杀了几个孩子,我们得到的却只是一些没有情感温度的数据而已,没有人会为此承担责任。战争是一个极端的例子,试想在日常生活中经常出现的情况。我们抱怨说:“导航把我带错了地方”“手机提示这里并不堵车”“我的手机没电了”等,这些话的潜台词便是“这并不是我的错”。越来越多的人将失败的错误转嫁到自主机器人上,越来越多的损害无人负责。

一直以来,确实有一种声音在呼吁,那就是由自主机器人承担责任,它就是责任主体,关于这方面的论证有很多。这派理论因为提倡实用至上,所以被称为“实用派”。实用理论属于非人类中心主义,倾向于摒弃非凡的自我意识和自由意志,并从自主机器人的理性、自主性和意向性等类人属性出发,深入论证自主机器人能够成为道德主体或道德能动者,从而能够承担道德责任。因为自主机器人具有理性、自主性和意向性,所以应承担道德责任,而人类缺乏对其的控制,所以不能承担责任。但问题是,人类一方面在某种程度上还是可以实施控制的,另一方面,作为研发者、制造商和使用者,或多或少总是存在责任的。实际上,实用理论大多时候会导致人类责任的逃避,所以有一种说法就是,如果我们承认自主机器人能够承担责任,人类就会逃避所有责任。

责任主体的确定非常重要,能够确保日后有意外或损害发生时,有人能承担责任以及及时处理和解决问题,否则将为自主机器人的后续发展埋下巨大的隐患。但相关道德、法律规章的制订及更新的速度总是跟不上人工智能技术发展的速度,人类正面临各方面的压力。自主机器人只能分析问题和解决问题,而人类不但可以分析问题和解决问题,还可以提出问题,作为“万物之灵”,作为富有创造性的高级物种,基于目前的技术发展水平,人类无论如何都应负有主要道德责任。

三、对策:研发者、制造商、使用者和政府部门作为主要责任主体

根据人工智能技术当下的真实发展程度以及可预见的未来可能性,在自主机器人行为所造成的损害事件中,作为研发、创造、使用和管理自主机器人的主体,研发者、制造商、使用者和政府部门等是主要责任主体,应该承担主要责任,因此,自主机器人的道德责任是一种多元主体责任。

(一)树立“负责任创新”的理念,完善前瞻性责任制度

“负责任创新”是近年来欧美国家提出的一种新的发展理念,这一理念已被列入欧盟2020年远景规划,美、英、德、法、荷与中国等都开展了“负责任创新”的研究和实践活动。“负责任创新”理念注重研发者、制造商的社会责任与技术创新活动的有机结合,对于经济、社会和人工智能技术的协调发展具有重要的理论意义和实践价值[7]。“负责任创新”理念首先要求研发者尽力减少可预见的不良事件。研发者应该关注的是如何做,尤其是在自主机器人“出世”之前应该做什么,而不是因为不负责任的行为责备或惩罚他人。

“负责任创新”强调研发者、制造商、政府部门等的职责和义务,要尽量考虑到个体行为的后果并最大程度地减少造成伤害的可能性。换句话说,作为责任主体,应该尽可能地开发和制造更有可控性、更安全且“向善”的自主机器人。另外,从宏观上而言,还应完善前瞻性责任制度,从研发、制造、使用和管理各个环节来确定和分配各个主体的行为规范与责任要求。一方面是防患于未然,另一方面可以保证每个意外、每个环节都有责任主体来承担道德责任。

(二)研发者和制造商作为责任主体

就像当初人类设计出飞机和武器一样,人们不能准确地预测自主机器人在未来使用过程中会产生什么突发状况,也无法预测它们的未来会如何[8]。Grodzinsky,Miller等人指出:我们不能预测它进入市场后会给我们的生活造成什么影响,会带来什么意外,但应该让生产商和设计者意识到,如果他们不遵守伦理规则,如果不认真测试自己创造的自主机器人,一旦自主机器人对人们造成伤害,他们就得承担责任[9]。

在过去的几十年中,人工智能伦理领域的主要成就之一就是人类越来越意识到自身的价值观对设计开发进程的影响,在此过程中他们也逐渐增加了对他人价值观的敏感度。美国白宫人工智能报告将“理解并解决人工智能的道德、法律和社会影响”列入国家人工智能战略,并建议AI从业者和学生等都接受伦理培训[10]。我国政府在2017年7月印发的《新一代人工智能发展规划》中,呼吁“建成更加完善的人工智能法律法规、伦理规范和政策体系”“加强对人工智能潜在危害与收益的评估”[11],以确保人工智能的健康发展。去年6月又发布了《新一代人工智能治理原则》,提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八大原则[12],其中对研发者和制造商们提出了伦理要求。研发者和制造商更应树立“负责任创新”的理念,尽可能地预测自主机器人的行为及其产生的后果,即使不能做到详细、具体的预测,也一定要控制在一定范围内,让机器人是安全与可控的,是“向善”的机器人。

(三)使用者作为责任主体

使用者作为最终的接触者存在,分为科研使用者、工业生产使用者、日常消费使用者等。无论是哪一种使用者,都应遵守自主机器人的操作规范。任何一款自主机器人都有其使用说明或操作准则,任何一位使用者都要遵守相关操作准则,一旦出现违规违法的使用,那么责任就应由使用者承担。就像无人机可以被用来进行高危侦查,但是如果被用于窥探他人隐私,使用者必须承担相关责任。另外,使用者应为自主机器人进行保险购买和登记。目前自主机器人的发展还处于早期阶段,应对未来可能出现的未知风险的最佳方式,就是采用保险制度。这种保险制度对于个人而言是实施强制登记的,就如现在的机动车上路之前,必须要缴纳强制性的交强险,然后再根据个人需求进行相关商业险的购买。现阶段已经出现了商用化的无人驾驶汽车,未来还会有更多的自主机器人。如果出现意外事故,对于使用者而言,第三方保险不但降低了风险和损失,而且也是对自身责任践行的最佳方式。

(四)政府部门作为责任主体

政府部门对于人工智能技术的发展起着决定性作用,目前我国政府对于人工智能领域的重视已经上升到了国家战略层面,如2020年计划实行的“新基建”中就包含了人工智能领域的内容,还有如前所述的发展规划和伦理原则等。政府部门应从立法和行政层面对其进行监管,不可冒然突进,也不可谨慎过度。

近期目标:将自主机器人在应用过程中出现的问题纳入法律框架中,充分发挥法律的规制作用。对于一些普适性问题,以及容易产生纠纷的疑难问题,应通过司法解释和案例指导的方式提供解决方案。在刑法领域中,重点关注利用自主机器人实行违法犯罪行为的新型案例,对于可以明确为危害人身安全、财产安全、社会稳定与秩序的案例,参照现有法律规定执行,而无法明确规定的,可以借鉴网络诈骗、信息犯罪的相关规定。在民商领域中,按照现有用法规定执行,应注意减少受害者的举证难度。

中期目标:确立基本法律原则,完善和扩展现有的法律规章制度。我国正在逐渐落实民法典,要逐渐增加和明确自主机器人侵权的责任类型,根据不同的情形以及可能造成危险的程度,分级和细化自主机器人的归责原则和举证责任。如对于危险系数较高的自主机器人(无人机、无人驾驶汽车等),适用无过错责任;对于危险系数较低的自主机器人,适用一般责任原则;对于产品责任,明确相关范畴,建立统一的机构对其进行产品缺陷认定,适用共同责任原则。对于近期目标中未能解决的自主机器人的道德主体地位问题,可以在中期目标中探索解决,并在国家设定的一些技术创新区进行试行,逐渐落实对自主机器人道德和法律地位的确定,明确人工智能法的基本原则和内容。

长期目标:建立健全多层次的人工智能监管体系。首先要推出专门的人工智能法,对于自主机器人生产过程中涉及的多元主体(研发者、制造商、销售者、使用者、监管者等)责任,以及自主机器人的技术标准等级、风险等级、使用领域等进行明确划分;其次要建立人工智能法律和伦理委员会,讨论和制定相关的社会伦理标准,将法律和伦理结合在一起,建立起对所有从业人员的道德规范和法律要求,推动社会伦理标准融入自主机器人的开发设计中,最后形成一个集国家法律、社会伦理、行业标准等于一体的人工智能监管体系。

结语

本文从人类责任视角,认为研发者、制造商、使用者和政府部门是主要责任主体,并对自主机器人的道德责任困境、原因和对策进行了较为深入的探讨。实际上,自主机器人具有一定自主的认知、决策和行为能力,一些学者认为它具有一定的道德地位,是责任主体,应承担一定的道德责任,但如何承担还需深入研究,限于篇幅,在此不予探讨。

猜你喜欢

使用者制造商主体
论碳审计主体
设计让您在喜爱的虚拟世界中自由奔跑
一位制造商一架军机(欧亚篇)
一位制造商一架军机(美国篇)
论自然人破产法的适用主体
何谓“主体间性”
受挫的汽车制造商在通向全新未来的十字路口止步不前
略论意象间的主体构架
新型拼插休闲椅,让人与人的距离更近
抓拍神器