自动驾驶汽车研发者的道德伦理责任
2019-03-09石月
【摘 要】 随着人工智能科技革命中自动驾驶技术的演进,人类社会的交通图景已经发生深刻的变革。从自动驾驶汽车操作系统的研发者角度分析,如果没有明确的价值指引以及足够的预期违法成本考虑,则无法保证自动驾驶技术在重大经济利益面前长期妥善发展。所以除了明晰在研发过程中应遵循的道德伦理准则,还应构建技术研发的动态评估评价体系,明确研发者责任,使得其在设计制造软件系统时,考虑责任预期并严格遵循相关法律规范。
【关键词】 自动驾驶技术 道德伦理准则 研发者责任
一、自动驾驶汽车的伦理困境
自动驾驶领域非常受学界与媒体关注的一个话题就是自动驾驶汽车的两难困境问题。例如自动驾驶汽车高速行驶至某事故路段时发现两名事故受害者倒在道路中央,而自动驾驶系统来不及刹车,唯一可以避免碾过两名受害者的办法就是向左前方转向,但该选择将撞上左前方的第三名行人并致其重伤或死亡。这种困境不仅存在于经典的刑法教课书案例中,也存在于传统的道路交通环境中。而自动驾驶汽车所面临的问题相较于传统车辆更加棘手,其原因有二:第一,因为人类驾驶员的反应时间比较长,从发现道路中央的受害者到采取行动几乎没有思考的时间,所以不存在违反注意义务的情况,即使撞死了两名行人也属于意外事件。第二,即使存在足够的反应时间,人类驾驶员为了保全自己决定直行撞死兩名受害者或左转撞死一名行人,也可能因为符合紧急避险情况而被免责。但自动驾驶系统则不同,自动驾驶系统用0.2秒就可通过传感器感知紧急情况,而这种反应是通过事先编程来决定价值优先次序。如此一来,在生命与生命之间的取舍取决于两难困境中编写自动驾驶碰撞回避的算法程序。这种编程成为极端敏感的问题,引发了公众对自动驾驶技术的争议甚至恐惧。
二、自动驾驶碰撞回避算法
(一)功利主义算法。功利主义者算法是基于利益最大化的考虑选择撞向损害利益较小的一方,也就是允许汽车左转撞伤或撞死一名行人。该算法看似符合正确的价值观念,保护利益更大的一方从而最大限度的降低损失,但这种单纯衡量受害人数量的所谓最优化模式违反了宪法的人格尊严至上与生命权绝对保护原则,与现行法律理论框架无法兼容。
(二)自我牺牲算法。该程序将自动驾驶汽车的驾驶员或乘客视为风险创设者而要求其承担风险,因此,算法程序被设置为优先牺牲驾驶员或乘客。该程序设置显然也经不起推敲:第一,引入自动驾驶技术的首先是自动驾驶系统或车辆的生产商,创立风险者并不是使用自动驾驶技术的驾驶员或者乘客;第二,该程序设置不利于自动驾驶技术的推广,这种自我牺牲程序的设置将大大降低车辆销量及大众对自动驾驶技术的消费兴趣。
(三)掷色子算法。在两难困境中,无论算法程序如何选择都不能免除责任,因此,应当放弃编写程序任由事态发展,即在自动驾驶汽车直行撞向两名行人,或者在两边人数相同的情况下设置掷骰子程序进行随机选择。但这种逃避主义的方案显然违背人类理性的要求,并且即使设置这种程序似乎也无法免于刑法上不作为的可罚性。
三、对自动驾驶汽车研发者的监管建议
(一)遵循人类伦理规则。人类目前对人工智能的发展表现出极大的隐忧,必须通过伦理与价值的设定以保障人工智能在合理的轨道上前进。2017年,德国公布了针对自动驾驶的道德准则,确立了下述价值准则,对算法逻辑的价值选择提供了有益借鉴:道路安全优于出行的效率;对于个体的保护优于其他功利主义;法律应当在个人自由与他人自由间取得平衡;对人类权益的保护优于动物权利与财产权利。特别值得说明的是,该道德准则还对生命的“两难选择”作出了特别的规定,要求不得对于某些极端情况提前设定标准化的计算逻辑,例如在路人与驾驶员同时在悬崖边面临碰撞时,不得提前设定以牺牲路人性命换取驾驶员存活的编程。人类的伦理概念也不是天生的,主要通过两个途径获得,一个是人所有的感觉,另一个就是已相信的事物创造、解释和衍生结果。因此,极有必要通过算法的顶层价值设计以实现人工智能法益位阶的设定,确保人工智能自身逻辑不会突破底线。与之相对,如果研发者违背伦理规则设定算法,应当承担相应责任。
(二)设立研发者的严格责任。人工智能的发展趋势是逐步成为技术黑箱,即使运算的算法与逻辑可以被公开,但基于该算法可能产生的模型却无法限定在固定模式内,即便是研发者也无法完全预知其内部的决策运算逻辑。当情况特殊时,自动驾驶汽车在缺乏预设情景设定而独立作出决策时,以产品缺陷的理由使生产者独立承担严格责任,显然是不公平的。因此必须设立研发者的严格责任,以便于链式机制内的相关主体明确自身权利与义务,并通过算法等技术的顶层设计尽力消除消极后果。从包括规制人类基因技术的应用等高科技法的发展历程分析,应对自动驾驶技术的禁止开发领域或者应然共有价值选择作出明确的限制性规定,以避免技术的研发陷入不可控的状态。
(三)遵循强制性义务。自动驾驶技术研发者还应遵循一些强制性义务,例如创建开发与应用数据记录系统,强制妥善保存研发核心参数,以便于确定侵权事件的“因果关系”与责任主体。在人工智能的设计研发过程中,必须保证系统满足动态评估并具有监测危险的能力后再投入市场。技术开发的法律“负面清单”规定由研发者承担相应民事、刑事及其他责任,通过法律的震慑使得负面技术减少应用效应并将研发者作为承担侵权责任的主体之一,同时满足技术批判理论范式下所需的事前预防。
【参考文献】
[1] 瑞恩·卡洛,迈克尔·弗鲁姆金,伊恩·克尔,陈吉栋,董惠敏,杭颖颖.人工智能与法律的对话[M].上海人民出版社,2018.
[2] 袁曾.无人驾驶汽车侵权责任的链式分配机制——以算法应用为切入点[J].东方法学,2019,缺失卷(5):28-39.
[3] 司晓、曹建峰: 《论人工智能的民事责任: 以自动驾驶机动车和智能机器人为切入点》,《法律科学 ( 西北政法大学学报) 》2017 年第 5 期。
作者简介:石月 (1994-),性别:女 民族:汉族 ,籍贯:辽宁阜新,职务:学生,学历:研究生,单位:无,研究方向:知识产权