APP下载

人工智能驾驶侵权责任的判定方法

2021-04-17孙日华

昆明理工大学学报·社科版 2021年3期
关键词:领域人工智能主体

孙日华,任 欣

(河北地质大学 法政学院,河北 石家庄 050031)

一、问题缘起

信息技术的不断革新和发展可谓迎来了又一次科技革命。其中,人工智能的研究和应用也正不断影响着我们的社会和生活,一些行业甚至已经开始运用具有认知能力的人工智能来替代人工雇员[1]。自动驾驶汽车的出现,也在驾驶领域扩展了“驾驶人”的范围,便利了个人的出行。这不仅简化了驾驶操作,给驾驶者减轻了负担,更为老年人、视力受损者或因其他身体原因不能亲自驾驶汽车的人提供了出行便捷[2]。而人工智能在驾驶中的应用不仅包含我们通常理解的无人驾驶,即在一种没有人工操作和干预的情况下,依靠传感器、全球定位系统等人工智能技术实现车辆自主驾驶的机动车,更包括智能驾驶的过程[3]。无人驾驶的出现以其“智能化”的标准更挑战着目前驾驶领域驾驶者的技术与社会规范。

自动驾驶汽车无疑是人工智能研究中短期内最有前景的领域之一,但作为新兴之物,也必然引发制度上的反思。人工智能在驾驶中的困境和迷思集中在著名的“电车难题”①“电车难题”是法律经济学理论中最经典的案件之一。它通过一个思想实验,试图解释在紧急情况下,基于成本-收益的分析,如何做出理性选择,但不同学者依旧对此争论不休,至今没有确定结论,毕竟道德和经济因素似乎都是我们无法规避的生活选项。中。尤其人工智能对驾驶界的大举入侵,要思考的不仅仅是是否转轨道而对一个抑或五个生命的衡量,还有车主、乘客与车外第三人的取舍。虽然这些问题在人类自身驾驶的领域也会存在,但人工智能中的驾驶不是人类紧急情况下或有道德指引的决策行动,而是通过算法的形式提前固定在人工智能的产生伊始。这种选择在人工智能的驾驶领域无法改变,事故下的悲惨结局也在意外发生之初就已经有了定局。

不能天真地将这种决策寄托于人工智能的情感拥有和道德决断,起码从目前来看,我们看到的AI背后大都靠算法和编程运行。沙特阿拉伯被授予正式公民身份叫Sophia的机器人也只是一个带喇叭的木偶——我们所见各种发言和采访,都是由人工撰写内容,然后合成语音输出,最终成为我们所见的“人工智能”自主言论的骗局,驾驶领域人工智能的问题也还需要制度的规制。季卫东认为需要平衡好产业与AI治理之间的关系,防止人工智能“黑箱化”,加强人工智能治理中的“软法”与“硬法”相结合。马长山总结了当前法律与AI之间的两条道路,即把AI纳入法律规制框架和把法律转化为智能系统,据此提出了“第三条道路”——法学与技术的对话、法律与人工智能的融合[4]。申卫星认为计算法学需要从计算思维研究法律问题,开展法律大数据分析[5]。宋保振则从数字权利和算法角度解读人工智能所带来的法律挑战,引发深刻的人工智能法律规制的思考[6]。而本文在其上述学者关于人工智能思考的基础上,选取人工智能驾驶领域,切入其侵权责任中的利益平衡以及由此产生的当下法律挑战,从其潜在的侵权可能性(或者必然)的角度开展分析,并试图通过各种制约要素分析来解读责任的设定,融合法教义学和社科法学的核心要点,构造侵权责任的方法体系,以期最终提升整体社会福利和技术发展,而不是因此带来灾难。

二、成本、分配与侵权责任的经济学推演

在侵权责任中,法经济学有着重要的理论支撑作用。以经济学为视角,不再单一地区分损害人和被害人,而将侵害作为双方或多方相互关系来处理。法律在维护秩序的同时,也在通过不同利益之间的选择和衡平追求经济与社会帕累托改进的过程,即在通过责任的分配体现价值衡量的结果,从而反向引导不同主体在不同角色中承担相应的注意义务;同时,也通过责任分配的方式,调整事件中不同主体间的成本,基于选择理性的考量,使人们趋向于选择对其效用最大化的行为。而对社会整体而言,责任分配下的损害承担和其导向的预防成本的支出,能使资源流向所需者,提高整体效率。

法律经济学站在理性人的角度,即每个人都会基于成本收益的考量选择自身行为。因此,法律通过三个途径影响个人行为:一是设定个人行为规则,二是改变个人偏好,三是协调人的预期,最终协调均衡结果[7]。基于此,对于某一行为的法律威慑将取决于抓获概率与惩罚的严厉程度,这对于设定法律责任具有重要的指引价值,针对人工智能自动驾驶,这一经济学规则同样适用。

目前,在关于驾驶责任的规定中,几乎都依托于“人”和“车”两个主体,主要考量行人为主的“生命权”和“车”——即“驾驶者”的相关行驶权利。我国《道路交通安全法》中,对二者责任做了基本划定。在实践过程中,侵权的发生通常基于行为人一方或双方的过错或过失,目前制度中也将过错责任作为常见的归责原则,根据行为人的过错程度来划分责任;同时,也引入无过错责任,对机动车的责任进行了强约束。交通事故处理中的以“过错”为论,过者担责和双方过错下按照比例担责,直接体现了公平的法律价值,也是分配下的经济结果;而在双方无过错下的承担方式则考量了双方力量、成本和预防成本和发生的概率。机动车一方无过错也应承担一定的责任之规定,虽然看似对机动车一方缺失公平,但制定的初衷在弥补行人受害者损失的同时,也在一定程度上强化了机动车的注意义务。立法者的初衷可能认为机动车在道路上存在着客观优势,即与行人发生交通事故损失较小、伤亡较低。但是,我们需要考量一个很重要的经济学原理,即责任规则的设定是基于谁避免事故发生的成本越低,责任就归谁的原理[8]。对此,机动车和行人谁的防范成本更低呢?这是需要做详细考证的。笔者认为在正常情况下,即行人行为能力完全具备的情形之下,自我掌控行走行为的能力比机动车驾驶人掌握能力更强(走路总比驾车熟练),其防范事故发生的成本可能会更低,以此类推,责任应该还原于过错责任。但是,这可能受到道德的质疑,毕竟,道德的底色具有惯性,并且影响深远且难以改变。也可能站在技术的角度论证机动车的防范事故成本更低,毕竟立场的差异会出现不同的思辨。当然,法教义学倾向于做逻辑的、伦理的判断,从文本主义角度切入对机动车无过错责任认定的判断,并加以概率意义上的推理和分析,但从经济学角度开展反思也尤其必要和意义重大,尤其在关于人工智能驾驶层面开展责任分析方面,具有较大的比较优势。

总之,侵权责任重法经济的应用,一方面通过补偿受害者的方式填平其损失,以实现社会公正,达到法律的制度初衷;另一方面,通过规制促使偏向于支配的一方行为人增加“注意义务”,减少以双方为整体的成本,从而达到提高社会效率的目的。这才是一种理想状态(抑或理论状态),并因此开展侵权责任的设定。那么,在人工智能驾驶领域是否可以尝试这一推理的制度安排,需要我们在下文中进行深入的探讨与交流,用理论去推测实践的可能性,很多时候也是可以的,没准这一理论够幸运呢。

三、传统侵权制度面对人工智能驾驶的责任挑战

(一)侵权基理的冲击

驾驶责任的承担,更是人工智能在驾驶方面的一项重大议题。诚然,人工智能在驾驶中的应用,在保障道路通畅度和节约能源方面起到一定作用,也使得现实技术取代了人类的自然理性,极大程度上避免或减少了“疏忽”和“过失”引发的交通事故。但这种人为的事故只是在人工智能的介入下减少而非避免,而由于人工智能对于驾驶的操纵,也在一定程度上给侵权行为的法律规定造成了困惑。换言之,人工智能的介入,部分或全部替代了人类现有对驾驶的“掌控”,打破了传统侵权法中的责任规定,也打破了原本传统道路中的“人”“车”格局的利益衡平。

人工智能对驾驶领域的侵入,关注的核心是主体问题。即人工智能能不能成为法律上的主体从而承接驾驶过程中的责任和义务。而另一方面,人工智能的设计者、制造者,甚至销售者应该在其中扮演什么角色。这些主体之间的模糊和绞合也冲击着传统的包含民刑责任在内的道路交通法律体系。法律总是滞后的,尤其在人工智能的异军突起面前,更显得手足无措。

不可否认,科学的进步在于便捷人们的生活,对日常劳作进行部分替代,从而使我们从繁重的、重复的工作中解放出来,但这绝不意味着对人类权利的剥夺。随着人工智能的继续研究和发展,驾驶领域会趋于智能化或无人化。或许未来的某一天,在驾驶领域,人工智能的控制占据了绝大多数,甚至鲜少有人为操纵汽车驾驶的出现。但相信这并不是对人类驾驶的完全禁止,不论是基于人工智能操纵故障、作为人类的及时需求或其他突发情况,都可能有人为驾驶的出现。因此,在利益关系的衡量中,既不能只考虑单一人为驾驶中的情形,也不能理想化地将人工智能作为唯一汽车操纵者的理念作为制度制定或损益分配的背景。就算真的有人工智能统领驾驶领域的存在,也非短期内的结果,而我们在一定时间内都会趋于或处于人工智能和人为驾驶共存的状态。因此,在制度制定和利益的考量中也应该在传统的“人” “车”中加入“人工智能”的角色,甚至包含人工智能制造者、管理者等主体。《维也纳道路交通公约》也于2016年对原车辆必须含一名驾驶人进行了修改,有条件地将车辆的驾驶责任赋予了自动驾驶系统。但需要注意的是,传统侵权法中的过错原则不能够适用于人工智能。人工智能的独立操作和运转脱离人为控制,就人工智能本身来说无过错或过失一说,无法运用过错原则或传统侵权理论中其他主观归责原则以判断责任。而且人工智能作为我们生活中的工具,没有承担责任的能力,就算受害者出于惩罚式的破坏人工智能也并不能在实质上弥补受害者,也更不能减少事故发生的概率。

而在责任的承担上,尤其无人驾驶的出现,冲击了传统侵权责任的过错分配,对于人工智能来讲,再不能以“过错”为论,而只有代码和执行下的是与非[9];同时,在人工智能驾驶领域中,主体关系发生直接的变化,原交通道路法律关系中的“驾驶人”一方在智能驾驶和无人驾驶中被弱化甚至消失,更使得传统的道路交通法律规定不再与人工智能下的新型驾驶领域相契合。

(二)法律责任的绞合

以经济学的角度,达到社会效益最大化的制度才是好的制度安排。而在人工智能的驾驶上,人工智能虽然在驾驶领域拥有行为“人”的能力,但其并不能独立承担责任,更没有法律意义上的行为能力。目前,各国对此的规制不尽相同。德国的《道路交通法》中,针对目前的自动驾驶系统对驾驶员设置了“合理时间内监管”的义务[10];美国对其引发的侵权责任避而远之,在一起无人驾驶汽车和公共汽车间的交通事故中,最终法院以人工智能视为“驾驶员”划定责任;而英国对于人工智能驾驶中的责任规定中,将汽车强制险的适用扩大到了产品责任,以在图人工智能完全控制驾驶的情形中,予以受害者一定的保障。但上述均存在一定的问题:对于德国的合理时间监管中,对于这段时间究竟有多久,如果因驾驶员没有在“合理时间内”监管引发的责任如何承担等问题并没有明确的规定,其指向不明;这种紧急情况下的突然“监管”使得汽车在一定时间内归于人工智能和人类的双重控制下,是否能达到紧急情况下要求驾驶员监管后的避险作用,还是会造成交接时间短期内造成双重控制者的慌乱还不得而知——虽然此在一定程度上属于科技探讨的领域,但也属于法律制定所须考察的因素。而对于美国该案件中人工智能担责的判例价值,最终责任的承担主体必然也指向有责任能力的“人”;人工智能驾驶责任单纯纳入汽车强制险的规定,虽然保障了受害者,但对于汽车所有者却不尽公平更甚,保险责任最终也会分摊到整体社会成员,并影响社会整体福利。

侵权责任设置是以外部效应内部化为目的,而对于仅以人工智能为由进行担责划定虽言之有据,但一方面,在责任主体理论上还无法将人工智能纳入。而在实践中要求人工智能担责,不论是目前民事上停止侵害、赔偿损失、赔礼道歉的责任承担方式,还是刑事上的管制、拘役等方式,都不宜对人工智能适用。即使将责任转移到其他“人”的身上,必将产生人工智能驾驶技术推广的市场障碍,在降低亲自驾驶车辆的各项成本(如身体、精神的舒适与便利)与增加了法律责任成本之间,理性人基本会选择放弃人工智能。当存在连带责任追究的可能性之下,避而远之是最好的策略。若如此,人工智能驾驶所推广的价值理念将失去意义,技术的革新将黯然失色。

(三)监管与保障的缺位

对于自身群体之外的其他群体或现象,人们总是采取谨慎的态度。对于新出现的人工智能,打压或抑制其发展的声音亦不绝于耳。但基于其“便于人类”的出现初衷,我们应该采取控制发展的方式。特别针对其不可预测性,监管也成为最优策略。美国《自动驾驶法案》就多注重对自动驾驶汽车的监管[11],主要通过统一监管、隐私保护和自动驾驶汽车顾问委员会的方式对这种新兴驾驶方式进行调整;在标准管理上制定了《美国联邦机动车辆安全标准》(FMVSS),以安全为目的对人工驾驶车辆进行标准限制。对于我国发展人工智能驾驶,监管可能是比较合适的选择,但同样会涉及到成本增加的问题,需要追加人力成本、技术成本甚至司法成本,投入成本最终所带来的收益,尚无法估量。因人工智能驾驶的投入适用,监管本身的职权和职责分担如何设定都将增加大量的协调成本。因此,这一领域的立法将会是漫长且审慎的。

人工智能的侵权损害当然应该要求损害者承担责任。但基于人工智能驾驶侵权的特殊性,如果要求相关人承担全部的损害责任,却在加重其成本之下抑制了对人工智能研发的积极性。因此,第三方加入给予人工智能驾驶领域研发和侵权的保障对于人工智能的安全和发展尤为重要,但也会带来人工智能车辆研发和生产的成本巨大,最终必将转嫁给消费者;同样,消费者也会逆向选择放弃。

在对人工智能驾驶领域的保障措施上,不可或缺的是国家或行业的介入。以监督方式跟踪人工智能的研发、试用的同时,也用强制的手段对其中的偏差或不当进行纠正。在保障人工智能侵权赔偿的同时,也从整体的角度力求达到保障人工智能发展的目的。但不论是国家、行业还是其他个体,这种保障动力的来源多只是基于职能的要求或宗旨的需要,不足以应对现实中人工智能驾驶形形色色的问题;特别是对于人工智能的技术性壁垒,国家或行业是否一定能够有效识别和检验是一个信息不对称的问题。因此,保障的力度也会变得谨慎[12]。

当然,也有人提出来,这种缺失通过风险保险化得到克服。保险通过风险评估、行为约束和分摊损失的环节对人工智能驾驶的检测和保障不失为一种有效的方式。英国的《汽车技术与航空法案》就提出从保险的角度对人工智能的驾驶进行规制,通过备案制度、保险制度的方式防范风险和责任分配[13]。但总体来说,保险对于人工智能驾驶还处于边缘地带,前途未卜,保险业一度认为进入成本较高,降低了对其提供保障的激励。

四、面向人工智能驾驶侵权责任的判定方法

随着人工智能的继续研究和发展,驾驶领域会趋于智能化或无人化,而人工智能发展中的不可预测性和一定程度上的不可逆性也成为其中最显见的风险之一。制度的完善当然要遵循法的区域性质以其内的具体情况为据,但同时,基于人工智能风险的共生性[14],在考察国外的经验的基础上,更需要从经济学角度对其责任进行制度设定。只有这样才能满足参与主体的“理性选择”,实现帕累托最优,并最终实现社会福利的最大化,以推动人工智能驾驶的有效推广。

(一)基于类型化思维的责任判定

人工智能以不同的形式对驾驶的渗入也决定了对此应该区分对待。首先,应区分驾驶中人工智能的类型,即无人驾驶和自动驾驶中涉及的不同情形和不同主体进行责任确定。在人工智能中,依据驾驶等级分级以确定侵权责任[15]。其次,也应该区分事故发生类型。对于事故中是人为过错或过失,还是汽车质量问题或人工智能问题进行区分。对于人为过错或过失或汽车质量问题,偏向于按现行法律规定进行处理,对于人工智能的问题,除人工智能研发制造者过错或过失,还包括目前可预测之外的问题出现;同时,事故的发生很少是一方原因造成,界定责任主体首当其冲。在对于人为或其他过错的证明上,需要科技上进一步的探索,也需要制度予以明确的回应。根据不同的侵权情形以区分设定侵权方式在立法效益上有一定意义。

基本立场是经济学的,一是防范成本低者担责原则,哪一主体防范风险发生的成本最低,责任就应该归属这一方;二是秉承过错原则,这样可以产生必要的行为激励,每个主体都应该对自己的错误行为付出代价。由于人工智能的技术性壁垒,大多数人难以实现信息对称。因此,强化人工智能企业责任是核心问题,仅此才能让人工智能在进入市场之初就具备品质保证,也是市场良性发展的最终追究。作为人工智能驾驶领域的消费者而言,存在着较为严重的信息不对称,即使熟练掌握操作技能的驾驶者而言,强大的信息支配系统已经为其设置了天然的认知障碍,其只能掌控基本的“界面”上的显性信息,却无力深刻理解人工智能驾驶的内在逻辑与机理。据此,人工自动驾驶企业的产品品质保证将是侵权是否发生的首要条件,甚至决定了侵权在人工智能驾驶领域是否适用的边界。

反观当下传统的汽车驾驶领域,主要主体为企业、驾驶人(消费者)、行人(潜在被侵权人)和保险行业,这些主体的责任认定较为清晰,可以更好地适用法律。但是,人工智能驾驶领域的责任主体将变得非常复杂,当然也可以更加简单,其取决于人工智能驾驶作为产品的保障范畴。若人工智能企业包揽了除驾驶人或第三人故意或重大过失之外的全部责任,那法律关系将变得非常单纯,甚至本文也失去了讨论价值。但是,人工智能驾驶企业是否可能将其责任范围做如此延长,是一个未知数。若此,自动驾驶企业将为其未来的潜在责任追加更多的产品质量投入和保险投资,人工智能驾驶产品的价格将居高不下,甚至让消费者望而却步,毕竟人工智能驾驶企业在资本的激励下,会毫不客气地将成本转嫁,这是基本的市场规律。据此,对于大多数消费者,也一定会选择放弃人工智能驾驶产品。如果以此逻辑进行推导的话,人工智能驾驶领域将不会发展,毕竟这一领域的主要受众是普罗大众,其产品的市场占有率才是企业生存和发展的动力。对于人工智能驾驶领域,未来出现的潜在侵权责任主体不会很简单。因为只有将责任按照不同主体的风险防范能力、行为激励方式、市场需求潜力、证据摘取水平甚至制度保障力度等因素进行合理划分,才能保证人工智能领域的有序发展,才能最终提升人类的整体福利。事实上,人工智能领域只要倾向于民用,都将面临责任主体类型化的考验。

(二)拓展责任的“射程范围”

在人工智能对驾驶领域的涉足中,相关的主体发生了变化。一方面,原本的制造商的重要性在一定程度上增加,原本驾驶者角色向安全司机方向转变,甚至完全取缔了这一角色的存在;另一方面,更是添加了系统提供者的重要地位,以及相关监管者的出现。虽然新事物的出现初期多采取鼓励的方式,但发展的过程中也应该保障安全。在人工智能介入驾驶中也应该从多方面考量进行责任划定。对于汽车制造商,仍多以汽车本身为基,对汽车本身的缺陷承担相应的责任;而安全员则根据其在执行安全控制或检测过程中是否存在过错或过失进行责任的承担;对于人工智能系统的提供者,在其过错责任之外也应该承担一定的公平责任。

责任的主体增加并非要采取在事故前对其追究的敌视态度,而是通过责任的设定通过过错或无过错的归责原则寻求受害者的补偿途径。更重要的是,通过事后责任的规定,以增加相关主体的违法成本,也在法律的引导作用下,通过行为人事前的预估和审视,对其加强警醒的作用以减少疏忽或过失的出现。

在监管责任方面,有必要在传统对驾驶领域硬性安全要求下加入人工智能软技术体系,以加强对其的监管。首先,对于人工智能技术的研发进行实时监管。必要时期可引入严格责任原则以面对人工智能背景下的反竞争或不当竞争,力求从源头上杜绝或减少研发方取巧的策略生成,进而督促经营者对人工智能进行有效的控制;其次,在流通领域加强监管。可以选择质量跟踪监测和收益分配导向的方式,一方面,通过政府、行业等第三方主体对流通环节的人工智能和汽车进行监管,以从多方面发现问题并获得反馈,进而寻求改善方式;而另一方面,也从调整收益的角度影响相关主体的初始策略形成,从而促进人工智能的研发上“能”者多劳多得,营造良好的研发氛围;最后,加强事故后处理的监管和过错方的责任。通过原则规定下责任分配的合理运用,给予受害者切实的补偿;同时,也借此警醒潜在的侵害行为人以发挥法制的引导价值。

人工智能驾驶领域的侵权也相应的伴随违约责任,即法律的责任的竞合。对于自动驾驶的消费者而言,若因自己自动驾驶产品本身造成了侵权行为,其本身也应该两套责任追究方式可以选择,这可以视损害金额由消费者自主决定。这同样对自动驾驶生产企业提出了较为严苛的产品质量要求,承担违约的产品责任的同时,如何避免因产品责任而造成侵权行为。同样,是否需要区分自动驾驶企业产品的产品本体与智能系统之间的责任,也将成为我们考量的要素。笔者认为,应该将其划归为连带责任,即对外消费者而言,其所适用的是自动驾驶产品的整体,其无力区分是产品本体还是智能系统的瑕疵造成了侵权,其直接追索自动驾驶企业的责任即可,而企业内部的连带责任将交给人工智能驾驶企业自行处理。面对知识障碍,消费者提起责任追究过程中,在面对人工智能的知识壁垒,是否可以尝试举证责任倒置也值得我们深入思考。

(三)配套规范的保障机制

基于人工智能的不可预测性和其存在的现实风险,有预防和治理之迫切需要。从目前来看,人工智能驾驶的发展最终会利于全人类,但尤其在逐步探索的过程中,无法避免侵权或事故的发生。对于这些损失,自然不能打着“发展”的旗号不予置理,也要防止过度要求相关主体赔偿下对研发积极性的打击。因此,强化第三方的保障机制尤为重要。一方面,设立国家支持,以财政支持的方式对人工智能驾驶研发方以资金支持,同时也对侵权事故受害者以制度救济保障;另一方面,加强行业保障,以监管人工直接驾驶、鼓励相关基金的形成以作为研发的后援。另外,在侵权责任承担上,可以引入保险机制。对于人工智能驾驶事故发生的可能性进行专业的计算,从而在保障受害者的同时加强对投保人的行为约束。而保险内部的竞争也可以达到人工智能驾驶领域保险环境相互监督、优化效率的目的。

国家层面的支持是站在科技带来整体社会福利的角度,其投入将考虑经济、社会乃至文化等各种要素,其所做一方面是投入财政支持,力推相关领域的创新发展,更大的保障方面是制度的保障。只有对该领域作出顶层设计才能保证该领域的健康发展,规避不必要的主体困惑和要素缺失。据此,如何理解现行民法典对于侵权问题的规定,将其适用于未来的人工智能驾驶领域确有必要。第一,如何发现法律,在民法典侵权部分的规定中发现法律要素,并将其人工智能自动驾驶领域侵权涵摄到该规定之下,主要相关的主体性要素是能够找到法律上的依存空间的。第二,如何开展法律解释,这种解释分为两个层面:一是针对该领域“两高”可以推出司法解释,对本文所论述的主体、客体、责任、分配等各方面作出更为科学详尽的解释,以便于司法审判中适用,二是法官在具体的司法裁判过程中的解释,可以根据自动驾驶领域侵权的主要参与主体、风险类型、过错方式作出基本判断,并解释侵权的法律规定,将其适用于当下个案。第三,如何推理与论证,这将是审理个案中法官的基本职责和能力,其在具备法教义学知识的基础上,如何灵活经济分析的方法,完美地实现三段论的内部论证和外部论证将考验法官在审理人工智能案件中的司法智慧[16]。

保险或行业的保障是一套社会保障体系,国家可以作出引导和支持,但无法从根本上左右其决策,真正能够提升其提供保障动力在于市场的激励,即收益是否可观。这也存在一个保险对于自动驾驶产品企业投入还是对消费者投入的问题。由于自动驾驶领域消费者自我操作空间不大,对于自动驾驶产品则热要求较高,因此,保险对于自动驾驶领域的保险投保将更感兴趣。对于消费者而言,既往的险种可能要发生变化,这种变化取决于自动驾驶产品所保证的产品责任范围,排除产品责任之后的范围,将是消费者所选取的保险范围。对于行业而言,其主要是行业规范体系和行业自律的规范体系,其更大的约束力体现在自动驾驶企业之间,其以如何制定严格的规范体系、科学的内部调处机制、高标准的准入条件,将会不断引领自动驾驶领域的良性循环发展[17]。

上述保障机制是一套从国家、社会、企业的系统工程,单靠每一个主体提供保障都难以为继,毕竟人工智能的科技与技术革新,带来的不仅仅是传统法律关系的变化,更多是技术赋权之后所带来的系列困扰。每个参与主体都没有办法依靠自身力量去完成市场、生活以及法律的改变,而且如此浩大的系统工程,也不是一个主体能够承担如此高昂成本的。只有多主体联动,才能利用各自的信息优势,以低成本的方式实现整体的社会互动,并共同促进人工智能驾驶业态的发展,实现科技带来的福利与惊喜。

五、结语

科技的发展不断给人类带来惊喜,但也危机四伏。人工智能已然成为了时代的宠儿,也发展成学界关注的焦点,并逐渐形成了关于人工智能、数字、算法、网络等各种学术讨论观点。包括刚刚开始实行的《中华人民共和国民法典》也对新型的网络侵权行为做了法律上的责任安排,但科技发展的强劲势头,总让法律的规定逐步褪色。面对人工智能,法律逻辑的拓展要创设一种新型的、面向人类现代法治之可能生活的法律逻辑。其既延续了传统法律逻辑的经典问题,又注重对在一系列人类新兴活动推动下产生的新问题之解决。据此,在方法论上而言,就需要发挥法律人的两套思维体系。其一就是法律方法的灵活运用思维,即通过法律发现、法律解释、法律论证等方法,将现有法律在射程范围内有效适用,又不超越边界而遭遇公众合法性与合理性质疑,即可接受;其二则是经济学的考量,无论从社会治理效能角度还是理性个人角度,成本的合力算计,能够让制度设计更加润滑,增加制度与社会的粘性。也因此,法教义学与社科法学(抑或法经济学)的底色是一致的,其追求的都是以方法系统解释、构造制度,追求社会、公众的可接受。这种可接受性既有制度意义上的,更有心理层面,虽然看似玄幻,但在具体个案之中基本能够实现平衡,尤其是加入整体社会整合力量。也因此,针对人工智能驾驶侵权领域的思考,本文也融合了解释学和经济学的成分,在现有制度框架内,整合规制资源,类型化责任主体、考量成本投入,适度完善或拓展制度辐射范围,通过法律解释即可完成经济学意义上考量的责任设定使命,最终实现了方法系统的合力。

猜你喜欢

领域人工智能主体
论自然人破产法的适用主体
领域·对峙
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
关于遗产保护主体的思考
新常态下推动多层次多领域依法治理初探
论多元主体的生成
肯定与质疑:“慕课”在基础教育领域的应用