APP下载

人工智能时代多式联运承运人风险及其法律规制路径
——基于中俄陆海联运的视角

2022-12-17徐玉梅尉明洋

学习与探索 2022年7期
关键词:承运人陆海中俄

徐玉梅,尉明洋

(1.东北农业大学 公共管理与法学院,哈尔滨 150030;2.外交学院 国际法系,北京 100037)

一、引言

加拿大学者莱韦斯克(Hector J.Levesque) 将人工智能(Artificial Intelligence, AI)定义为“基于知识的系统”[1]。人工智能, 作为研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学, 旨在了解智能的实质[2]。也有学者指出,当前关于人工智能的讨论,无论是理论还是实践领域,都缺乏对人工智能本质的清晰界定[3]。2017年,国务院发布《新一代人工智能发展规划》指出:“人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。”人工智能具有的庞大数据信息优势、极强的运算能力及自主学习的优势,也使得多式联运全运输环节智能化与无人化不再是一种空想。随着人工智能算法模型的深度变革,以及超级AI的出现,人类已经无法预测人工智能发展的上限所在,但依照目前的趋势,人工智能与多式联运全链条的深度融合已经成为现实,人工智能每向前突破一次,都会冲击多式联运行业的生产秩序,直接影响甚至改变多式联运行业各主体可能承担的风险。

作为“一带一路”的主要贸易通道,中俄陆海联运面向东北亚各国,与日本、韩国经贸往来日趋频繁,可以满足区域贸易的需求。通过建立江海联运和陆海联运大通道直达俄罗斯、日本、韩国,还可以到达欧洲各国[4]。随着人工智能的迅速发展,中俄陆海联运的智能化、自动化水平明显提高,人工智能嵌入到各个运输环节,在路线规划、无人驾驶、配载装卸等方面产生了革命性影响,明显提高了运输效率,降低了运输成本,促进了区域贸易额的增长。在铁路运输环节,人工智能应用于车号识别系统、集中系统与相关设备,根据铁路生产运行特点,实现了信息实时反馈,使作业计划得到更加智能的编排,使物流系统中的各项信息得到动态整合,实现信息、物流与资金流“三位一体”[5]。在海上运输环节,通过人工智能技术和算法优化,结合船舶箱量分布、箱型比例、挂靠港、货物堆存、机械设备状态、班轮航线、泊位、货源等信息,船舶配载自动完成最优配置。除此之外,随着智能船舶控制系统,海洋、气象、水文等智能识别技术的不断完善,无人驾驶船舶也已经成为可能[6]。在港口卸货过程中,视觉人工智能对标准集装箱的箱号、箱型、内集卡作业号、车道、空/满集卡、装/卸船状态、单小箱压箱位置、前后箱门朝向等,实现了极高准确率的自主识别[7],通过扫描集装箱体上的二维码,读取货物信息、状态。在挂钩之前,对集装箱锁孔的位置的识别准确后,借助起重机,通过吊臂将集装箱卸离。借助人工智能,中俄陆海联运的各个环节已经不需要大量的人工从事繁琐复杂的工作,极大地降低了运输成本,提高了运输效率。因此,本文将基于中俄陆海联运视角,分析人工智能时代多式联运承运人面临的新型风险,论证新型风险的类型、生成原因及外在表现,探讨法律规制路径,实现人工智能时代多式联运承运人风险的法律规制。

二、多式联运承运人操作风险及生成原因

在实践中,即便技术最为顶尖、最为成熟的人工智能,也同样难以消除操作不当与系统失灵的概率。中俄陆海联运作为多式联运的一种,部分使用的人工智能未完全脱离工具性质,自主化水平较低,承运人首先面临的就是操作风险。所谓操作风险,是指在承运人应用或者人工智能自主控制过程中产生的操作失误而引发的风险,这一风险主要包括操作不当与系统失灵。

(一)操作不当风险

操作不当是指承运人在应用人工智能的过程中存在过失或过错,致使人工智能的硬件设施功能出现偏差。操作不当风险根源于人工智能的工具属性。在中俄陆海联运的各运输环节,操作不当的风险比较常见。例如,在装卸过程中,因承运人应用人工智能不当,出现识别不准、吊钩与锁孔对接不紧及放置错误等情形导致吊装事故;在智能配载过程中,由于承运人应用人工智能不当,引发的配置计算错误、配置不合理等。究其根本原因,主要是承运人的过错。

过错(fault),包含行为人主观上可受谴责性的程度以及不同程度的疏忽或过失两层含义。在中俄陆海联运中,对于人工智能的应用,承运人过错主要源于控制性义务的履行。承运人在人工智能应用操作过程中,除承担辅助性的监管义务外,往往还承担决定性角色,即控制、使用人工智能来完成工作任务。在工作过程中,承运人极可能出现指令错误、操作不符合规范等不当行为。由于承运人是人工智能应用的直接控制者,享有最高的控制权限,其看似轻微的不当行为极有可能直接转化为风险。

过失(carelessness)包括主观过失和客观过失。在中俄陆海联运中,主观过失是承运人的一种主观心理状态,预见可能性是这一状态的主要判断标准。该过失主要源于承运人辅助性义务的履行不当,具体体现为承运人在监督管理人工智能自主操作过程中,未能尽到谨慎监管的义务。总的来说,主要体现为以下几种情形:一是未能及时发现人工智能在操作过程中出现的异常情况,没有尽到在合理的范围内预防风险发生的义务;二是对人工智能输出的结果,没有及时全面审查以防止危险发生;三是对于硬件设施的操作过程没有全程跟进、没有预先调试,在设备运行过程中没尽到注意义务。当风险发生后,未能及时有效的处理风险。客观过失主要以“合理人”或称“善良家父”为标准判断承运人有无过错,是一种客观化认定过失的标准。

总之,这种过错并不完全等同于侵权责任法中的过错。承运人的过错应当与风险的发生具有事实上的因果关系,并且要考虑承运人是否具有防止风险发生的能力以及风险的发生是否在其可预知的范围内。具体而言,应符合以下三个条件:一是风险是由于可查明的不符合操作规范的过失与过错引起的;二是在其可预知的范围内;三是承运人本可以杜绝过失或过错。

(二)系统失灵风险

系统失灵是指人工智能算法机制产生混乱,系统不受控制或无法作出反应导致的决策障碍。实践中,具体表现为在人工智能决策过程中,受内外力的作用,产生的路线规划错误、配载方案混乱、装卸操作失控、系统瘫痪、决策机制矛盾混乱以及大量错误指令的发出与执行等。系统失灵风险发生的主要原因包括人工智能系统的内在与外在两方面。

首先,内在原因即系统本身存在瑕疵。此种瑕疵多由于研发缺陷或者技术水平不够。研发缺陷多指程序开发者在设计开发方面存在瑕疵,从而导致产品成熟度不足。研发缺陷的认定,应当考虑研发者的能力范围以及技术要求是否达标。当前述缺陷与风险的发生有事实上的因果关系时,才能成为严格意义上的内在原因。内在原因除了研发缺陷,还有技术水平不够,而技术水平更多地受制于行业内以及相关行业的整体科技水平,法律不能过多地苛责此部分原因。内在原因在理论上是不可避免的,因为无论何种形式、何种技术水平的人工智能都无法确保百分百的准确率,也无法保证能够完全适配任何一种未知场景。值得注意的是,人工智能操作的最大效率与操作容量是有上限的,超过此限度,诱发风险的可能性将会大大增加。

其次,外在原因,即外在条件的不足或消失。该风险根植于中俄陆海联运中各个运输环节的不确定性,以及面临的大量具有特殊性的新挑战。当人工智能同时面临跨国的多个场景中的复杂因素时,处理决策的难度较大,这对网络传输速度、人工智能算法的处理效率、决策机制的可靠程度以及硬件设施的操作准确度都要求比较高。无论哪一个环节出现风险,都将直接导致整个运输链条的停滞。这就需要人工智能研发者综合考虑应用的场景,提高产品的适配性与操作效率,符合多式联运的实践需求。

综上所述,操作风险在多式联运环节均大量存在。司法实践中,由于承运人是实际应用者,其过失与过错较为透明,对照操作日志或者对现场进行勘察便可得出初步结论。而问题在于,当承运人与其雇佣人员等已经最大限度地、适当地履行了相关义务,那么此时谁来承担因人工智能操作失误或系统错乱引发的额外费用与赔偿责任?法律必须对此风险作出回应。若已经合理、全面履行相关义务的承运人仍然代替实际履行该义务的人工智能对全部清点工作的失误承担全部责任,则是对承运人责任的无理由加重,也是对承运人责任承担能力的苛责。

三、多式联运承运人衍生风险及外在表现

所谓衍生风险是指人工智能的研发或经营主体通过影响或控制人工智能自主化、智能化的行为,逃避监管以攫取非法利益的风险,以及人工智能深度应用脱离控制产生的风险。衍生风险具有不易察觉、难以定性与归责困难的特征,其产生的主要根源在于人工智能和运输行业深度融合水平的提高与立法滞后性之间的矛盾。类型化思维作为一种价值导向的思考方式,能够保持法律规范的开放性和确定性的良性平衡[8]。只有根据风险产生的原因、本身的性质将风险类型化,有针对性地进行法律规制,才能控制风险。如前文所述,随着人工智能自主化水平的提高,人工智能客体性隐含的操作风险逐渐向主体性趋势引发的衍生风险转化,呈现出三种不同类型风险并存的发展趋势。

(一)数据信息资源的泄露风险

人工智能被应用于多式联运各流程,具有抓取、识别、录入数据信息的功能与权限。同时,在人工智能应用数据信息过程中,势必会在数据信息读取和传输的信道中留存痕迹。即使删除,通过技术手段还原数据信息也并不困难。而且为防止数据信息丢失,在每一个信息运输的端口,数据信息通常会进行备份存档,拷贝数据信息的难度较低,信息泄漏的风险增大,且难以筛查信息泄露的具体环节。数据信息本身可被反复读取,读取次数的增加不会损害数据信息的完整性。在理论上,只要存储数据信息的硬件设施未损坏,数据信息便可长期储存且可被反复读取。简言之,数据信息本身所具有的易获得性时刻威胁着存储在人工智能里的数据信息的安全性与隐秘性。

中俄陆海联运中涉及大量的数据信息,主要包括承运人在中俄口岸通关上报的信息,随运输方式更换(陆运—海运)转移的数据,运送货物的名称、规格及数量信息,船次、运费及承运人的信息,托运人、收货人的信息等,在这些信息中,不乏具有敏感性、商业价值的信息以及已采取保密措施的商业秘密。若为竞争对手知晓,可能会损害数据信息所有者或其他主体的合法利益。而人工智能应用也依赖于一系列配套服务,如云服务、大数据统计等。人工智能应用的运输环节所包含的所有数据信息,都会上传至数据库,作为日后操作决策的参考以及深度应用的基础。如此一来,大量的商业数据信息就会被暴露于众多的应用人工智能的关联服务运营者面前,数据信息的隐私性、保密性难以保证。如若不进行适当规制,甚至将会危及国家的数字主权。

应对所有风险,都必然涉及义务主体与责任承担问题。人工智能应用于多式联运环节所产生和读取的数据信息,当然也是法律保护的对象,由此,人工智能也应是数据信息保护义务的承担者。然而,现行法律尚未界定人工智能的性质,对人工智能的侵权行为的法律救济也未明确,那么,此种情况下承运人是否应该承担运输过程中因人工智能导致数据信息泄露产生的法律责任?

(二)算法不透明引发的失控风险

算法是一种有限、确定、有效的,并适合用计算机程序来实现的解决问题的方法[9]。倘若将数据信息比作人工智能的基础资源,那么算法就是人工智能得以应用的核心处理器,是其具有自主性的关键。人工智能自主水平的高低,主要依赖于算法的先进程度。算法越先进,其内在的程序设定就越复杂,这是由现阶段人工智能模仿人类思维进行深度学习的本质属性决定的。在中俄陆海联运中,算法主要服务于路线规划、自主驾驶、自主配载以及自主装卸货等方面,对自主化水平与稳定性具有较高要求,时刻考验着算法对于各种影响因素的综合评判能力、面对新情况自主处置的可靠性以及自主操作的安全性。而算法本身隐含着设计或者应用不当的潜在风险,从法价值的角度来看,法律内含的秩序价值也决定了法律必须对可能出现的风险进行规制。规制的行之有效,离不开全面高效的监管。然而,算法的不透明性一直是中俄两国对算法进行监管的障碍所在。算法的设计者掌握着算法的全部信息与模型,而监管者以及公众却难以全面地了解算法,信息偏在尤为明显。而且输入的数据暗含偏见、测度偏差、变量不足以及不适当的标准等原因都有可能导致对特定群体的不利影响[10][11]。在中俄陆海联运项下,应当防范算法的研发者利用监管漏洞,规避法律与公序良俗以攫取非法利益。例如,在选择经停的港口时,算法的决策机制受人工与资本的控制,会优先选择有关联利益的港口;在面临伦理难题时,会优先考虑经济利益等。可见,算法价值观中的偏见与歧视,侵蚀了传统的社会正义[12]。退一步看,即使算法设计者无主观恶意,倘若由于算法不完善或者算法的自主学习从事了超出研发者认知能力或超出原本设计范围的行为时,又应当怎样认定,如何归责?

此外,在中俄陆海联运中,对算法的监管面临着法律空白的尴尬。法律尚未对人工智能进行明确的指引或规制,也未对算法层面的智能配载、自主装卸、无人驾驶、物流作业的智能调度等进行规范。由于法律对算法的性质没有定性,发生风险后,责任主体模糊不清,算法经营者将以商业秘密对抗监管的透明化要求,以技术中立、言论自由推卸责任,客观上给算法野蛮生长营造了宽松的环境。

(三)承运人责任加重的风险

此处的责任是指伴随操作风险与衍生风险产生的法律责任。责任加重是指由于法律规制的欠缺,导致承运人无理由地承担上述责任的情形。这一风险产生的原因是多方面的。

首先,操作风险与衍生风险并存。随着人工智能自主化水平的不断提高,深度应用的能力不断增强,其自我意识持续觉醒,自我控制能力不断提高,渐有突破客体性的趋势。其引发的风险类型不仅局限于单一的操作风险,还增添了衍生风险。两种风险并存,改变了原有多式联运行业的风险架构,使得承运人在开展多式联运业务时需要对两种风险同时进行审慎考虑。此时,责任问题也变得更加混乱。操作风险具有客体性,保有人工智能的工具属性。在中俄陆海联运中,主要体现在装货卸货环节,本质上与传统的产品使用风险相同。而衍生风险主要是由人工智能的自主行为所引起的,诸如前文提到的有关数据算法的风险,一旦发生将会影响整个产业链,造成的损失也可能难以估量。而中俄两国的法律法规没有对这两种风险的性质进行界定,对可能出现的风险叠加情形更未进行考虑,由此,导致了承运人的责任风险加重。

其次,人工智能的客体性质使其无法承担法律责任。现代控制系统乃是“人—自动机”的形式,起决定性作用的还是人,机器毕竟是人的功能的延续,是对人的能力的增强和完善[13]。由此可以断定,把责任交由人工智能承担是没有依据的。中俄两国现行法律并未赋予人工智能主体地位,人工智能不具备责任能力,即人工智能的自主性与其所处的法律地位相矛盾。即使顺应人工智能的发展趋势,通过立法赋予其法律关系主体地位,当人工智能因自发意识、自我控制、自主操作不当产生侵权责任时,也无法对受损害方作出有效补偿。

最后,归责体系缺失。如前所述,人工智能无法承担责任,而为了补偿侵权损失,责任又必须有主体来承担,那便只能进行责任转嫁。科学合理的责任转嫁的核心在于健全的归责体系,任何脱离归责体系的归责,都违背了法律最基本的公平价值,将动摇法律存在的根基。在中俄陆海联运区域内,人工智能产生的所有责任毫无疑问回到了人工智能的关联主体——承运人或人工智能的研发者、经营者身上。但是,由于没有明确的归责原则、归责方式,加之衍生风险监管的难度较大,对于过错的认定十分困难。而依据现行的过错责任归责原则,如不能证明人工智能的研发者或经营者对损害后果有过错以及因果关系,就无法归责。如此,人工智能在多式联运过程中的侵权责任往往由承运人最后承担。虽然《海商法》第51条航行过失免责规定了非承运人的过失即可免责,但人工智能应用多式联运过程中,承运人免责却无法实现。在现阶段乃至未来一个时期内,人工智能只能是法律关系的客体,多式联运行业的人工智能只居于从属地位,即便人工智能应用的环节场所贯穿于承运人负责的整个运输链条。

四、多式联运承运人风险的法律规制路径

多式联运承运人风险的法律规制涉及中俄两国的法律。在中国,《中华人民共和国民法典》(以下简称《民法典》)的运输合同部分只对承运人的基本义务作出了规定,而且提及承运人的条款大都侧重于法律责任,并未考虑承运人因人工智能所面临的风险的法律规制。在涉及人工智能领域的条款中,第127条是对数据信息、虚拟财产的转引规定,将有关数据信息的法律问题交由专门的法律来解决。此外,《中华人民共和国海商法》第47、48、49条规定了适航义务、管货义务与合理绕航情形,将承运人所承担的义务类型化,是承运人承担法律责任的法理依据,其细化有利于降低承运人风险。第51条为航行过失免责条款,规定了非由于承运人或者承运人的受雇人、代理人的过失造成的其他原因免责。但是,正如前文所述,这些规定并未起到预期效果。在俄罗斯,《俄罗斯联邦商船航运法典》以船舶为中心构建的法律体系对法律责任的设定以具体化风险为依据,未对人工智能引发的承运人面临的新型风险作出规定。因此,有必要尽快制定中俄陆海联运双边条约,以优化数据流动与监管模式,实现算法竞争与监管透明的动态平衡,明确责任主体范围及归责原则。

(一)优化数据流动与监管模式

首先,政府应当对数据信息进行闭环监管。数据信息在中俄陆海联运各个运输环节中都有产生,除了依据现有的法律框架进行监管,还应当根据中俄陆海联运的特定背景,进行更加严格的监管。闭环监管是指对数据信息产生的源头直至数据信息最终储存的全过程的监管,对于任何可能导致数据信息外流的“软件后门”(1)软件后门指绕过软件的安全性控制,而从比较隐秘的通道获取对程序或系统访问权的黑客方法。引自MBA智库百科。以及部分封闭性不足的环节采取针对性的技术手段进行封堵。针对中俄陆海联运模式多环节、多主体的特点,可以利用技术手段,对每一环节的数据信息单独编码或者附加不同的保密标识,一旦数据信息泄露,通过流出的数据信息中的编码或者标识,可以精准定位数据信息泄漏的具体环节。数据信息的闭环监管,可实现数据信息的采集、传输及储存整个过程可控,有利于营造并完善数据信息保护的良好环境。

其次,以立法保证数据信息流动透明化。在中俄陆海联运中,不同运输环节数据信息的传递方式、传递内容也有所不同,但其流动方向是一致的——流向人工智能背后的云服务器以及数据库。人工智能以及相关服务的提供者将会以人工智能深度学习的必要、利用收集到的数据信息优化服务、提高人工智能技术水平与成熟度为借口对收集存储数据信息进行辩护。然而,这些必要性并不等于排除监管。数据信息资源一旦上传至云服务器或者数据库,被二次甚至多次商业利用的可能性将大大增加。与零散的数据信息相比,这些数据信息经过整理后具有集成化与规模化的特征,具有资源性质,商业价值必然水涨船高,相关服务商违法利用数据信息资源的推力将大大增加。由于多式联运行业数据信息链条的特殊性,仅在违法行为发生后或者损害结果产生后进行处罚,监管效果是有限的。只有增强数据信息流动的透明化程度,监管机关全面掌握数据信息的流动过程,才能化解监管的诸多障碍,切实提高监管效果。要提高数据信息流动的透明性,需要人工智能及相关服务的提供者将数据链向监管机关备案,监管机关利用各种技术措施对数据链进行整理分析,预测数据信息资源可能的流向领域,实现数据信息链全过程的动态监管。

最后,国家应当加强对数据信息跨境流动的干预。数据信息的安全不仅关乎商业竞争,还涉及数据主权。中俄陆海联运是中俄贸易的重要通道,其运输过程中的数据信息直接反映着两国的经贸往来情况。为防止其他国家获得相关数据信息,有必要加强中俄政府合作来进行干预。国家在数据问题上拥有较为宽泛的规制权,只要数据或数据产生的影响发生在一国境内,或者对该国(该国公民)产生实质影响,国家就可以行使对数据的管辖权[14]。2017年我国发布的《网络空间国际合作战略》专章规定了主权原则,同时在专门立法中也将数字主权上升到国家安全的高度,足见我国对数字主权问题的重视。《网络安全法》《数据安全法》都明确规定开展数据活动应当采取相应的技术措施或者其他必要措施,保障数据安全。因此,不管是境内或者境外的人工智能的服务者,只要在境内产生或者收集数据信息,就必须对其安全性、保密性负责,并不得私自转移至境外。监管机关有权依法对跨境的数据流动进行干预,打击私自转移数据资源的违法行为。然而,中俄陆海联运区域尚无统一的法律规范,缺乏具体的实施细则。由此,应当探索通过构建陆海联运双边公约,将数据信息收集等相关主体的义务具体化,规定相关主体所应当采取的具体的保密、安全手段,同时规定相关主体的责任兜底条款,迫使其主动履行义务。此外,应当丰富干预手段,探索将技术性手段深度融入监管机关监管的现实路径,对跨国境的运输环节的信息流动进行共同管控,保护中俄陆海联运中的数据信息。

(二)实现算法竞争与监管透明的动态平衡

算法本身具有不透明性与复杂性,人们通常对输入的原始数据、指令以及输出的结果有着直观的认知,但无法了解算法作出决策的过程,这也对监管机关的监管造成了诸多障碍。由于算法是人工智能运行的核心所在,算法的成熟先进与否直接决定着人工智能企业之间的竞争,算法经营者会利用商业秘密与技术中立逃避算法透明化的要求。由此,必须对算法进行规制。

第一,精准界定商业秘密的范围。我国《反不正当竞争法》第9条规定:“本法所称的商业秘密,是指不为公众所知悉、具有商业价值并经权利人采取相应保密措施的技术信息、经营信息等商业信息。”此处的商业秘密是一般意义上的。在中俄陆海联运中,如若不对商业秘密进行限缩解释,算法透明化就难以推进,算法黑箱仍将持续存在,对算法的监管将举步维艰。然而,作为商业秘密的算法也是人工智能企业竞争的核心所在,一味地限缩商业秘密的范围,将会影响企业技术革新的积极性,也会引发知识产权争议。应当在推动算法透明化的同时保护商业秘密,实现两者的均衡。基于此,首先应当界定商业秘密的范围,与有关知识产权的法律法规进行双重保护。其次,应当建立事前备案申报制度,算法经营者承担如实登记算法的各项必要信息的义务,例如登记算法自主学习可能涉及的范围以及引发的风险,对算法的控制力等。还应当附加算法经营者的说明解释义务,强制其说明算法的运行机制,解释算法作出决策的依据。同时要求算法经营者实时监测,保留运行的数据日志,及时发现并处理运行过程中的异常情况,尽可能避免风险发生。

第二,有必要基于算法非独立性与伦理困境的角度,对技术中立观点进行驳斥。在现代的控制论观念中,自行组织、自行完善、自行学习诸如此类的概念,其含义是有相当条件的,因为它们必须以积极和人的相互作用为前提,没有这种相互作用,任何机器都是毫无独立性的[13]。算法的本质仍然是人类设定的程序。在多式联运行业,弱人工智能的应用占据大部分比重,算法的研发者对其底层程序几乎享有绝对意义上的控制能力,任何经由算法自主学习决策的客观结果,都有可能是设计者控制下的底层程序的主观映射。技术的设计与实现离不开设计者的因素,现阶段多式联运领域的人工智能是人工下的智能,在其未实现人格化的前提下,算法的技术中立其实是伪命题。即使强人工智能主导了多式联运行业,实现了人们畅想的深度学习,突破了客体的限制渐趋人格化,那么技术中立的实现也还有伦理困境难以逾越。纵观算法发展历程,支撑其发展的学科基础主要是逻辑学与博弈论,通过将各种选择公式化、结果类型化,从而得出最优解。而伦理命题恰恰是没有最优解的,人类面对伦理困境作出的决策,只能评判其在何种意义上符合何种伦理原则,没有关于正确与否的合理标准。算法在设计之初便没有伦理模块,而在人类社会,伦理命题是优先于逻辑命题的。无论人工智能发展到何种程度,都难以逾越这一鸿沟。人类社会历经几千年,时至今日仍未确立伦理原则的标准,更无统一的优先顺位,现今所有人工智能自主学习的进展,实际上都未能超出人类的伦理目光所及。人类仍然控制着算法的底层程序,伦理困境的乌云时刻笼罩着人工智能这座初升的大厦,技术中立遥不可及。算法经营者引用技术中立辩护没有现实与法律依据。

第三,应当做到监管的重心前移与环节延展。从事前的登记备案到算法的运行,都应当实时跟进,实现动态监管与全环节的系统监管。现有监管体系的重心侧重于事后追究,以法律责任承担为中心,这种方式不利于提高监管的实效。算法本身具有不透明性与复杂性,其自主学习能力又导致不确定性增加,导致算法在应用中极易出现决策风险。中俄两国应当通过构建中俄陆海联运双边公约,规定算法登记的具体内容,对可能出现的算法风险分类进行归纳并作出处置预案。此外,监管机关应当借助技术手段介入算法的运行、决策过程,从而推动监管方式由静态监管转变为动态监管。

(三)明确责任主体范围及归责原则

操作风险与衍生风险的并存致使承运人责任承担加重。要解决责任承担加重的问题,应当追根溯源,理性认知上述两种风险。当出现两种风险并存并产生法律责任时,确定责任主体范围、分别归责是厘清责任的关键所在。

第一,界定责任主体的范围。人工智能应用具有一定的自主性与智能性,其行为的自由度与自主化增添了确定责任的难度。在人工智能成为法律关系主体、具备责任能力之前,其无法承担责任。如上文所述,当人工智能行为不当引发责任问题时,责任通常落到人工智能设计者、经营者以及使用人身上,而这对于使用人而言过于苛刻。因此,有必要对人工智能技术的发展状况进行类型化分析,针对不同的智能化程度,界定责任主体。根据人工智能技术的发展状况,智能机器人可以被分为普通智能机器人、弱智能机器人和强智能机器人[15]。据此,人工智能亦可分为普通智能、弱智智能和强智智能三类,其中,普通智能和弱智智能不具有自主意志,人类设计和编制的程序范围是其实施行为的依据,当人工智能行为不当引发责任时,理应由人工智能设计者、经营者以及使用人承担完全责任;对于强智智能则不然,其具有自主意志且实施的行为能够超越人类设计和编制的程序范围,那么,其行为不当引发责任时,自然由人工智能设计者、经营者以及使用人承担部分责任。在中俄陆海联运中,人工智能属于服务或产品,承运人与人工智能设计经营者的身份是使用者与提供者。如前文所述,应根据人工智能的类型,确定责任主体。值得注意的是,由于承运人是使用人,可以借鉴法律针对消费者的相关规定,承运人承担合理使用的义务,按照使用说明书与使用协议等在约定的应用范围内使用,并在理性经验的范围内尽到预防风险的义务。倘若违反义务则应承担因此发生的法律责任。相较于承运人,人工智能的设计者与经营者的义务必然更多,责任承担的情形更为广泛。因此,立法应当采取特殊的归责原则,结合监管面临的实际障碍进行综合考量。

第二,针对不同责任适用不同的归责原则。中俄陆海联运承运人的责任与人工智能的智能化程度及自主意志密切相关。承运人的责任确定在实践中面临多种情况,若无相应的归责原则,将会加重承运人的责任。归责原则是责任划分或者承担的“游戏法则”,既是责任归属的依据,也能够确定不同种类责任的构成要件和免责事由[16]。归责原则明确责任及其承担,表面上是对承运人权益的救济,实质上体现的是中俄陆海联运承运人责任制度的价值取向。如前文所述,囿于人工智能的自主性和智能性,中俄两国应构建陆海联运双边条约,结合智能化程度,探索适用有边界的严格责任,综合考量人工智能的先进程度以及自主意志等相关因素,确定责任边界。在边界范围内,法律推定承运人可以做到绝对意义上的控制与预测的,应当承担因人工智能造成的责任;对于责任边界外超出人工智能使用人——承运人能力范围或者预测范围的,普通智能和弱智智能下,承运人无需承担责任;在强智智能情况下,则适用比例原则与公平原则分配责任更为适宜。结合风险类型,操作风险的发生只可能来自使用过错、产品瑕疵或缺陷或者第三方的介入,应以过错作为标准界定责任,即适用有边界的严格责任。而对于衍生风险,应转变传统立法思路,把重点放在是否产生实质性影响上,优先适用比例原则与公平原则。

猜你喜欢

承运人陆海中俄
陆海之纵
陆海新通道铁海联运班列今年开行破1000班
从一则案例浅析空运单“ISSUING CARRIER”
薛范:毕生译配只为中俄文化交流
空运单签署中的承运人识别
强强联合!中俄将在航天领域深度合作
建设国际国内物流大通道的关键举措是什么
穿越新丝路——渝新欧暨中俄两河流域
美想用亚洲反导网罩住中俄
一种奇巧的测角法