APP下载

人工智能侵权行为规制

2021-11-29邹晓红王乃冬

关键词:销售者规制人格

邹晓红 王乃冬

引 言

人工智能为服务特定领域诞生,基本以商品的形式存在,随着社会的发展与科技的进步,其使用已具有一定普遍性。比较典型的人工智能为智能音响、语音识别机器人、汽车自动驾驶系统,以及一些人工智能在线客服等。但是人工智能在快速发展的同时,产生了一系列侵权事件,例如特斯拉自动驾驶系统,发生交通事故造成驾驶者死亡;“小胖”牌机器人发生伤人事件;蔚来汽车自动驾驶发生交通事故,导致驾驶者死亡等。这些侵权事件的发生对我国现有的法律体系造成了巨大的冲击与威胁,要求对人工智能侵权行为规制进行相关的研究。同时,人工智能基于算法而诞生,但是其运行算法与其他算法不同,该算法的产生使得决策者与相对人之间的数字鸿沟加剧,进而出现权利失衡、无处追责的情形愈发多见,并由此引发了伦理问题,值得进一步讨论和思考。

当前,人工智能愈发盛行,使得我国侵权责任法传统的归责原则在智能环境下过错的认定受到冲击。[1]我国的侵权归责原则,包括过错责任、无过错责任与公平责任,而人工智能基于其基本特征,侵权责任只能暂时适用产品责任。但是人工智能是否具有产品责任,则需要根据《产品质量法》中,关于产品的国家标准与行业标准,来判断其是否具有产品缺陷,存在产品缺陷的人工智能才具有产品责任,因此人工智能引发的侵权问题较难解决。

人工智能是社会与科技迅速发展的产物,与以往产生的新科技不同,其产品标准难以适应其他“正常”产品的标准和要求。同时,对产品设定的标准与要求,在实质上是对产品的最低要求和标准。现今社会,关于产品标准的制定和修改滞后,而滞后的标准更不能对人工智能产品起到规制作用。人工智能具有类似人类独立思考的能力与独立自主的行为能力,是社会发展中重要的一部分,为避免人工智能发展日益冲击现有法律体系,对社会公众的日常生活产生不良影响,我们需要对人工智能的侵权行为进行规制,平衡人类社会与人工智能之间的关系,维护法律权威。

一、人工智能算法规制

马长山认为:“掌握了数据,就意味着掌握了资本和财富;掌握了算法(Algorithm),就意味着掌握了话语权和规制权。”[2]人工智能算法的复杂性,使得其挑战了法律的基本原则,对现有法律体系造成了冲击。人工智能由算法、规则和模板组成,对其进行监管与规制,需要进行外部监管、算法公开与个人数据赋权三种方式。

(一)外部监管与规制

根据现有社会发展的科技数据显示,我们已然步入算法时代,尽管人工智能受人类支配,但是算法已经开始深入社会生活的各个方面,且大数据时代与信息化时代皆是以算法作为基本发展动力。

对于算法的外部监管与规制,应当从政府与平台入手,再以法律法规对其进行管理,例如《网络安全法》与《数据安全法》。政府的监管机构应当使用“司法测试和新技术”来敦促算法相关企业遵守法律法规和其他内控性质的规范,不单纯以命令式的硬性规定来规制算法技术。平台的监管应当为,算法平台自身严格履行风险防范的义务,对于自身的信息技术与数据进行保护与管理,在此基础上,配合现有管控制度,对算法活动进行监督;算法活动的监督可以采用分级分类管理的方式,先对不同的算法活动进行分类,对其可能产生的风险进行等级划分,平台随即对其制定不同的监管方式。

另外,对算法进行规制可以以公共滋扰定性算法妨害。当算法运行满足公共滋扰的判定标准,即足够广无差别地对群体造成伤害且无人负责,就可以以公共滋扰对其定性,这就构成了算法妨害,可以对算法进行规制。算法妨害满足公共滋扰的判定标准,其造成的伤害是群体性的。算法中的数据在处理过程中可能被其他平台采纳,甚至通过显化用户的弱点而导致整个公共数据体系的瘫痪。算法妨害通过个人诉讼无法解决,需要通过集体诉讼方式处理,进而以公共滋扰定性算法妨害在归责原则的适用上,应当适用无过错责任。

(二)算法公开

算法公开将在一定程度上对算法起到规制作用,但是算法公开可能会引起算法知识产权被侵权的情形,因此以规制算法为目的的算法公开,需要三个条件,以保证算法的知识产权受到保护,以及避免算法公开导致其他主体权益受损。

第一,有特定指向的决策体系的公开。算法的透明性可以部分实现,算法公开不应当是一般性的源代码公开,一般性的源代码公开无法起到帮助规制算法的作用;而对于算法进行解释,也不符合算法公开的目的,因此应当有特定指向的决策体系的公开,为不同主体起到帮助作用。

第二,算法公开需要区分。不同类型的算法公开的原则应当存在区别。例如公权力机构以外机构的算法,可以以商业秘密为由,进行部分公开,保障自身权益;公权力机构的算法公开,应当以公开为原则,不公开为例外,避免公权力机构垄断的产生;不同的主体应当根据情况的不同,承担不同的责任以及算法公开的程度。

第三,算法公开的程度与范围需要区分。不同主体进行算法公开的范围与程度应当视情况进行区分。例如,公权力机构的算法公开应当尽可能地公开,必要情况或特殊情况下不进行公开,并且公权力机构算法公开的形式,应当采取普通人可以理解的方式进行算法解释;非公权力机构的其他主体的算法公开,应当比公权力机构的要求宽松,因为非公权力机构难以构成垄断等危害公众权益的情形。

(三)个人数据赋权

个人数据赋权可以应对人工智能算法问题,本质在于个人对数据的掌控。与个人数据赋权的相关法律规定,也是依赖个人对数据的控制,从其数据的角度着手,对人工智能算法进行规制。欧美国家对于个人数据赋权的相关权益,为知情选择权、数据访问权、数据删除权等权益,全方位保护个人数据的相关权益,并且数据的控制者与处理者需要承担维护个人数据安全的责任。

从个人数据赋权的角度对人工智能算法进行规制,需要注重数据的伦理规制与动态规制,人工智能算法的创造与运行,很大程度上取决于数据的累计,大数据为人工智能算法的准确性提供基础,但是人工智能算法倘若一味地依赖大数据,则可能会侵犯公众个人隐私。大数据本身就涉及到公民隐私的问题,其本身具有混杂性。人工智能算法对大数据的运用应当符合对个人数据处理仅用于初始目的,并且限期存储,一定时期自动销毁。现今社会,公民的个人隐私由于大数据的因素,时常受到侵犯,例如售楼处运用人脸识别,对公民的消费水平进行调查,也是明确的侵犯公民个人隐私权的行为。人工智能算法对大数据的运用,应当注重此类数据处理是否符合相关伦理与人格保护,而非一般性禁止数据的流通共享。[3]

二、人工智能侵权责任分配

人工智能侵权责任的分配需要在保护受害方的前提下进行,以自动驾驶汽车事件为例,倘若仅由人工智能的生产者承担产品责任,无疑会阻碍科技的发展。人工智能侵权责任的分配应当依托现有侵权责任体系的基础进行完善,适度根据社会需要进行调整。按需调整后的人工智能侵权责任分配体系应当完成风险分担闭环,保证侵权责任分配体系的完整性,为后期构建相关法律框架提供基础。

(一)侵权责任的适格主体

人工智能的侵权责任围绕人工智能的设计者、生产商、销售者与使用者而展开,这其中算法运营商的地位类似于设计者,四者中是否适合成为适格被告需要具体讨论。

第一,人工智能的设计者。不同阶段设计者应当承担不同的风险责任,研发期间产生侵权责任应当由设计者独立承担侵权责任。流入市场时期人工智能侵权责任的承担需要视产品情况而定,倘若是可以被公众发现的设计缺陷而产生的侵权,应当由设计者承担责任;倘若是由产品不可预知的风险导致的侵权,应当判断设计者是否尽到合理义务,判断其是否承担过失责任。

第二,人工智能的生产者。根据对产品的法律规定,一个产品产生的侵权责任,主要由该产品的生产商承担。由于产品本身包括产品的原材料与零部件,两者的生产商也属于该产品的生产商。人工智能由于产品缺陷导致的侵权责任,应当由参与产品生产的供应商与生产商等所有主体一同承担,因为其参与主体均具有可责性。这与传统的严格责任不同,有学者认为采用过错责任能有效激励人工智能产品企业创新,促使消费者采取防范措施。[4]

第三,人工智能的销售者。《侵权责任法》第42条规定,倘若由于销售者的过错致人损害,则需要销售者承担,并且销售者的过错导致产品存在缺陷,造成他人权益受损,同样由销售者承担侵权责任。进而,倘若产品为人工智能产品,而人工智能产品自身无缺陷,其缺陷是由销售者的操作错误或其他原因产生的,则侵权责任由销售者承担,销售者承担的是过错责任。还有一种情形是,销售者不能查明人工智能产品的供货来源,则需要销售者代替人工智能的生产者与设计者承担侵权责任。《产品质量法》规定,侵权行为的产生如果是由于销售者的操作错误等原因,则销售者承担赔偿责任,与《侵权责任法》一样,销售者的责任是过错责任。《产品质量法》的相关规定,即销售者基于其过错承担赔偿责任,是《侵权责任法》销售者基于过错承担侵权责任的基础,同时也是生产者与销售者进行分责时的责任依据。根据《民法典》规定,倘若是由于产品缺陷而导致的权益受损,其损害赔偿可以由生产者进行承担,也可以由被侵权人向销售者请求赔偿,对于被侵权人而言,是由生产者与销售者承担赔偿责任,在此条件下,生产者与销售者成为一个整体,是严格责任的扩张。

第四,人工智能的使用者。倘若人工智能产品本身不存在缺陷,在生产制造过程中也不存在缺陷,并且销售者在销售过程中为使用者展示了正确示范,最终侵权责任的产生来源于使用者自身的使用不当,则侵权责任由使用者自己承担。其侵权责任的承担可以参考法律对于动物的管理与规定,动物对他人产生侵权行为,应当由动物的管理者承担责任,动物的管理者对动物具有管控与约束的义务。基于动物所具有的特殊危险性,各国法律多将饲养动物致害责任置于危险责任体系中。[5]人工智能产品具有与动物类似的危险性,因此也应当置于危险责任体系中。基于人工智能产生侵权责任涉及了设计者、生产商、销售商与使用者四者,单一判定其中一者或是多者承担责任十分困难,人工智能侵权事实查明困难并且举证困难,侵权责任的产生究竟是哪一方的过错判定十分复杂,并且耗时较长,在无法判定具体过错方时,可以采用共同侵权责任分配的方式进行归责。

(二)侵权责任的承担

首先,共同侵权责任分配并不是要求四者承担连带责任而不查明事实真相,共同侵权责任分配存在两种情况。第一,不真正连带责任。不真正连带责任的承担,是同一受害者被多数行为主体加害,或同一受害者的权益受损,来源于多主体的不同行为。这种情况下,实施加害行为的各行为主体产生了同一侵权责任,各承担全部赔偿责任,多行为主体中的一人承担了赔偿责任,则整体责任消失。对于人工智能领域而言,不真正连带责任的行为主体,是人工智能的生产者、设计者、销售者、使用者,当这四者的行为都指向同一受害者时,则产生不真正连带责任,这四者中的每位主体都承担全部赔偿责任,有一主体承担赔偿责任后,则整体赔偿责任消失。这时需要探讨的是,倘若侵权责任的产生是由于人工智能的产品缺陷,则该责任由设计者与生产者承担;倘若侵权责任的产生,是由于销售者的操作失误而产生,而产品本身没有缺陷,则责任还是由销售者承担。关于多主体各自承担全部责任,受害者可以择一起诉,任何一方先行赔付后,可以对真正的责任人再进行事后追偿。第二,连带、按份责任。人工智能侵权责任的连带责任由生产商、设计者与监管机关共同承担随后按份分责,对此,市场监管者需要审查人工智能产品,并且审查产品这一行为本身应是市场监管者的义务;倘若经市场监管者审查产品后,仍出现产品缺陷,应由市场审查者承担连带责任,因为这属于市场监管者的失职,导致缺陷产品流入市场进行销售,在此情况下,应由生产者、设计者、市场监管者承担责任,再根据销售者是否存在过错,讨论是否需要销售者承担侵权责任。

其次,可以根据人工智能可能产生的风险系数的高低,设立无过错责任与过错责任。如汽车的自动驾驶系统,可以以驾驶员的注意义务为基础,对人工智能的责任进行判断。第一,无过错责任。以自动驾驶汽车为例,过错责任的适用在自主性人工智能汽车,因为自主性人工智能汽车的主要作用为自动驾驶,将驾驶的行为由驾驶者过渡至汽车,人工智能汽车则对驾驶中可能会产生的风险与问题,具有注意义务。发生事故时,事故的产生是由于人工智能未履行注意义务,因此其责任的承担与动物致害归责一致,适用无过错责任。第二,过错责任。以自动驾驶汽车为例,倘若自动驾驶系统是汽车的辅助系统,汽车的驾驶主要需要由驾驶者完成,驾驶者对汽车行驶中的行人、道路与汽车具有注意义务,无论发生事故时,是否为自动驾驶状态,驾驶者均存在一定的责任。在此,对于人工智能责任的承担就应当适用过错责任。

三、人工智能有限法律人格的赋予

人工智能法律人格与法律主体地位的赋予,一直是学界探讨的问题。学界普遍认为,即使赋予人工智能法律人格,也只能是有限的法律人格,类似于法律中的非法人组织。人工智能可以有民事权利能力,它在责任的承担上,不能完全与其生产者、销售者、设计者脱离,但是承认人工智能的法律主体地位,仍然有利于明晰法律关系,促进人工智能与社会的协同发展。赋予人工智能法律人格,设定人工智能的权利与义务,可以更好的分担责任,也可以为人工智能未来被纳入法律轨道与体系打下基础。

(一)人工智能有限法律人格的认可

目前我国法律尚未出现关于人工智能致人损害的规定,从人工智能在我国社会发展中的性质而言,它更类似于一种商品。以社会群众所能够接触到的人工智能而论,可以被定义为法律意义上的物品。关于法律人格的构成,其不仅需要具备人的因素,即人体与人脑的生理学要素,并且拥有意识能力与独立意志,同时还需要具备社会学要素,即需要具有独立的社会角色。智能机器人不满足拥有法律人格的生理学要素,即使其可以具有独立的社会角色,但不具有人体和人脑,不具有法律上的人格。[6]

由于缺少针对人工智能的法律规定,与社会生活和公民相关的,人工智能侵权责任的承担,只能从产品责任的角度进行解决。但是部分产品对于责任的承担,具有免责条款。免责条款可以帮助运营商和制造商规避责任的承担,倘若人工智能产品可以适用免责条款,进而避开责任的承担,人工智能领域将更加混乱。《产品质量法》第31条和《侵权责任法》第42条规定的与产品缺陷致人损害的条款,即责任由生产者或销售者承担,无疑增加了生产者与销售者的法律责任。无论人工智能是不是法律意义上的商品或者物品,它与普通商品与物品的不同之处在于,人工智能的制造是现今社会并不成熟的领域,并且涉及到诸多风险,简单的人工智能也可能致人损害,一味地将风险与责任推至生产商与销售商一方面将抑制人工智能的发展,进而打击生产与销售行业。人工智能的开发涉及到算法的设计,最终算法归属于算法运营商,以此而言,算法运营商也是人工智能的责任承担者之一,仅要求生产者与销售者承担责任显然不公平。因此,需要赋予人工智能法律主体地位,赋予其有限的法律人格,这可以对其他主体的权益进行保护。在此基础上,拥有有限法律人格的人工智能,将明确其权利义务关系,使得人工智能的生产者、销售者、设计者等主体分离,避免由于人工智能的决断而致其他主体产生损失。

(二)承认人工智能法律主体的可能性

以传统观念而言,法律主体是享有一定权利并可以承担一定义务的人或者实体,实体指拥有自由意志可以履行义务的法律主体。人工智能目前不存在自由意志且缺少自主思维,同时人工智能尚无可以履行的社会义务,进而人工智能仅可以享有有限的法律人格,而该人格的享有以目前的社会现状而言,是以人工智能承担法律责任为目的的。通常在分析法律主体的特征时,以三个角度进行考虑。第一,实体的形而上学性质,这一角度要求法律主体具有理性与自主性。理性与自主性的要求将非人类与一般客体排除在外,智力障碍者以及未满八周岁的儿童皆不属于该范畴,人工智能以此角度而言自然不应当享有法律人格;第二,以结果的角度,考虑某一实体倘若享有权利与义务的后果,胎儿或植物人则被剥夺了法律主体地位。以人工智能而言,人工智能享有权利与义务的后果虽然在法律层面与胎儿或植物人无异,但是人工智能确实存在履行义务的能力,进而以此角度而言,人工智能是否应该享有法律主体地位还存在一定疑问;第三,基于条件的方法论视角,法律主体性是法律体系建立的共同标准。基于这一标准,人或实体拥有了权利和义务,同样也承担相应的责任,法律规定一些实体法律人格的条件也来源于此。以公司为例,公司与人在人格的体现与本质上并不相同,但是在法律层面,人与公司都属于法律主体,都享有法律人格,进而,当人工智能享有法律主体地位,被赋予法律人格,最初的出发点是顾及社会发展的安全与稳定及法律体系的完整,对人类而言暂无危险,赋予人工智能有限的法律人格,使得人工智能可以承担法律责任也是为未来强人工智能时代与超人工智能时代奠定基础的表现。赋予人工智能主体地位的同时,也应对人工智能拟制权利设置权利边界和权利保留,明确人工智能道德权利和行为效力的限度。[7]

(三)人工智能有限法律人格的构想

现行人格制度下无生命的实体被法律排除在外,这使得人工智能享有有限的法律人格颇受争议。人工智能确实是无生命的实体,并不拥有思维与自主性,倘若社会上承认人工智能为一个自治的主体并赋予其法律人格,就需要在法律制度与规定中进行体现。关于法律主体地位,法哲学家Hans Kelsen与J Austin存在不同观点,Hans Kelsen认为将自然人等同于人类的生物地位是错误的,一个自然人仅仅是赋予了法律权利与行为义务的法律规范的个人化。[8]关于自然人拥有法律主体地位,J Austin认为自然人是一个有权利和义务的人,是一个生物存在物的等价物。关于非自然人拥有法律主体地位,存在四种理论观点,其中“实在说”这一理论观点,认为法律实体由人创造而产生,但是法律实体本身就存在,并且是真实的。“实在说”中,人工智能的法律主体地位得到了体现,尽管人工智能是被人为创造的,但人工智能确实是真实存在的。与此同时,即便是人工智能也拥有学习与记忆及一定程度上自我决策的能力,但人工智能时代的自我决策部分仍然受人类所引导,强人工智能时代的人工智能才具有完全的自主决策能力。人工智能的特征表明其具有典型的行为能力、行使权利以及履行法律规定义务的能力。基于人工智能的智能性,可能会先于其授权代表的意愿,评估潜在后果,而不亲自行使权利、履行义务。

另外,人工智能是否能够被赋予有限的法律人格,还需要考虑人工智能是否能够满足获得法律主体地位的实质性要件。第一,人工智能是否具有意志能力。已知人工智能是人类创造的类人智能产品,但是人工智能的智能性来源于算法设计,判断人工智能是否具有意志能力的标准,应当是脱离算法设计而言,即脱离算法设计后的人工智能倘若可以进行自行学习,则其具有意志能力。第二,人工智能能否满足获取法律主体地位的物质性要件。倘若赋予人工智能法律主体地位,这意味着人工智能对其侵权行为将承担责任,涉及到赔偿责任时,人工智能是否拥有属于自己可支配的财产。根据社会发展,人工智能的财产只能来源于类似汽车保险的强制保险;或是在购买者购买人工智能产品时收取一定费用作为责任附加费,以此设立该行业的责任基金,这些情况都需要伴随人工智能的实际发展变化而进行持续的判断和探讨。

结 语

人工智能时代的人工智能产品处于人类可控制范围内,发生侵权事件、产生侵权责任等可能来源于算法设计缺陷、生产研发期间产品测试故障、销售者错误示范或使用者使用不当,另一种情形是不法分子利用人工智能的运行原理通过社交平台散播不良信息,引起社会恐慌或是盗取用户信息,侵犯公众隐私,本文着重讨论了第一种情形即人工智能产品侵权。

由于我国尚未将人工智能纳入法律体系内,导致人工智能发生侵权事件后归责困难,给予算法运营商、设计者、生产商等规避责任与风险的空间,同时人工智能侵权事件举证困难导致上诉之路遥遥无期。基于此,为完善法律体系,将人工智能现下已然产生的社会风险、未来强人工智能时代、超人工智能可能会产生的危险及人工智能对法律体系产生的冲击纳入到考虑范围内,可以先缓解人工智能为法律体系人格制度产生的冲击,赋予人工智能有限的法律人格,方便后期加入更多人工智能的法律概念以及归责原则;关于人工智能的归责,人工智能研发创造涉及多个部门,针对其归责需要分情况而讨论,进而可以选择共同侵权原则,即不真实连带责任与按份分责的方式进行归责;关于人工智能的规制,不仅需要法律层面的规制,还需要社会规制,这其中包括了市场监管与评估,伦理规制即在科技中加入更多道德的范畴,以及行业规制;关于人工智能的算法,可以以公共滋扰定性算法妨害,以及加强信息披露的方式进行算法规制,防患于根本。不置可否,人工智能在社会发展道路上不可避免,未来强人工智能时代与超人工智能时代的来临也是必然,因此,以人工智能的有限法律人格作为基础,明确归责原则,通过法律规制与社会规制的共同作用,促进未来人工智能与其他法律主体之间关系的解决,意义深远。

猜你喜欢

销售者规制人格
网约车平台责任条款的识别方法——基于解释进路的正当规制
控制股东滥用权利规制的司法观察及漏洞填补
共产党人的人格力量
你是回避付出型人格吗?
产品缺陷责任主体相关问题研究
远去的平凡背影,光辉的伟大人格
跟团在景点买到假货 能要求旅行社赔偿吗
完善地方政府行政作为法律规制的思考
跟团游中买到假货找谁赔
内容规制