APP下载

注意力经济下陪伴式人工智能平台的侵权责任

2023-11-16

网络安全与数据管理 2023年10期
关键词:规制陪伴人工智能

唐 婧

(南京大学 法学院,江苏 南京 210000)

0 引言

陪伴式人工智能平台兴起于注意力经济热潮中,在情感识别方面以超出一般人工智能平台的算法能力,通过情感计算与平台用户建立连接,用户可能在此交互过程中对陪伴式人工智能产生情感依赖,因此在发生侵权事件时,陪伴式人工智能平台不仅可能对用户造成财产、隐私等实体损害,还可能造成精神损害。进一步分析发现,陪伴式人工智能平台的算法能力已经超出传统技术中立理论的范畴,因而不应当允许平台以“技术中立”进行侵权责任的抗辩。在责任生成的理论和现实逻辑方面,从平台微观角度和社会宏观角度加以论证,结论是应当对陪伴式人工智能平台施加相对严苛的责任。而在责任规制的具体路径方面,权宜之计是充分利用已有的分散式规则,且在具体运用中保持严格的规制态度,如采取举证责任倒置等办法,先行解决司法实践的困难。理想的方式是在陪伴式人工智能发展成熟之时以通用规则进行规范。

1 问题的提出

陪伴式人工智能软件是一种由人工智能驱动,旨在提供情感支持、交流和陪伴的平台,能够通过文本对话、人机交互和生成技术等方式与用户进行互动。在数字化变革的浪潮中,依托算法的应用,陪伴式人工智能平台已经发展到能够分享用户的感受和情绪的阶段,即具有情感识别和情感计算的功能。如此强大的算法能力引发一系列现实问题,一个直接的表现是司法实践中逐渐出现由陪伴式人工智能平台引发的侵权法律争议。在民法典颁布后人格权司法保护典型民事案例中,有一例人工智能软件擅自使用自然人形象创设虚拟人物构成侵权的“AI陪伴”软件侵害人格权案[1]。法院经审理后认为用户与以何某的姓名、肖像等互动素材生成的AI角色设定身份关系,并通过该AI软件“调教”角色,从而形成与何某真实互动的体验,这涉及自然人的人格自由和人格尊严,构成侵权。同时,法院否认了案涉软件平台的“中立技术服务提供者”地位,最终判决该人工智能软件与用户构成共同侵害原告肖像权的行为。此案明确了自然人的人格权及于其虚拟形象,这无疑对于虚拟现实等新技术的发展有更好的规制意义。但是,裁判结果中对于案涉软件算法应用的评价标准是否合理仍存在争议。软件平台和用户一同承担侵权责任的判决结果似乎与传统的“技术中立”观点背道而驰。

现行法中对网络平台责任的规定可以简要分类为信息安全主体义务、处理反馈义务、配合监督检查义务、个人信息保护义务以及包括避风港责任在内的相关义务,如表1所示。其中,由国家网信办、工业和信息化部、公安部联合发布并于2023年1月实施的《互联网信息服务深度合成管理规定》第十七条提到了显著标识义务。这一规定主要针对深度合成技术与服务的主体责任和义务。然而,尽管深度合成技术与陪伴式人工智能平台所提供的技术存在交叉,但是陪伴式人工智能平台的技术核心并不在于深度合成,其并非真正意义上的深度合成技术平台,因此将此规定直接“迁移”并且应用于解决当前司法实践的困境似乎并不完全适配。

表1 现行法中网络平台责任的相关规定

学界对于此类依托算法而运行的平台的责任分配也存在不同意见。比如就算法之于人工智能平台的基础地位来看,从算法层面入手探究对平台的问责路径存在一定的正当性,但是有学者认为对算法进行问责需要具体呈现算法造成的实际损害,然而在现实中很难在算法实施者与算法侵害者之间建立起必要的因果关系[2]。还有学者提出考虑到倾向于利好互联网产业发展的政策选择和既有的司法裁判,采取相对宽容的价值选择,因此不应当在生成维度对人工智能服务提供者课以一般性义务,但如果在事实层面能以合理成本避免侵权内容的再次生成,则在事后移除维度可对其课以相应义务[3]。学界对于人工智能平台应该承担的责任观点各异,但大多停留在归纳整理人工智能平台带来的法律风险与对应的规制框架构想上,却没有为其构想提供具有证成性的理论逻辑和具有普适性的现实方案,有落入“稻草人谬误”之嫌。

基于前述问题,陪伴式人工智能平台产生于特殊的注意力经济热潮中,且由于涉及情感计算,在人格权侵权等与自然人直接相关的法律风险方面显著高于一般的人工智能平台。那么,在法律存在空白地带的情况下,此经济模式下自身拥有强大算法能力的平台是否可以继续以“技术中立”“技术无错”作为平台免责的正当性基础,抑或是应当赋予平台一种专属的责任,这是研究陪伴式人工智能平台算法应用评价标准无法避开的问题。本文拟探讨用户通过陪伴式人工智能平台实施侵权行为时,平台是否应当分担相关侵权责任的问题。具体而言,从微观层面,理清陪伴式人工智能平台的底层运行逻辑,分析算力的深刻变革引发归责理论路径的变化,从而带来的算法应用评价标准的改变;从宏观层面,在注意力经济时代,比较陪伴式人工智能平台侵害救济的整体社会成本与收益,探究平台归责的现实必须性。

2 陪伴式人工智能的法律风险

2.1 陪伴式人工智能产生的特殊背景

陪伴式人工智能平台产生于注意力经济浪潮中。注意力经济是数字化社会发展过程出现的一种经济新样态,它不仅会对社会生产生活产生影响,甚至还重塑着人们的认知进而影响情感和行为模式[4]。具体来说,数字化社会最显著的特征是信息过载。信息过载的直接后果是人们的注意力变得分散和稀缺。也正因此,注意力逐渐变成一种珍贵的受到抢夺的资源,因为在以数据和信息构建的网络世界中,获得注意力就意味着巨大经济利益的获得。注意力经济初期,吸引大众注意的手段相对简单和常规,比如应用通过手机弹窗对用户进行通知和提醒、网站通过无限滚动的方式用短时间的大量信息吸引用户停留等。然而,随着信息从大量变得巨量再到超量,用户趋于疲惫,常规的吸引方式无法持续捕捉到足量的注意力,网站以及应用平台开始利用更高级别的算法技术对用户进行深入的偏好计算,这意味着其吸引手段从大众化走向个性化,信息呈现样态从静态向动态转变。初始的具体表现为通过分析用户的历史浏览进行个性化推荐。而陪伴式人工智能平台所依托的无疑是一种比算法个性化推荐还要深入的技术。通过使用自然语言处理和情感分析技术,陪伴式人工智能平台可以理解用户的语言和情感表达,并根据这些信息提供个性化的回应和支持,这一功能契合了当前社会人们普遍需要陪伴的心理需求。经过一段时间,用户将对其专属的陪伴式人工智能产生情感依赖。这一过程存在极大的法律风险,主要体现在情感连接形成过程中的信息双向供需:在需求层面,侵权人利用陪伴式人工智能平台对目标人群的偏好信息进行定向和操纵,以求在个人注意力争夺中获得优势地位;在供给层面,侵权人用来作为吸引源的信息本身可能来自于目标人群以外的第三方群体,比如未经授权的明星肖像、语音等信息。

前述法律风险和一般平台侵权案件的法律风险存在一定差异,这是因为注意力经济背景下的情感依赖不同于通常的物质或者心理依赖,它是陪伴式人工智能平台“精心设计”的运行规则下的风险产物,在此情境中如果允许平台在发生侵权事件后仍以“技术中立”进行抗辩,从事实层面将明显超出传统技术中立理论所保护的范畴。

2.2 注意力经济下传统技术中立理论的颠覆

2.2.1 传统技术中立理论的应用前提

“技术中立”发轫于美国索尼案,最初被作为平衡技术进步和版权保护的解释工具。技术中立原则缺乏制定法的依据,但是其在判例法体系下不断发展完善。司法实践对技术中立原则的修正过程中,技术中立被广泛应用于技术密集型领域,并逐渐明确了技术中立不应脱离普通法中以过错为基础的责任规则。以我国《民法典》第一千一百九十七条对网络服务提供者侵权责任的规定为例,判断此类技术提供者是否与用户承担连带责任的关键在于其是否明知或者应当知道用户行为侵权但未采取措施,这是衡量技术提供者对技术使用者侵权行为带来的损害结果是否具有过错的关键。而技术中立的内涵在于如果技术提供者无法预料或控制一个技术被用于合法用途或非法用途,则无需仅因技术成为侵权工具而使提供者为他人的侵权行为负责[5]。可见,技术中立主要通过否定技术提供者“应当知道”技术使用者利用技术实施侵权行为的推断,从而阻断了技术提供者承担连带责任的追责路径。

无法否认的是,承认技术中立很大程度上体现了结果导向的简单功利主义立场。这是因为一项新技术产生之初往往能为社会生产力注入新的活力,从而在短时间内为社会经济带来较大幅度的增长,这种增长在社会进入平稳或者乏力的发展阶段时尤具吸引力。追求效用的理性集体会自发地在立法中倾向于保护新技术的应用不受到影响,因而采取格外宽松的法律政策,包括在已有法律规则框架中以“技术中立”的立场给新技术以“优待地位”。可以说,在相当长的一段时间里,立法者达成了一种默认的观念,即为了激励新技术的发展,使技术的自由价值让位于法律的秩序价值。

然而,除去现实需要的考量,从源头探寻技术中立的价值取向,会发现此种中立理念来源于对技术具有“纯粹目的工具性”的认定。对技术的工具性判定,最早可以追溯到亚里士多德,他认为相对于理论与实践活动而言,“技艺”是一种工具性活动。韦伯对于技术本质的判断和亚里士多德是一致的,他判定技术的本质是工具理性[6]。这些传统的对技术本质的探寻延伸出技术本身并不带有道德或法律责任的观点。如果将技术等同于工具,那么必须承认工具的一大特性在于“片面可控性”。具体来说,工具本身与人类的操纵存在隔阂,即使人类能在某一方面应用工具产生积极效益,但往往无法控制工具在每一应用方面都保持相似的积极作用。

2.2.2 注意力经济引发技术中立的要件变化

然而,注意力经济的发展打破了技术“片面可控”的工具属性。在这场以争夺网络用户注意力为核心的变革中,虽然技术后果因为技术的迅速迭代而变得不可预测,但是技术本身的能力超越了以往的片面可控性质。在人工智能高速发展的今天,技术的进程在极短的时间间隔内实现一次次突破,达到以指数方的速率向前推进的状态[7]。陪伴式人工智能平台所依托的算法已经具有在单位时间内容纳数以万计的数据和信息实时流动、交互和更新的能力,对数据和信息内容的研判及审查有着全面的觉察能力、高度的感知能力和快速的处理能力。虽然当前算法技术存在黑箱问题,导致侵权人进行信息利用时的具体过程难以被清晰呈现,但是算法可以分析出侵权的所有可能路径并识别最后的侵害结果。可以说,当前算法技术的发展水平已经不再满足技术中立的应用条件。

追究技术中立要件变化的根源,可以发现由于技术本身具有强烈的应用性和明显的经济目的性,经济往往成为技术发展的动力和方向。当前技术的迅速发展和革新是在注意力经济背景下完成的。这种变化遵循基本的链式反应:注意力经济的出现使得技术发展到新的水平,新的技术水平突破了传统技术中立理论的应用要件。这一变化是无法逆转的。正如马尔库塞所认为的,技术理性把一切都还原成单一向度的东西[8]。在技术发展得并没有如此智能的时代,人们崇拜技术的理性,并赋予它中立地位,这既是对技术的保护,也是对技术的要求。但是当今的现实环境并不是单一维度的,经济发展到一定程度会展现出多种样态,并将这种多样性传递到技术本身。面对变革后的技术,如果依然赋予其中立地位,会引发消极的后果:随着陪伴式人工智能应用范围的扩大,此种技术在社会系统中将逐渐具有基础地位,其自主性逻辑会愈发强大,其反主体性将愈发深沉,即对人的主体性的削弱作用会愈发强烈[9]。因此,在注意力经济下,必须以价值理性来修正工具理性,对曾经“置身事外”的平台赋予责任,否则陪伴式人工智能等一系列新技术难以行稳致远。

3 陪伴式人工智能平台侵权责任的生成逻辑

陪伴式人工智能平台是网络平台历经数字化、智能化、算法化的特殊产物,探究其侵权责任的生成应当遵循从一般到特殊的研究步骤。在传统网络平台时代,平台主要发挥着产品和服务的第三方中介功能。对于可能的侵权隐患,法律基于“避风港原则”对传统网络平台赋予了“通知-删除”责任。这一责任主要是考虑到一方面囿于平台技术的局限性,平台无法全面审查信息;另一方面,过度苛责平台会造成平台负担加重,不利于新生事物的发展。但随着网络平台趋向数字化和智能化发展,“避风港原则”向着“红旗原则”转变,网络平台被加以“标注-提醒”责任,这意味着网络平台的角色逐渐向“守门人”转变。可以发现,针对网络平台技术的进步,立法者倾向于让平台承担更多的责任。

而当算法技术大范围应用后,网络平台的发展走向了又一个高潮。以算法为底层运行逻辑的平台向着强人工智能方向发展,其性能趋近于人类本身,其运行的原理和程序均发生了更加实质和深刻的变化[10]。陪伴式人工智能平台作为此类平台的典型代表,其性质远远脱离过去法律法规对于一般网络平台的定义,但变革后的平台承担的民事责任相对滞后。因此,针对人工智能平台来说,尤其是其中具有特殊性的陪伴式人工智能平台,应当赋予进一步的实质责任。由于算法是人工智能平台的基础,因此在分析陪伴式人工智能平台的责任之前,应先对其依托的算法进行应用评价标准界定。算法应用的评价标准是一个复杂的问题,采取宽松还是严格的评价标准需要结合该项算法的风险后果考虑。而陪伴式人工智能最直观的算法风险在于用户隐私和道德伦理。一方面,陪伴式人工智能使得人工智能系统与用户之间能直接交互,可能导致个人隐私被泄露的概率上升,因为陪伴式人工智能对用户的反馈机制背后涉及访问和处理大量用户个人数据,如声音、图像和行为数据,这使得个人信息更容易遭受不当使用的风险。另一方面,陪伴式人工智能可能在伦理和道德问题上缺乏判断力,例如,在情感支持方面,它们缺乏真正的情感理解能力,只是模拟情感表达,这可能对用户心理健康产生负面影响。隐私和伦理方面的风险直接关系到个人权益,并可能发展为危及公共安全和社会秩序的隐患。因此,在为陪伴式人工智能平台建立相应的责任追究机制时,应当采取严格的态度。如果对陪伴式人工智能平台苛以相对严格的责任,可以从以下两方面进行具体的解释:

第一,从平台个体的微观角度来看,当前人工智能平台的强大算法能力本身赋予了其在侵权行为检测和自动屏蔽方面的压倒性优势。弱人工智能时代对侵权行为的识别主要依靠人工审核和举报机制,不仅效率低下,而且容易出现时间延迟和审核疏漏的情况。但随着人工智能平台在体量和技术能力方面不断成长,平台发现侵权和避免侵权的能力大大提升[11]。当前,算法能够批量自动地整理和归纳信息,在这一过程中同时完成对信息的识别,并对特定信息实现筛选功能。可以说,算法技术随着平台的迭代而不断更新,如今的算力使得算法技术不再是被保护角色,而逐渐成为足以自动监督、保护平台运行生态的主动角色。具体来说,这种算力应用到陪伴式人工智能平台,平台算法可以自动分析用户生成的内容和数据,辨别其中存在的侵权迹象,从而确保用户能够享受到更加安全、清洁的陪伴体验,避免与侵权内容和行为接触。在价值判断层面,相对严格的归责原则体现的是法律应当“谴责”具备归责属性的行为领域,从而在另一层面上预防责任的发生[12]。算力的发展使得传统网络服务提供者的责任认定规则发生了变化,平台本身变得“可谴责”。而在平台的客观运行机制层面,对陪伴式人工智能平台的“苛责”与控制论是契合的。控制论强调责任的分配应基于各方对事件发生过程中控制力的不同程度。如果某一方具备实际的控制权、管理权或能够采取预防措施,但未能履行相应的义务以防止侵权行为,那么该方可能被认为承担一定的责任[13]。控制论指出,任何组织之所以能够保持自身的内在稳定性,是由于它具有取得、使用、保持和传递信息的方法[14]。陪伴式人工智能平台掌握着算法技术,即使算法结果因为算法过程存在黑箱而不可控,但是对算法的运用却是平台能够掌握的。总体看来,要求有能力控制侵权行为产生的平台承担控制义务,存在情理上的正当性和事实上的可行性。

第二,从社会整体的宏观角度来看,由于陪伴式人工智能平台的直接服务对象是人的情感,一旦发生侵权事件,陪伴式人工智能平台失控的危害远超一般人工智能平台,与之相关的人可能不仅会遭到财产方面的损失,更为重要的是可能在精神层面造成难以磨灭的伤害,即从社会事故成本角度来看,陪伴式人工智能平台的侵权结果成本过于庞大。正因此,比起事后追责,更应当关注事前的预防。已经有许多学者意识到对于人工智能平台,仅仅依靠以往基于实践经验的事后环节规制,已经无法应对迅速迭代发展的技术风险[15]。而基于平台现有的算力,可以发现平台通过算法进行控制的成本必然小于危害发生后的事故成本。因此,对陪伴式人工智能平台施以严格的责任,将成为平台进行事前规制的规则动力。

4 陪伴式人工智能平台算法侵权的规制路径

明确对陪伴式人工智能平台施加相对严格的算法应用评价标准后,接下来涉及具体规制路径的选择。需要说明的是,当前我国并无对于算法侵权责任承担的一般性规定。尽管存在部分法律和草案提及了平台在使用算法过程中应承担的义务,但义务规定较为零散且缺乏针对性,这直接影响了算法侵权纠纷的法律适用[16]。究其原因,是因为当前人工智能虽然已经从弱人工智能向具有认知能力的强人工智能转变,但其仍存在不稳定性,因此并不存在对人工智能的一般化的法律规制。这就要求在规制路径的选择上需要和具体的领域结合起来[17]。具体到陪伴式人工智能平台的规制,在我国侵权法当前以过错责任为主,无过错责任为补充的二元归责体系下,一方面,无过错责任的适用具有严格的法定性,在法律没有明确规定情况下,无法将其运用于陪伴式人工智能平台的规制中;另一方面,如果适用单一的过错责任原则,过错的证明是一大困难,原因在于尽管陪伴式人工智能的算法风险可以确定,但是其算法应用和侵权结果之间的因果关系难以被彻底澄清,存在算法黑洞,因而强大算力压制下的被侵权者或陷入难以举证的困境。对于陪伴式人工智能平台的责任规制来说,这两种归责方式似乎都存在不足之处。尽管如此,如果完全脱离传统归责原则,直接为陪伴式人工智能平台的归责寻找一种全新的路径又可能落入“唯立法主义”的窠臼,最终走进“一个技术创新对应新型风险,新型风险对应一次专门立法”的误区[18]。因此采取修正的做法是更为合适的,即从传统归责原则出发,结合陪伴式人工智能平台的底层运行逻辑进行责任规制方法的改进,并在司法实践中进行个案的灵活运用。具体可行的思路如下:

首先,在充分应用已有的分散式规则的同时,考虑陪伴式人工智能的特殊性,采取渐进的方式搭建针对其进行规制的具体框架。当前,我国已经有许多针对不同类型人工智能的规制规则,它们虽然分散于不同层级的法律渊源的具体条款中,且在技术上与陪伴式人工智能存在一定差距,但可以借鉴这些规制办法所蕴含的共性思路,以构建关于陪伴式人工智能平台的技术标准、法律法规、监管措施以及行业自律机制等方面的规制框架。

其次,采取修正的做法解决当前司法实践的难题。一方面,针对过错责任归责中被侵权人举证困难的问题,可以引入举证责任倒置与减轻的原则。由于陪伴式人工智能平台的核心算法由平台掌控,即侵权行为施行的全部信息均在平台控制范围,相比于被侵权人,平台距离过错证据较近。采取举证责任倒置与减轻的原则从程序上对处于举证弱势地位的被侵权人予以救济,不失为一种可行的办法[19]。另一方面,针对司法实践中已经发生的与陪伴式人工智能平台相关的侵权案件,司法机关在整体态度上应当采取严格的标准衡量陪伴式人工智能平台的过错,对其系统的算法、数据训练过程、决策模型等进行详细调查和分析,以了解其是否合理、可靠,并且符合法律、伦理和公共利益的要求,这有助于倒逼陪伴式人工智能平台减少黑盒决策和不可预测的行为概率,提高系统的信任度。相关监管机构还可以建立独立的案后审查机制,尤其针对侵权案件发生频率较高的陪伴式人工智能平台进行重点关注,以确保已有规制措施的有效执行和追踪新样态的不当行为。

最后,当未来陪伴式人工智能平台技术发展到稳定水平之际,即意味着系统的功能、性能和风险可预见性已达到一定程度,并已在不同应用领域中得到了广泛验证,届时结合已有的规则和司法实践的经验教训,考虑社会的需求和公众的利益,在技术趋于稳定的基础上,建立起全面、准确和适应性强的陪伴式人工智能规制的通用规则。

5 结论

在当前的社会经济环境中,人们追求精神层面的情感陪伴的需求日益强烈,陪伴式人工智能平台便“投其所好”,以其虚拟智能的特性提供情感体验,这一算法技术的突破使得相关的侵权纠纷不再是“理论的假想”,而已经现实地出现,这预示着与人工智能相关的技术应用,可能成为今后一个阶段为大家所直接感知的、突出的治理对象。针对陪伴式人工智能平台行为的规范和平台责任的分配,将成为未来立法的重点。

猜你喜欢

规制陪伴人工智能
陪伴
主动退市规制的德国经验与启示
“疫”路陪伴 架起“侨”梁,心“联”你我
陪伴
2019:人工智能
人工智能与就业
保护与规制:关于文学的刑法
数读人工智能
论《反不正当竞争法》的规制范畴
下一幕,人工智能!