APP下载

人工智能时代的算法规制:责任分层与义务合规

2020-04-10唐林垚

现代法学 2020年1期
关键词:人工智能

摘 要:

通过云端搜集、校勘、分析海量大数据,獨立法律人格待定的智能机器人,透过算法活动,在多个行业替代自然人从事高精尖业务并重塑人们的社会评价、权利义务及法律责任。算法活动以“信义义务”为核心调整传统受托人关系以及基于合同相对性进行损害赔偿,传统制度已不能完全囊括智能主体理应承担的所有义务,导致算法操纵、信息寻租和监管套利的三重失控,凸显人工智能产业布局中的法律规范缺位;算法妨害具有公共属性,穿透技术黑箱对合同之外的普罗大众造成“公共滋扰”,法律应当为不同潜在责任主体创设不同缺省合规义务,引导算法运营商、技术开发方内部化不合理社会成本,以构建人工智能责任体系的中国标准。

关键词:人工智能;算法活动;信义义务;公共滋扰;责任体系

中图分类号:DF52  文献标志码:A

DOI:10.3969/j.issn.1001-2397.2020.01.14 开放科学(资源服务)标识码(OSID):

技术变革未必带来社会福利的雨露均沾。过去的六十年,①人工智能技术并没有因减少成本、提高效率而走上风险对冲、普惠大众的正轨,反而因科技的过度加持令商业屡屡挣脱法律和监管的束缚,不断陷入监管套利②的轮回。一方面,智能服务与算法决策具有跨平台、无限链化等特殊表征,造成义务主体虚化,致使传统监管手段难以发力;另一方面,当代科技公司多推崇扁平化管理,尚未建立健全的内控机制,也未形成有效的科层制约。国务院《新一代人工智能发展规划》指出,适应人工智能发展的基础设施、政策法规、标准体系亟待完善。

本质上,人工智能机器人通过算法活动映射传统专业服务中的法律关系并替代自然人实现特定目的。算法活动既是新旧法律关系变更和消灭的直接近因,也是人工智能机器人得以“凌驾于自然人之上”的技术核心。对人工智能的规制,应着眼于对算法活动中公共利益和个人权利的协调与冲突防范。在大数据驱动算法语境下,法律责任与义务的内涵是否应当有所不同?如何穿透算法活动构建人工智能主体识别和责任分担法律规范?以科技增进社会福祉为导向的法律法规重构,毋宁突破民商法传统思维中人与物二元分立的理论局限,为智能机器人终将获得独立法律人格留有充分余地,并在减少算法操纵、信息寻租等机会主义行径的同时,为科技发展提供坚实的制度保障。本论文以算法规制为主题,探讨人工智能广泛应用所面临的最基本法律问题,即算法活动的责任归属、妨害救济与外部性治理,以期为研发和治理趋同背景下人工智能法律法规、伦理规范和政策体系的完善提供理论支撑。

一、传统体系失灵:算法社会的法权博弈与监管困局

尤瓦尔·赫拉利曾预言,算法主导的时代即将到来。“权威将从个人转向由算法构成的网络。人类不会再认为自己是自主的个体,不再依据自己的期望度日,而是习惯把人类整体看作一种生化机制的集合体,由电子算法网络实时监测和指挥。”美国学者称之为“算法社会”的,是指通过对数据和程序的究极利用,实现算法运营商对社会和生活的全面管理。如今,人工智能已经悄然渗透进市民生活的各个层面——搜索引擎框定知识边界、出行软件决定活动轨迹、社交媒体重塑电子身份、智能家居革新生活方式、电商平台左右消费理念、智能金融拓展货币财富——大数据驱动算法打破既有权利结构并不断改造社会关系,产生新的公平与不公、有权和无权、优先与劣后。无论算法和人工智能被运用于哪一个专业领域,新形势下的制度、规章和法律,应当在原有基础上进行补充。缺乏与之匹配的法律创新,监管套利就将人为地诱导多种形式的人工智能,过早地取代更负责任的机构和自然人。

(一)个人信息保护的式微与算法规制的公私合力

信息公平被定性为后工业时代防止社会割裂的制度理念,并以此作为构建市场资源均衡的规范性前提,引致试图一视同仁的信息保护法律在制度设计之初,缺乏对精英集团与平民集团的不可逆分化以及垂直社会向水平社会转型的周全考虑,最终造成信息贫富分化的马太效应。从动态的、市场的视角看,信息本身是一种重要的战略资源,这使得保密制度的灵活运用成为一种功利性的竞争工具。过去的十年,通过秘密技术获得的市场优势使“专利财产权”更具吸引力。在美国,以保护商业机密为导向的各州立商业“护犊”条款、《涉密案件程序法》《信息自由法》和《商业秘密保护法案》等,让凌驾于普通人之上的技术寡头和金融机构,无休止地以保护商业机密为幌子,免于公布算法代码、免于接受公众调查。与之相对的是,以保护个人隐私为导向的《公平信用报告法》和《保密法》等在实践中被架空,导致强势群体对弱势群体的技术垄断和信息剥削。法律积极地保护商业秘密,却在涉及个人隐私时越来越沉默,为信息寻租留下隐患。诚然,并不存在完全公平的机会分配方式,但致力于迅速取得市场优势的科技寡头,甚至排斥使个人选择更加公平的最基本努力。

利用保密协议、专利条款和封口规则,算法运营商将其经营活动模糊化、朦胧化,对普罗大众的生活细节却由于技术的多领域应用而越发公开。以“智能推送”和“个性化定制”为卖点,智能服务提供商诱使用户同意算法引擎分析个人数据并挖掘生活细节。在“用户至上”的伪装背后,他们“习惯于在供应商、政府和用户利益之间频频转换立场,以构建最大化自身利润的商业环境”。鉴于此,算法运营商可能因利益冲突而对其用户个体造成非过失的故意妨害。即便用户不主动提供数据,以“周全服务”和“互融互联”为名,无处不在的匿名识别符系统、智能定位服务、高清摄像头、多功能传感器、手机应用插件和网站跟踪代码对个人行为轨迹的主动记录,早已将个体私生活抽丝剥茧,令任何人都避无可避。信息采集可以来源于多个渠道,新旧数据可能在算法决策中四处传播、频繁叠加、随意黏合,基于正当理由搜集的信息也可能被不怀好意地用于其他目的。前手平台的废弃数据,可能转手就打包销售给其他平台。更重要的是,透过种种数据挖掘,信用评级机构、搜索引擎、主要银行和商务平台,利用算法将数据转换成分数、排名、风险计算和具有极其重要后果的观察列表,并借此构建出一个个运作神秘的规范系统和评价体系,重新塑造每个人的“成长茧房”。名誉伤害、机会限制和弱点显化作为算法决策的外部性,对大众群体造成公共层面的“伤害”。

算法妨害的公私混合性、积累性和不确定性等典型特征,不但是权利救济难以发挥的特殊束缚,也是立法规制所面临的理论障碍。鉴于算法活动的当下样态及发展趋势,以信息保护入手建立人工智能法律体系的尝试必然收效甚微,且面临社会割裂加剧的风险和合规成本陡增的弊病。问题的关键在于,如何定性算法活动不同于自然人活动的法律特征,并在此基础上从于公于私两个维度重构算法妨害的主体识别制度及责任分担体系,真正实现人工智能技术利用从“隐私保护”向“社会责任”的跃迁。

(二)智能服务的法律特征与责任框架的内外有别

算法活动的本质是“温故而知新”。无论是社会福利机构利用综合系统识别补贴申请诈骗、银行储户通过智能机器人投资顾问做投资计划、还是商业银行通过评分系统考察客户资信,抑或是诉讼当事人操作案件分析软件寻求辩护策略,完整的算法活动可以大体上归纳为三个典型步骤:1.硬件终端通过深入数据挖掘,获取被服务(被监管)者及同类群体的原始数据,例如健康信息、金融数据、消费记录、浏览历史、行为言论、运动轨迹等。2.算法程序在云端将处理整齐的数据输出为更整齐的概率、排名、风险、倾向、估值等评价和分值。3.应用终端生成具有明确指向性的决策或预测报告,例如,搜索引擎实现竞价排名、自动驾驶系统规划行程路径、问诊机器人输出治疗流程、出行帮手定制自驾游方案、电商平台识别消费偏好并进行巧妙导购等。机器人的智能水平,与自然人在上述三个步骤中的参与程度成负相关。

从外观上看,算法服务呈现出典型委托代理关系的法律特征,包含信息或能力弱势方支付报酬以换取优势方专业服务的契约。从依靠知识提供特定服务的专业人士,到主要依靠智能机器人的算法运营商,传统专业服务的法律关系在三个层面发生了改变并由此产生三个相关问题。1.核心服务被前置化预设到算法程序中,智能机器人替代自然受托人接触委托人并提供专业服务,这是算法服务关系和传统专业服务关系的典型区别。当智能机器人成为委托代理关系中的受托人时,原先以自然人从业者作为规制对象的信义义务体系,面临着适用困境。这就产生了如何将以自然人为规制对象的法律体系在算法社会向度中进行重构的问题。2.当算法失灵损害当事人利益时,算法运营商未必是唯一应当承担责任的主体,在智能服务的法律关系中有多个潜在的责任方。智能机器人可能由算法运营商所有,但核心算法程序未必由其开发,第三方机构或技术开发公司(以下称技术开发方)也应对自己在设计匹配顾客特征和市场结构算法时的可能过失负责。另外,智能机器人获得独立法律地位已经为期不远。一旦获得独立法律地位,智能机器人就是传统委托代理关系中的代理人,算法运营商和技术开发方则是传统委托代理关系中的被代理人。这就产生了如何超越传统委托代理关系、厘清并分配智能机器人、算法运营商和技术开发方的信义义务问题。3.当算法只是在专业服务的部分环节替代自然人,或算法服务的部分运营依赖自然人校勘代码和监督输出时,因系统原因和人为原因造成的不良后果应区别对待。这就产生了如何规制算法活动台前幕后自然人与算法的相对关系问题。

基于算法服务衍生的受托方信义义务,以算法营运商直接服务的商业客户和终端消费者为限,并不能够延伸至普罗大众。因违反信义义务而产生的侵权责任,在本质上是一种基于合同相对性的责任,无法保护合同之外的第三人。然而,算法活动完全有可能对合同关系之外的第三方造成妨害,例如,自动无人驾驶汽车(受托人)在送乘客(委托人)回家的路上,撞伤过马路的行人(第三方);依靠数据分析公司(受托人)提供客户信用报告的民间融资机构(委托人),对申请贷款的小微企业主(尚未与之形成合同关系的第三方)施以惩罚性利率;通过在线招聘网站(受托人)进行校园招聘的大型企业(委托人),排除被标签化为“参与课外活动不积极”的申请者的面试机会(尚未与之形成合同关系的第三方)。在更多的情况下,算法运营商对公众的危害可能更加隐秘,例如,哈佛大学乔纳森·斯特兰教授指出,脸书(Facebook)可能利用算法分析多国用户数据并进行战略性内容推送,以达到操纵终端用户在自己国家大选中改变阵营的效果。如果该控诉属实,受到伤害的是全体民众。同理,利用算法进行高频交易的证券投资公司可能引发市场崩溃,受影响的不仅仅是与之交易的对手,还是国民经济的全体参与者,甚至是全世界。

基于合同相对性的传统保护,对全新的商业样态不再适用。在20世纪初,现代工业社会催生了规模经济,随着分工细化,大规模批量生产的商品不再直接销售给消费者,而是透过中间商完成商品分配。1916年,美国联邦法院在“MacPherson v. Buick Motor Co.案”中废除了当事人原則(Privity Rule)的适用,并指出了批量制造商所具有的公共义务:制造商不仅应对与其具有直接合同关系的经销商负责,还应当对任何因其产品缺陷受到伤害的消费者及其家庭成员和旁观者负责。数字工业时代的智能算法规制,也需要这样的判例:在对客户的信义义务之外,算法运营商还应对普罗大众承担相应的公共义务。如何借用普通法智慧引导算法运营商履行社会责任,内部化不合理的外部性成本,这也是需要解决的问题。

(三)法律监管的时代挑战与功利道义的相互增益

以算法为核心的人工智能技术迭代和应用拓展,造成多个方面的监管困境。第一,算法运营商创造出了简化问题分析和弱化责任归属的技术黑箱,将错综复杂的伦理判断和法律关系藏于其后。每个人都可以观察到各项指标和数据的输入和输出,但作为局外人的普通公众和监管者均难以完全理解算法背后近乎匪夷所思的原理和互动机制。如果监管者无法准确定性算法活动的法律特征和潜在风险,就会导致外部监管失灵。第二,当特定智能服务损害个体私人利益时,只有极少数情况可以依照雇主责任原则直接追溯至程序员和操作者的失误——带偏见的数据、不合理的假设、有漏洞的代码。损害效应产生于算法构建以解决问题的框架,有时也隐藏在数据挖掘的方式中。算法运营商和技术开发方常常作出貌似可信的言论,坚称其模型合理、数据可靠、结构夯实。但外人难以考证,即使是精通计算机的专业人士,对算法本身的评价也是仁者见仁、智者见智,更不用提基于机器学习的智能算法在自我迭代过程中,有可能写出令其造物者都雾里看花的代码天书。因此,以加害人过错为前提的普通侵权责任,面临适用困境,阻绝了受侵害方的正常私力救济渠道。第三,商业巨头和技术官僚披上“科学”的外衣,以此排斥程序正义的合理诉求。透过对过往数据的充分解读,算法程序将用户标签化,在不知不觉间对个人贷款和就业的机会予以限制,对受众接受的信息和内容予以控制,对用户的心智模式进行操纵和重构。算法程序以上帝视角充当着“看不见的手”的角色,但整个过程毫无程序正义可言,致使受损害者权益保护的问题更加突出。第四,社会群体被暴露于算法活动的积累妨害之下,无法通过合同的方式得以避免,集体行动因“搭便车”问题严重而成本高昂。面对日益居于社会最佳活动水平之上的算法活动,当事人缺乏赖以保护自身的法律武器,规则制定长期滞后于技术发展,私力和公力救济渠道都匮乏。

智能机器人与运营商之间是什么关系?是典型的委托代理关系吗?即电子代理人在代理权限内,以被代理人(使用人)的名义实施的民事行为,后果由被代理人(使用人、营运商)承担。显然,这种文义复杂本身是低效而不必要的。回归到智能服务的委托代理关系本质,智能机器人和算法运营商应当被视为客户的“共同代理人”,共同行使代理权、共同对被代理人负责。在当智能机器人法律人格尚不明晰、算法运营商和智能机器人长期存在着因高度“人格混同”和“财产混同”造成“责任混同”时,作为提供专业服务的智能机器人,与算法运营商代理人一样,也是信义义务的责任主体,尽管二者都共同对被代理人(客户)负责,在承担责任的表现形式上,却只是算法运营商全权为智能机器人给客户造成的损害赔偿买单。

(二)基于财产、人格的混同与分离的多元责任划分

智能机器人作为投资顾问违反信义义务导致客户蒙受损失,相关责任由谁承担?美国的通行做法是由使用智能机器人投资顾问的咨询公司承担。这种责任分配方式,具有“运营商问责制”的外观——作为“电子代理人”的机器人投资顾问不承担责任,而是作为“电子代理人的使用人”的运营商承担责任。各州登记在册的是投资咨询公司本身,尚不是一个个独立的智能机器人,而对信义义务的追溯以登记为准。不过,美国证监会已经考虑要求将对足够智能的机器人进行单独注册,智能机器人投资顾问在人格和财产上同投资咨询公司分离已经指日可待。

面对天马行空的代码程序,利用算法提供服务的运营商和接受算法服务的消费者同为信息弱势方。负责算法维护和更新的技术开发方本身,才是算法运营商的直接受托人,理应以运营商利益最大化谨慎行使职权——尽量减少算法失灵的潜在风险。如果算法运营商不是技术开发方,二者是分离的不同人格主体,因“责任混同”,算法运营商承担了智能机器人作为事实受托主体理应承担的赔偿责任后,享有向技术开发方的追偿权。

随着计算能力和数据搜集能力呈指数级增长,深度神经网络和深度学习在最近成为可能,全自动化智能机器人将是压垮过度简化责任归属的“运营商问责制”的最后一根稻草——距离智能机器人成为独立承担责任的民事主体,只有一步之遥。第一,

机器学习算法已经趋近具有自主思考和意识能力的阶段。与程序员为每种可能的场景提供精确指令的经典代码不同,机器学习围绕着对算法的“规训”——通过增加算法在未来分类时所参考的数据节点目录,来实现算法的自我迭代,而不需要程序员来回重写算法。如今,有可能每个人都不经意地参与了对算法的“培训”。例如,特斯拉利用车载硬件强行搜集用户驾驶数据,以改良自动驾驶技术;谷歌的响应验证码测试,要求互联网用户通过选择某一特定类别的所有图片来验证自己不是机器人,从而增强机器识别能力。第二,智能机器人同运营商之间的“主体混同”和“财产混同”可以被人为破除。在智能机器人已经复杂和先进到人类监管者难以对潜在算法伤害进行预设规避时,运营商迫切希望主张对智能机器人的“所有权”和“使用权”分离,以获得有限责任的实体保护。建立智能机器人补偿基金或引入强制保险制度,以确保算法服务对象得到合理受偿的法治趋势已经成为各界共识,建立统一的人工智能登记平台以构建明晰的责任追溯体系势在必行。

技术和制度的稳步推进将最终赋予智能机器人独立人格、让其拥有独立财产,并独立地成为客户的代理人。欧盟法律事务委员会于2016年5月提交动议,要求欧盟委员会将最先进的自动化机器人视为具有特定权利和义务的“电子人”,并为其设立登记账户;2017年10月,沙特阿拉伯率先赋予机器人“索菲亚”公民身份。国内有权威学者提出:“应尽快赋予联结主义设计理念下的人工智能原则上自身承担法律后果的法律主体地位。”

机器人责任同运营商责任的分离,并不意味着运营商责任的完全免除。智能机器人完全独立,应视实际情况区分为相对完全独立和绝对完全独立。

在智能机器人相对完全独立的智能服务中,算法运营商一般负责大数据的采集和勘校,然后交付智能机器人利用算法程序生成可供决策的评价和预测报告;此时,运营商和机器人应当被视作客户的共同代理人。不过,此时的共同代理关系不同于智能机器人同算法运营商人格混同时的“共同代理关系”。基于二者间泾渭分明的分工协作,该种关系是被代理人就委托事务的各个部分分别向各代理人授权,各代理人在独立代理权限内单独行使职权,且在独立代理权限内承担相应责任的共同代理关系。虽然,当算法服务致使客户权益受到损害时,很难直接将算法伤害归因于单独的数据偏见或程序失灵,往往是“二者兼有”使然;但是,以可读报告形式摆在消费者面前的算法决策,才是造成损失的直接近因。考虑到智能机器人的算法和程序在数次自我迭代中,可能已经完全偏离原编程者的意志,相较于永远受到传统隐私法、数据安全法规制的数据搜集环节,智能机器人在算法决策环节的行为相对更不可控,理应承担更大的责任。总之,在智能机器人相对完全独立时,算法运营商就数据搜集和隐私保护环节负责,智能机器人则应独自承担算法决策和内容生产环节的潜在责任。当智能机器人以自己的补偿基金无法弥补因算法决策失误造成的巨大损失时、无法承担相应的责任部分,由技术开发方承担补充赔偿责任。

在智能机器人绝对完全独立的服务关系中,算法运营商通常只负责以自己的名义招揽客户,智能机器人则在云端完成自主数据挖掘,并利用不断完善的算法模型即时输出具有明确指向性的结果并为客户提供服务。此时,运营商和机器人之间的关系类似于“商号出借”的法律關系。多数国家法律承认商号出借的合法性,商号出借现象在现实生活中也屡见不鲜(诸如挂靠、连锁经营、特许经营等)。我国法律尚未对商号出借及其法律效力和法律责任做出明确的规定,但依照发达国家的相关规定,一般由出借方与借出方承担连带责任。我国《侵权责任法》第34条规定了“用人者责任”,因工作人员执行工作任务造成他人损害的,用人单位承担侵权责任。我国消费者权益保护法第42条规定,“使用他人营业执照的违法经营者提供商品或者服务,损害消费者合法权益的,消费者可以向其要求赔偿,也可以向营业执照的持有人要求赔偿。”比照商号出借、用人单位责任、营业执照借用等法理,当智能机器人绝对独立、因算法决策致使客户蒙受损失时,算法运营商、技术开发方和智能机器人对外应当承担连带责任;连带责任的内部份额则根据各自责任大小确定。相较于智能机器人相对完全独立的情形,要求算法运营商对智能机器人绝对独立时的“失灵”承担可能更多的潜在责任,是对算法运营商因利用完全独立智能机器人减少自身工作量而获得更高利润的替代性追偿。运营商使用人无过错而承担连带责任,会使任何人或组织在释放完全独立的人工智能猛兽时三思而后行。

(三)数据受托关系的特殊性与信息信义义务

以算法服务前置为特征的电子智能服务是对传统委托代理关系的映射与创新。服务内容的数码化与受托主体的智能化,决定了在电子智能服务所映射的传统委托代理关系之外,还存在着一层与之并行的“信息委托代理关系”。

算法运营商搜集、校勘、分析并使用用户数据,这些数据本身可能对用户造成损害。由于诸多数字化业务同生活、工作结合紧密且逐渐变得不可替代,用户不得不提供自身数据、甚至将弱点暴露给平台,以换取相应服务来维持其在数字时代的“正常人”身份。在这些活动中,用户同智能服务提供商之间的信息和知识极不对称;对数据和算法的内部处理方式受专利和所有权保护,以“防止竞争者商业盗窃”;而用户除了接受使用协议并选择相信互联网平台“尊重用户隐私”的空头承诺外别无他法。很显然,作为信息受托方的运营商或智能机器人,在传统信义义务之外,还应承担同其信息优势地位相称的“信息信义义务”,以保证其经营和决策行为不会对居于弱势的客户造成损害。

数字化信息受托人本身是一种兼具“特别目的”和“特殊形态”的信息受托人,需要承担的信义义务不能一概而论,必须考察其服务的本质。但是,有一个基本原则是作为信息优势方的受托人不可突破的底线:不能利用委托人信息对其利益造成损害。易言之,“信息信义义务”的主要内涵不在于保护用户隐私,而在于不利用用户隐私损害用户利益。算法运营商和智能机器人不得宣称保护用户隐私,却同时利用用户数据胁迫、操纵、歧视其接受服务的用户。

信息信义义务与传统信义义务有诸多不同。第一,在传统的委托代理关系中,委托人对受托人抱有较高期待:除了不伤害自己,还应该为自身福利的提升谨慎行事;互联网用户往往无法对智能服务提供商、搜索引擎和社交网站抱有这般综合期待。因此,信息信义义务具有较低的注意义务内涵。第二,通过各种途径变现用户数据,是很多网络服务提供商的核心收入来源,因为只有这样,他们才能继续“免费”为客户提供具有竞争力的服务。因此,利用用户信息获得补偿或适当牟利,并不构成对信息信义义务的违反。即便如此,网络服务提供商不得在任何情况下将用户数据打包出售或分配给其他公司和平台。第三,媒体网站依赖其用户生产更多内容以带来源源不断的流量,搜索引擎期待更多数据和页面以实现更精准索引和分析,他们都具有诱导客户在网络公共空间暴露更多内容并从中获利的现实激励。这种诱导不同于操纵,并不构成对信息信义义务的违反。

总之,算法运营商和智能机器人对与其形成直接合同关系的客户负有因传统委托代理关系而引发的普通信义义务,还对普通用户负有因服务数字化而引发的信息信义义务;二者共同构成算法运营商和智能机器人内部法定义务的轮廓。

三、外部监管重构:智能时代的企业责任与利益衡平

有效监管是技术普惠的前提。然而,在内部信义义务所赋予的用户保护外衣无法掩盖算法活动外部性扩散的公共领域,却长期面临“基本法适用缺位”的问题。人們的生活细节和私密信息可能在算法程序面前一丝不挂,自愿或不自愿地臣服于算法决策。当人工智能通过算法决策获得了本该由政府或公共机构掌握的权力时,对这种权力的约束,就显得尤为重要。毕竟,以技术赋能而取得的具有公共属性的权力,并不具备“自由人们的自由同意”的正当性。正是在这个意义上,算法权力滥用的防范与治理需要实现私法责任和公法责任的无缝衔接,揭开技术面纱,构建以人为本、公平至上的道德法律框架。

(一)以公共滋扰定性算法妨害的正当性基础

外国侵权法学者已经关注到私人领域经济行为的外部化效应,视“增强公共义务”为根本解决方案。弗兰克·帕斯夸勒观察到商业活动对公众利益的侵蚀,并提出运营商和搜索引擎适用的商业伦理规范。耶鲁大学杰克·巴尔金教授将算法活动对第三方和公众可能造成的妨害比作美国侵权责任法中的公共滋扰(Public Nuisance),建议政府通过建立类似于消费者保护或环境保护的法律体制来应对算法妨害。美国法上的公共滋扰泛指影响公共财产或公共权益的侵权行为,该概念最早来自英国法中所定义的“在实质上影响女王臣民生活舒适和便利”的不法行为。例如,驳船的不当系泊堵塞运河公共航道、剧院门口的长队影响附近茶馆生意、抱着带天花的小孩在路边行走惊扰路人、流行音乐会滋扰社区生活、合法示威干扰居民正常上班,甚至因高尔夫球被击至高速公路造成交通隐患也构成公共滋扰。在“Attorney-General v. PYA Quarries Ltd案”中,英国法院确立了公共滋扰不同于私人滋扰(Private Nuisance)的判定标准——公共滋扰妨害必须是:足够广;无差别性地;对群体造成伤害;且不指望任何个人可以独自负责解决;必须由社区整体共同承担。美国联邦法院在“Attorney General v. Hastings Corporation案”中沿袭了英国法院对“群体”标准的划分,规定在公共滋扰中受到损害的必须至少是“一类人”。

将算法妨害比作公共滋扰有其合理性,这是因为:

首先,算法妨害具有明显的公共特性,并且会随着公共和私营部门的决策积累,对公众产生交叉伤害。政府或公司捕风捉影公众数字化的身份、轨迹和数据,利用程序进行分析、归类,得出能够影响公众机会(求职、信用、金融等)或对个体进行区别对待(监督、操纵、排除等)的算法决策。数据处理和算法决策又将产生新的指向用户特性、轨迹、交集的评价和分值,这些评价和分值可能在数据挖掘的过程中被别的平台采纳,重复构建用户数字表征并强化甚至显化用户的弱点。随着个体数字身份因算法决策的“过度消费”而每况愈下,整个公共数据体系都面临严重污染的现状。鉴于此,算法妨害是对公众诸多实体权利的“累积侵蚀”,符合公共滋扰特性。

其次,算法妨害无法因个人诉讼而得以完全解决。算法妨害是不受控制的算力拓展引发外部性扩散的必然结果,因其伤害隐蔽但伤害面广,对于每个独立的个体而言,算法妨害并不是非此即彼的二分法——要么受到妨害、要么没有受到妨害——就能简单概括的。现实的情况要微妙得多,算法主体在制定和设计算法要解决的特定问题时,面临不可避免的权衡取舍。通过法律很难为算法操作划定妨害底线,也不可能将负面效应隔离于单一因缘。问题的实质在于,是否因为算法活动外部性的扩散对无辜的大众群体造成了不合理的社会成本。个人民事诉讼无法对算法妨害的群体外部性给予补偿,必须依赖于集体诉讼甚至公权力介入。

再次,公共滋扰的归责原则,适用算法妨害的无过错责任归责原则。公共滋扰的定性和量刑,完全取决于滋扰后果的严重程度,而不论当事人的主观意愿。算法妨害的特性在于,难以认定算法运营商、技术开发方和操作员是否具有主观过失或重大恶意;对于具有自我意识的智能机器人更是如此。算法本身不具有意图、欲望和恶意,算法程序也不是其创造者、使用者内心偏见和歧视的简单投射。实际上,算法妨害来源于对人们数字身份数据勘校、分析和拟合的积累效应。有学者指出,“算法系统中常见的‘数据驱动中介建立在‘信息和行为而不是‘意图和活动的基础上。”职是之故,算法妨害的責任同公共滋扰的责任类似,是一种无过错侵权责任,不以加害人主观故意为构成要件,因为其意图和目的无从考证。算法活动中的当事人应该聚焦于特定算法的使用所造成的特定社会效应,以及从整体的角度出发这些效应是否合理、正当。

(二)算法经济功能重校与通用治理规则再造

公共滋扰本质上是一种违法行为。根据其侵害群体利益后果的严重程度,由代表全体民众的公诉人提起刑事诉讼或由代表特定群体利益的律师提起民事诉讼。

1. 鼓励个人或集体诉讼的市场化监督体制

《美国侵权责任法》规定,公职人员必须对公共滋扰提起诉讼从21世纪开始,美国各州的公诉人通过诉讼不断扩展公共滋扰的适用,为大规模侵权行为、公共卫生问题和环境污染寻求补救办法;康涅狄格州甚至起诉电力公司排放过多的二氧化碳。不过,自然人只要能够证明自己在滋扰中“承受了特别伤害”,就享有公共滋扰中的诉权,法院对自然人的公共滋扰诉权亦予以认可。

随着智能机器人对各个领域和行业的渗透,算法妨害具有全面而分散的特点:少数受害者能被轻易识辨出来,多数则不能。在这种情况下,可以适当鼓励民事律师积极介入并代表特定算法活动的受害方提起损害赔偿的集体诉讼。中国学界已经意识到,集体诉讼是解决群体性小额争议、节约司法资源、保护消费者权益的灵丹妙药,是市场化的监督体制。《美国联邦民事诉讼程序规则》和判例法规定,只要原告团体满足了众多性(Numerosity)、共同性(Commonality)、典型性(Typicality)的特征且具有充分代理关系,就可以提起集体诉讼;该诉讼标准同我国《民事诉讼法》的规定在字面上有一定相似性,但受制于律师行业的整体发展状况和长期司法实践的制度惯性,集体诉讼在我国并不常见。面对人工智能的异军突起,未来立法者需要及时转变对集体诉讼的态度并辅之以必要法律基础设施。对于个人因受到特别伤害而提起的民事诉讼,法院也应当鼓励。美国联邦法院在“Tate and Lyle v. GLC 案”中裁定,即便与妨害方无任何法律关系,只要在公共滋扰中受到损失,就可以单独提起诉讼或加入集体诉讼。因此,即便不是算法运营商的客户或终端用户,也可以因受到特定滋扰而起诉。

2. 加强以预期效果为导向的信息披露

然而,无论是集体还是个人,针对算法妨害提起诉讼,都会面临举证困难的特殊难处。算法活动技术壁垒的存在,原告方难以自证看似中立的算法活动与自身权益受损之间的直接关联。对来自公众的怀疑和质询,算法运营商可以很方便地搪塞以难以捉摸的空话和故弄玄虚的解释。

鉴于此,算法活动中的信息优势方有必要就技术黑箱的运作方式和裁判机制做出详细且外行人也能理解的信息披露。信息披露的核心在于算法决策的运算、逻辑和分析过程而不在于源代码本身。算法决策的正当性需要智能机器人运算和分析过程中的程序透明和因果透明得以支持,并能经得起从结果向数据输入的倒推。算法运营商应当主动解释清楚智能机器人的硬件、软件和外部环境之间的相互作用,如何导致其当下的行为模式,并清晰、直观地就以下事项(包括但不限于)作出完整信息披露:信息挖掘的数据来源、典型特征和分类方式;算法程序的运作原理、代码逻辑和预期效果;可能存在的系统偏差、运行故障和矫正机制。对于算法代码(人为或自动的)重大修改和删减,算法运营商也应当补充必要的信息披露。

3. 确保责任主体链条的追踪识别

针对算法妨害提起诉讼,还会面临确定被告的特殊难处。在算法妨害背后,有着盘根错节的法律关系以及由此产生的多个潜在责任方,原告方要准确确定被告非常困难。随着深度学习技术的不断完善以及智能平台的相互开源,很多智能机器人和算法程序已经自我改良到完全偏离其造物者预设,只是缺少人类的自主思考、意识能力且尚未获得独立法律地位的地步,这进一步加大在损害赔偿诉讼中确定责任主体的难度。

当人工智能尚不能被视为独立的责任主体时,技术开发方对算法妨害负有主要责任,该责任仅当其证明公共滋扰是由于算法运营商的不当使用或拙劣修改而造成时才能得以免除。因自我迭代而“脱缰”的智能机器人造成的公共滋扰,可比照因“产品缺陷”而导致的无过错侵权责任:受害人既可以向生产者(技术开发方)要求赔偿,也可以向销售者(算法运营商)要求赔偿。“脱缰”原因主要由哪一方造成,另一方有权向其追偿。在智能机器人尚未获得明确法律地位之前,确保其算法程序能够被追踪至自然人责任主体,比提升算法运营商和技术开发方的透明度要求更加重要。

注册登记制度,是确保责任追踪识别的良方妙药。例如,2016年,美国联邦法律要求,所有模型机以外的小型无人机都必须实名登记,有效减少了无人机利用的不当行为。当然,在人工智能领域,穿透技术黑箱的责任追踪识别必然更加困难,但在技术上也并非完全不可行。美国证监会和美国商品期货交易委员会共同要求,所有人工智能投资顾问的底层算法,必须嵌入“法律识别标识符”,防止算法运营商在算法中预置有损投资者利益的代码。对于集成了多个算法程序的智能机器人,每个算法程序都应当自带“法律识别标识符”,算法之间必须遵循特定的业务关联协议,且应在主程序中写入硬核编码的审计日志,为未来可能的责任划分留下充分记录。

4. 保障个体受众的主动退出机制

消除妨害是公共滋扰诉讼中最常适用的救济手段。在人工智能语境下,受侵害方可以通过诉讼,请求算法侵害方利用技术手段消除影响、恢复名誉。

2012年1月,欧盟议会着手改革数据保护法规,2018年5月,开始强制推行“全球最严”欧盟《通用数据保护条例》(General Data Protection Regulation,下简称GDPR)。作为当前波及面最广、惩罚措施最严厉的全球性立法,GDPR赋予欧盟公民随时访问、删除、更正、索取个人数据的权利,并对与欧盟客户有任何形式业务往来的企业设置合规门槛,被称为人工智能时代的“人权宣言”。我国可以借鉴欧盟以及西方主要发達国家的立法实践,赋予受侵害方不受限制的擦除权和遗忘权,以脱离算法妨害。

(三)算法妨害诉讼中的法益衡量标准

1. 提高算法侵害的免责门槛

面对公共滋扰的起诉,被告方常用“自寻滋扰”作为辩护理由,宣称原告明知存在潜在危害却仍然靠近,借此免除损害赔偿责任。在人工智能时代,算法运营商对个人信息的采集采取了“自觉自愿”的诱导进路,其对消费公众的吸引力在于“免费”提供更“个性化”的服务。用户同意网络服务平台和算法程序搜集、利用甚至分享个人数据已经成为获取各类基础服务的必要前提,而算法运营商对信息搜集的终极用途三缄其口。通过用户知情同意书、服务协议和各类免责条款,当危害产生时,算法运营商可以轻易证明受害人“自寻滋扰”。即使对于与之没有直接关系的第三方,被告也可以辩称其服务和影响力是如此广泛,已经构成潜在的“公共知识”,进而批判原告没有尽到适当的注意义务。的确,在已经深入渗透市民生活方方面面的算法面前,潜在的被侵害人难以脱离侵害的最终发生,脱离侵害就意味着完全丧失找工作、租房、医疗保险或参与任何日常生活中司空见惯的正常活动的基本权利。

考虑到算法应用给个体公民带来的潜在胁迫,在以公共滋扰对算法妨害提起的民事诉讼中,被告不得以“自寻滋扰”为由得以免责。

2. 引入利益衡平机制

免责门槛的提升,并不是法律对算法运营商过度苛责。算法妨害的实质,是算法外部性扩散引发的社会成本向普罗大众和弱势群体的不合理转嫁。算法规制的终极目的,是在尽可能不牺牲社会总体福祉的基础上,利用规则引导让算法运营商、技术开发方自行消化算法外部性扩散导致的社会成本。因此,法律应兼顾“卡尔多-希克斯的效用追求”与“社会总体帕累托最优”,合理促进算法与社会的深度融合。

1970年,美国联邦法院在“Boomer v. Atlantic Cement案”中首次引入成本收益分析模型,考察造成公共滋扰经济活动的社会效用以确定最终的赔偿金额与方式。该案中的原告,代表全体土地所有人对水泥厂造成环境恶化提起诉讼;法院裁定水泥厂的工业污染构成公共滋扰且承担相应责任。在该案的基础上,法院在“Estancias Dallas Corporation v. Schultz案”中,发展出了用于比较诉讼双方权益诉求的多重衡平测试:某商业公寓的中央空调系统的噪音构成对周围居民的公共滋扰,居民们遂向法院申请禁令。法院对证据进行审核后,考虑到不安装中央空调,商业公寓根本无法对外租赁产生经济收益,但安装静音空调系统的开销明显大于周围居民所受的可推算损失,法院因此驳回了居民群体申请禁令的请求,但判决商业公寓的管理人在安装静音空调系统前,每年对受滋扰居民持续支付总计1万美元的赔偿金。

法院的成本收益分析并不总将区域经济效益置于个人合法权益之上。1982年的“Prah v. Maretti案”,法院禁止被告在自己土地上建造高层公寓,因为过高的建筑将妨碍周围居民楼的采光。法院裁定:被告对阳光的阻挡将妨碍周围居民楼顶太阳能集热器的正常使用,会对打算使用新能源设备的“一类人”,构成公共滋扰。由此可见,在公共滋扰案件的审判实践中,美国联邦法院并非单一地在区域经济效益和个人合法权益之间作权衡取舍,也同时兼顾当多个潜在个人合法权益受损时,整体社会效益的变化。当公共滋扰对社会整体效益造成威胁时,不因个案中区域经济效益远甚于个人合法权益,就放任公共滋扰横行;这是算法社会所需要的法律底线,也是人工智能时代必须遵循的基本原则。

当经济实体更加依赖新技术以获得市场竞争优势时,利用算法作出决策,会使公共部门、商业公司能够更有力且更廉价地影响更大规模的受众群体,反过来进一步拓展以算法为核心的智能机器人在分组、归类和决策上的速度、深度和广度,进而造成算法外部性扩散升级。这些副作用就好比工厂活动的提升导致污染水平的提升,是商业繁荣和算法拓展互为因果造成的整体环境恶化。鉴于此,法律应当在技术发展与个体保护之间谨慎衡平,避免局部经济利益的雪球效应颠覆社会整体效益。应当明确,内部治理、消化算法自身的“污染”,是所有利用算法实现特定经济目的的公司和企业的基本社会责任。

四、结语

在大数据驱动算法语境下加强责任穿透,与国务院《新一代人工智能发展规划》相一致。人工智能具有显著溢出效应,合理运用能推动经济社会各领域从数字化、网络化向智能化加速跃升并实现对社会、经济和生活的全面治理。先进的法律制度可以为确保算法活动不至于具有胁迫性而建立防火墙,本质上,这是一种对“治理的治理”。

在世界范围内,至今尚不存在一套完整的规范人工智能法律制度。鉴于此,本论文从内外两个方面,就人工智能时代的责任归宿的基本框架以及法益衡量提出了通用标准。从合同相对性出发,算法社会的责任主体识别,宜遵循信息优势方承当更大责任的基本原则。具体而言,算法运营商和算法开发商相较于算法受众具有更大信息优势,在智能机器人不具有独立法律地位之前,由算法运营商和算法技术开发商对智能机器人提供的算法服务造成的妨害全盘承担民事责任;一旦智能机器人具有独立法律地位,则可认定智能机器人有优于运营商和技术开发方的信息地位,由智能机器人与运营商、技术开发方共同承担连带责任。人工智能时代的责任和义务框架是以变应变的。从合同外部关系出发,算法活动除可能对合同直接当事人造成“故意妨害”外,也可能对合同关系之外的普罗大众造成“公共滋扰”。侵害个人权益的算法行为如果具有更高价值的法益,则应当被适当允许,以促进区域经济效益、鼓励科技进步;对个体权益的技术侵害因时间或范围的叠加可能上升为对整体社会效益的累积侵蚀,那么,即使该算法活动具有较高的区域经济价值,也必须及时制止以防范系统性风险。

Algorithm Regulation in the AI Era: Liability and Compliance

TANG Linyao

(Institute of Law, Chinese Academy of Social Sciences, Beijing 100009, China)Abstract:

With cloud data mining providing the fuel for algorithm activity, artificial intelligence robots are vividly becoming human agents in sophisticated commercial activities, reshaping the credit system of the society. Traditional fiduciary system is now facing critical challenges due to the lack of public legal infrastructure against regulatory arbitrage and big data rentseeking. In essence, algorithm nuisance is a special kind of public nuisance. In order to internalize unreasonable social costs associated with AI products, compliance obligations shall apply to all entities involved in AI production and utilization.

Key Words:  artificial intelligence; algorithm activity; fiduciary duty; public nuisance; liability framework

本文責任编辑:李晓锋

收稿日期:2019-11-02

基金项目:中国博士后科学基金资助项目(2019M650947);中国社会科学院博士后创新资助计划成果

作者简介:

唐林垚(1990),男,四川省成都人,中国社会科学院法学研究所助理研究员研究人员,法学博士。

① 1959年,马文·明斯基(Marvin Minsky)在麻省理工学院建立第一个人工智能实验室,距今正好60年。

② 本文中“监管套利”指人工智能运用产生机器人取代自然人的新情况,导致制度、规章和法律缺失,算法营运商借机获取超额利润、转嫁成本。

猜你喜欢

人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!