生成式人工智能虚假信息治理的风险与应对
2024-10-12邓宏光王雪璠
[摘 要] 从数据输入、模型运算以及输出结果的运作流程来看,生成式人工智能具有使虚假信息在数以万计的数量级上成倍扩散或者合并的能力。为此,世界各国政府正在面临为生成式人工智能系统设置护栏和保障措施的任务,主要面临以下困难:高拟真生成式人工智能生成内容加剧了事实核查的难度、虚假信息治理时国家公权力的介入不足、监管责任的互相推诿等。据此,生成式人工智能开发者、部署者、服务提供者等利益相关主体应当紧密合作,共同承担虚假信息排查与管控的风险,具体分为三个方面:一是分层式治理,虚假信息治理的整体布局(包含数据层、内容层、服务层);二是纠正式治理,保障受生成式人工智能生成内容侵害主体救济权;三是协同式治理,责成AI价值链上最密切利益主体对虚假信息的不良后果承担不真正连带责任。
[关键词] 虚假信息;生成式人工智能;深度学习;数据训练;“通知—删除”规则;不真正连带责任
[DOI编号] 10.14180/j.cnki.1004-0544.2024.09.012
[中图分类号] D923 [文献标识码] A [文章编号] 1004-0544(2024)09-0115-15
基金项目:重庆市教委人文社科研究项目“健全知识产权惩罚性赔偿制度研究”(20JD031)。
作者简介:邓宏光(1977—),男,法学博士,西南政法大学民商法学院教授、博士生导师;王雪璠(1996—),女,西南政法大学民商法学院博士研究生。
引言
生成式人工智能模型①是基于大量非结构化数据训练而形成的深度学习模型,它具有提高生产力、降低成本与提升企业效益的巨大潜力。与以前的深度学习模型不同,生成式人工智能模型的强大之处在于,它们并不局限于执行一种任务,而是可以同时执行多种任务,例如分类、编辑、总结、回答问题和起草新内容。这使得公司能够在用户缺乏深厚的人工智能和数据科学知识的背景下,相对轻松地使用这些模型启动多个应用程序②。
与传统人工智能一样,生成式人工智能也会引发隐私问题和道德风险,例如训练数据中隐藏的偏见可能会长期存在。这些技术可能会加剧虚假信息的产生与传播,导致欺骗、欺诈、歧视和偏见的迅速扩大,开辟更多的攻击领域和新的攻击形式,从而增加了安全漏洞出现的风险。OpenAI首席执行官Sam Altman在2023年5月国会听证时曾将生成式人工智能导致“有害内容、虚假信息、缺乏透明度和知识产权盗窃”等问题列为必要监管议题1。近期,OpenAI已经面临The Intercept、Raw Story和AlterNet新闻机构的起诉。这三家机构指控OpenAI滥用他们的文章训练其流行聊天机器人ChatGPT的人工智能系统。国内同样面临虚假信息扰乱社会秩序的问题。2023年4月25日,深圳某自媒体公司洪某先搜寻了近年来中国讨论度广泛的社会新闻,随后利用ChatGPT将特定元素例如时间、地点、日期或性别等进行修改,重新撰写一篇假新闻,借由上传这些文章赚取流量再加以变现。不仅如此,洪某还利用ChatGPT制作了多个存在细小差距的假新闻版本,以避开百度旗下平台的审查。最终洪某因涉嫌寻衅滋事罪被警方采取强制措施2。这意味着,当人类智力与人工智能协作,人类利用ChatGPT搜索热点新闻语料库以及其他相关资料,并对新闻构成要素的部分再组合形成虚假新闻,在缺乏人工审查时,这些虚假新闻、虚假信息甚至可以逃脱现有技术的审查,进入公众视野,对社会秩序造成不良影响。
2022年9月13日,第77届联合国大会第一次全会临时议程项目69(b)中3,也曾对虚假信息的泛滥表示担忧。联合国秘书长安东尼奥·古特雷斯(António Guterres)在其提交的《打击虚假信息,促进和保护人权与基本自由》报告中,阐述了错误信息和虚假信息的区别。错误信息是指那些意外传播的不准确信息,而虚假信息不仅指信息内容本身不准确,还存在有意欺骗并被故意传播的行为,最终造成严重危害。安东尼奥·古特雷斯对“虚假信息”一词没有给出明确的定义。因为对虚假信息的关切可能出现在多种不同的情况下,涉及选举进程、公共卫生、武装冲突或气候变化等问题,所以没有一个定义能全面描述虚假信息。联合国秘书长安东尼奥还称,“打击虚假信息需要在建设社会抵御能力以及媒体和信息素养方面进行持久投资”4。
当前,生成式人工智能生成虚假有害信息已经受到各国关注。诸如安全评估、算法备案以及审计等措施,通常通过人工智能模型投入使用前和应用后的干预措施得以体现5。值得注意的是,生成式人工智能的开发者、部署者以及服务提供者等受AIGC影响的主体,是否在法律上具有保证信息真实的审查义务?如若未履行内容审查义务应当承担怎样的责任?有学者指出,生成式人工智能模型不能适用产品责任,应当按照《中华人民共和国民法典》(以下简称“《民法典》”)第1165条第1款,适用过错责任的一般条款进行规制,并在有限范围内类推适用“通知—删除”规则6。但也有学者认为,抑制生成式人工智能生成虚假信息,需要加强透明度监管。尤其是构建生成式人工智能系统的组织应该记录、披露训练数据和模型架构。故而,创建安全使用工具的责任应该由构建和部署生成系统的公司承担,这意味着这些系统的构建者应该对其产品的产出负责1。亦有学者提出,生成式人工智能服务提供者应当履行内容审查义务,并承担违反内容审查义务的责任2。有反对者认为,生成式人工智能服务提供者对内容生成的控制能力,已不同于以往的网络服务提供者,不能仅依据“风险控制义务”,要求生成式人工智能服务提供者对其生成内容具有一般化的审查义务3。综上,生成式人工智能的开发者、部署者以及其他服务提供者等受生成式人工智能系统影响的主体,理应对生成式人工智能生成内容的真实性、合法性负责。立法者可以将内容审查义务、违法信息及时处置义务等与虚假信息治理有关的注意义务分配给生成式人工智能系统的设计、部署、应用等不同阶段的不同主体,或将多主体捆绑,以共担义务的方式协作治理,以便为生成式人工智能系统的运作提供一个健康良好的生态环境。
一、生成式人工智能加剧虚假信息的威胁格局
生成式人工智能技术看似是创造性生产,实际上其运行逻辑是对现有数据的重新排列组合,以及更广泛地获取训练数据集。这个技术本身存在生成虚假信息的风险。尤其是网络服务提供者利用人工智能技术“标签化”热门内容,故意编造虚假信息时,还有可能承担扰乱社会秩序的公法责任。虚假信息的危害性根源在于,误导社会公众认知,引导社会公众做出错误行为或者错误决策。
根据《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”)第22条,生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。也就是说,该《暂行办法》中与生成式人工智能技术有关的规定,对生成式人工智能模型同样适用。生成式人工智能模型则是指根据用户指令生成内容的系统。传统的通用人工智能,是一个能够像人类一样思考、学习和适应的机器。从技术上讲,它主要由“深度学习”4技术驱动,该技术可以通过训练从数据中自动学习内容创建的结构和模式5,使内容创建过程更加高效和可访问,以更快的速度生产高质量的内容。与之前的技术相比,生成式人工智能的核心进步是通过使用更大的基础模型架构,访问广泛的计算资源,在更大的数据集上训练更复杂的生成模型。随着各种生成技术的日益普及,生成的错误信息将主宰未来的虚假信息景观。
第一,数据输入阶段。海量数据预训练为生成式人工智能技术触发虚假信息提供了“天然的胚胎环境”。基于海量数据库的训练模式,使得生成式人工智能技术在信息获取上不可避免地具有天然的滞后性6。除海量数据库本身有误或者数据过时外,生成式人工智能技术之所以会提供虚假信息,很大程度上是因为它们并没有理解人类语言的能力,也不具备人类思考和推理的能力,其对答如流的背后,实质上是通过海量数据训练建立了字词句之间的关联概率模型,使得AI模型具备了根据用户提问逐字计算出概率最高表述方式的能力。简单来说,训练数据被表示为概率分布。通过对它们进行采样和混合,模型可以生成超出训练数据集的内容,也就是一些评论者所说的新内容1。以此为基础,模型训练所需的大量数据意味着生成式人工智能模型的开发者必须依赖于互联网上公开提供的训练数据。从数据质量的角度来看,很难认为数据来源是完整、及时且有效的。因此,这些模型生成的内容可能是有偏见,甚至是有害的2。
第二,模型运算阶段。生成式人工智能模型优化与深度学习的可扩展性,成为虚假信息迅速扩散的“风火轮”。一方面,生成式人工智能技术通过深度学习和模型训练,对用户输入内容进行学习与反馈,并改进输出内容,使得系统具备更高效解决问题的能力。另一方面,在模型训练过程中,生成式人工智能模型使不真实信息在数以万计的数量级上成倍扩散或者合并,从而产生“雪球效应”。一旦训练集来源不真实或者训练过程中出现数据管理不善、数据不当删除等问题,都会导致偏见的强化以及不准确信息的指数级扩散。这些问题影响了人工智能应用的功效,加剧了社会不平等并削弱了对人工智能技术的信任。
第三,输出结果阶段。生成式人工智能技术为达目的“不择手段”,忽略输出结果的实质真实性。一方面,AIGC是在给定人类指令的情况下,利用算法生成满足指令的内容,从而帮助、指导模型完成任务。这个生成过程通常包括两个步骤:从人类指令中提取意图信息,并据此生成内容。为提高目标者对输出结果的满意程度,生成式人工智能往往“竭尽所能”,突出表现为它并不会承认自己在某个领域无知或者面对某个问题时无能为力。这就使得生成式人工智能擅于编造某种形式上看似正确,实际上却没有任何价值甚至虚假有害的信息。ChatGPT生成内容的逻辑,是利用来自人类反馈的强化学习3,对给定指令给出最合适的回应,从而随着时间的推移提高模型的可靠性和准确性。这种方法使得ChatGPT能够在长对话中更好地理解人类的偏好4。这种可靠和准确是对人类指令的理解优化,但却不能保证信息的来源可靠与内容真实。
另一方面,通过对人类价值判断与意识形态的渗透,生成式人工智能将经过处理和筛选的内容与人们的价值选择、意识形态相勾连,使人们在无意识时接受人工智能的潜在规训5。生成式人工智能在一定程度上替代了搜索引擎,在精准对接用户需求信息时,逐渐稀释用户对信息的自主选择能力和判断力。从内容生成准备阶段的价值预设与文化选择,到内容生成的反馈与应用阶段,都渗透了掌握话语权力者以及相关利益者的喜好。尤其是心智尚未成熟的未成年人,难以对其接触的信息进行甄别和筛选,无法留下可靠、真实信息并排除对其不利的虚假有害内容。长此以往人类将失去对其接触信息是否真实的判断力,进而失去对社会最基本的信任。
二、生成式人工智能虚假信息治理的风险挑战
(一)高拟真训练下多元主体的审查挑战
平台的基本结构是:参与者+价值单元+过滤器=核心互动。在这个等式中,参与者就是生产者与消费者1。价值单元也是核心概念,可以简单地理解为产品或服务,它由生产者生产出来,被消费者消费。单元指的是单一元素,比如一个视频、一次打车、一个商品等。同时,互联网平台所起的关键作用就是“过滤器”,也就是把有需求的生产者和消费者匹配起来。生成式人工智能服务提供者在平台价值产生与运营过程中的地位,早已超越一般的网络服务提供者,在生产者与消费者之间构建了更深层了解消费者意图的桥梁——依据消费者的反馈,反作用于信息的生产。
生成式人工智能模型创新的商业模式,可能会从内容生成革命中产生,这也是生成式人工智能服务区别于传统网络服务的典型特征。然而,整个服务提供与内容生成过程需要多主体参与和配合,也就意味着生成内容真实与否,可能与各主体的参与行为都存在关联。也正因为生成式人工智能服务由多元主体参与活动,却需为单一生成内容负责,每个参与主体难以把控自己之外的其他参与主体对内容生成的影响,进一步加剧了内容真实性审查的难度。此外,生成模型通常是根据大量数据进行训练的,以学习不同类型信息(如文本、图像和视频)之间的基本模式和关系。通过结合这些习得的表征,生成模型可以生成具有高度说服力和连贯性的多模态内容,这些内容与特定的叙述或大纲相一致2,使得生成式人工智能创造虚假信息相比一般的欺骗更难识别。此外,这些模型还可以通过利用用户数据、捕捉个人偏好和特征来创建个性化信息。例如,有学者基于神经网络的生成模型成功生成了个性化情绪音频3。一方面,人工智能对人类个人偏好的掌控,更有利于用户对人工智能提供的服务产生信任,从而建立更深层次的情感链接。个性化人工智能生成内容的崛起,有可能成为内容消费的主要来源,因为它能够根据个人消费者的特定需求和偏好定制内容。因此,人工智能算法正在根据用户的口味和需求生成包括广告、短视频和叙事在内的一系列内容。另一方面,生成式人工智能的模仿能力,已经达到了以假乱真的地步。通过深度学习和自然语言处理技术,它们可以准确地模仿人类的语言表达和思维方式,使其产生的内容在形式上与真实的文本难以区分。恶意行为者可以利用生成模型的能力,制造假新闻或其他类型的虚假信息,并配以伪造的图像或深度伪造的视频。通过换脸和重塑脸部的深度伪造以创建政治人物的高度逼真视频的情况并不罕见4。
生成式人工智能技术生成虚假信息的治理,很大程度上受到训练数据库质量的影响,尤其当数据训练与知识产权保护发生利益冲突时,由于数据集的增加,通常会使得深度学习方法的性能提高。而公开的数据库与企业拥有商业秘密的相关数据、技术资源肯定无法相提并论,严重影响了生成式人工智能模型通过深度学习优化模型的进程。这样完善虚假信息的治理,实际上是完善生成式人工智能价值链上不同主体所代表的利益规范。
(二)公权力介入下平台治理的权限挑战
生成式人工智能技术带来虚假信息治理的风险,但究竟如何治理则是由生成式人工智能生成文本、图像、视频或音频等内容的能力决定的。基于平台将大多数生成式人工智能模型作为服务出售的商业模式,全球AI治理基本与平台治理高度融合1。国家在治理平台时,需要对市场竞争秩序进行监管,需要对版权风险和个人隐私进行监管,需要及时调查错误信息的来源并加以干涉2,因此,国家绝不仅是规制制定与执行的监管者,它还充当着市场推动者、资源购买者以及能力生产者的角色。这三个未被充分开发的国家角色既使国家机构能够监管平台,同时也限制了国家机构监管平台。因为它们为监管行动的发生提供了背景。这使得平台治理不仅是一个监管问题,还是一个平衡相互对立的国家角色的问题——政治力量、经济利益和战略野心之间的冲突。
目前,世界各国政府都面临着为ChatGPT等生成式人工智能系统设置护栏和保障措施的任务。2024年1月30日,美国战略与国际问题研究中心发布最新报告《2024年人工智能政策预测》。该报告强调,2024年是历史上规模最大的选举年,这可能是人工智能在竞选、干预和传播虚假信息方面发挥重要作用的第一个选举周期3。目前,美国仍然是以2023年拜登政府签发的“安全、可靠和可信开发和使用人工智能”行政令为主要的AI监管路径,围绕安全、创新与竞争、工人支持、防止偏见和保护公民权利、消费者保护、隐私、联邦政府使用AI以及国际领导这8个领域,责成50多个联邦机构执行超百项具体任务,并创建由28个联邦部门和机构负责人组成的白宫人工智能委员会4。
在欧盟委员会2021年4月发布的《人工智能法案》的初步提案中,没有针对生成式人工智能系统的特别规定。然而,ChatGPT的发布在促使这种变化方面发挥了作用。尽管在初步提案完成时谈判仍在进行中5,但在当地时间2024年3月13日,欧洲议会通过的最终版本中,已经对OpenAI包括在内的生成式人工智能提供者制定了规则。这些规则包括一系列要求,例如,披露人工智能生成的内容,防止AI系统生成非法材料,公布并详细说明用于训练数据的版权证明材料,以及其他旨在遏制生成式人工智能生成虚假信息风险的措施6。以公权力介入的方式实现生成式人工智能的治理最典型的例子是意大利。2023年3月,意大利以侵犯用户数据隐私为由暂时禁用了ChatGPT1,同年4月底方才解除禁用措施。加拿大隐私专员办公室以类似理由对OpenAI展开调查2。相比之下,其他政府则优先考虑采取行动,以获取生成式人工智能带来的经济利益。例如,英国成立了一个专门的“基金会模式工作组”,资金总额为9亿英镑。英国政府预测,“此类系统可能使国家生产力增长率翻三倍”3。我国公权力对生成式人工智能技术的规制,则在阻碍与促进之间持模棱两可的态度。主要起作用的是保障互联网环境中信息安全的相关规定。如《互联网信息服务深度合成管理规定》(以下简称“《规定》”)第六条,本质上是对互联网环境中信息安全保障义务的延伸性规定,该规定在应对生成式人工智能合成虚假信息时缺乏针对性。而《暂行办法》第9条,名义上为生成式人工智能技术的规制做出具体的指引,把重点放在违法信息及时处置义务和信息内容监管义务方面,实则只是将生成式人工智能服务提供者定位为网络信息内容服务平台,把义务履行的“皮球”继续踢还给网络信息安全保障义务。对于生成式人工智能服务提供者具体应当包括哪些主体,是否包括前端通用人工智能模型的服务提供者,提供者向谁履行义务以及未履行义务时的责任应当如何承担等问题并不清晰,无法为法官在司法活动中提供确凿无疑的指引4。对平台这一主体身份的强调,旨在指引生成式人工智能服务提供者遵循平台责任来规范技术的应用。这些例子表明,随着生成式人工智能系统复杂性的不断增加,一系列政策策略正在迅速发展。
(三)生成式“创作”下监管责任的分配挑战
从生成式人工智能系统的运行过程,得出对生成式人工智能系统的监管框架——应当顺应生成式人工智能生成内容的“创作”过程,即从数据输入、模型运算及其优化过程到生成式人工智能输出结果的过程。每一阶段由开发者、部署者、服务提供者等不同主体参与AI系统运作。原则上,法律应当按照不同主体在不同阶段的参与程度和参与内容,赋予其不同的注意义务。正因如此,2020年4月到5月期间,欧洲议会经过长时间的讨论,针对如何监管生成式人工智能系统的问题作出了具体的规定,把对生成式人工智能系统的监管划分为三层义务5。
1.第一层:基础AI模型提供者的义务
基础模型是指在人工智能和机器学习领域中,经过大规模数据训练而生成的通用模型。“通用”是非常宽泛的意思,即同一系统可以应用于不同的环境,并对不同的个人和群体产生不同的影响。这些模型具备强大的学习能力和理解能力,可以在多个任务和应用场景中进行微调和适应6。例如,面部识别系统的开发者可以将其产品用于验证入监者的身份,或者通过监测用户行为实现精准广告投放。在技术层面上,基础模型是通过迁移学习和规模实现的。迁移学习的核心思想是将从一个任务中(例如,图像中的对象识别)获得的“知识”应用到另一个任务上(例如视频中的活动识别)。通常,在深度学习中,预训练是迁移学习的主要方法,但在代理任务上,预训练只是手段,通过“调优”适应下游感兴趣的任务才是最终目的。可以说,迁移学习使基础模型成为可能,而规模才是使基础模型如此强大的真正原因1。因此,降低风险是基础模型进一步发展的关键。
第一层基础AI模型开发者的义务,适用于通用人工智能模型类的基础模型和生成式人工智能子集的提供者(也被称为开发者)。开发者是指最初创建预训练模型或者训练模型的实体。与实物产品的制造商类似,生成式人工智能系统的主要责任由最初的提供者承担。例如,OpenAI、Stability或谷歌公司,他们有效控制着技术基础设施、训练数据和模型,拥有修改和测试它们资源的权利。《人工智能法案》将基础模型定义为“在大规模和多样化的数据上进行训练,旨在实现输出的通用性,并能够适用于多种独特任务的人工智能系统”2。关注输出和任务的通用性确实比通用人工智能模型的模糊定义更能准确反映大型生成式人工智能模型的细节。对基础模型的一般义务规定包括数据治理措施,特别是为了减少偏见而进行的数据输入。此外,在模型的整个生命周期中,必须保持适当的性能、可解释性、可纠正性、安全性和网络安全水平。这些要求必须由独立专家进行测试、记录和验证。除此之外,所有基础模型还需要实施风险评估、风险缓解措施和风险管理战略,以确保在独立专家的参与下,健康、安全、基本权利、环境和法治等方面的风险是合理可预见的。实际上,这一要求等同于将基础模型归类为高风险模型3。
按照《人工智能法案》管理ChatGPT的相关规则,生成式人工智能的最低标准包括以下三个关键要素:(1)关于人工智能使用的透明度义务。该义务是由人工智能服务提供者向使用该系统的用户履行的义务,以打击假新闻和虚假信息的传播。(2)关于一般服务提供者的义务应当延续。例如,“通知—删除”规则的运用以及服务提供者对明显侵权内容标记的注意义务。(3)披露训练数据中包含的受版权保护的材料。
2.第二层:对AI系统进行实质性修改的部署者
对AI系统进行重大修改的新提供者通常被称为部署者,在实质性修改后承担前提供者的责任。当然,对部署者(或者新提供者)的定义是宽泛的,可以包括与第一层义务主体不同的新提供者,也可能是多个部署者联合或连续工作,形成真正类似于代工生产价值链的AI价值链。甚至,开发者有时也可以同时充当部署者,实现垂直集成。
通常,部署者并不认为自己对所购买的生成式人工智能系统进行了必要的实质性修改,从而在法律上被视为履行第一层义务的基础模型提供者。这使得在整个人工智能技术发展的生命周期内明确单独和共同责任的分配,以及以最实际、全面的方式保护最终用户的基本权利变得十分困难1。或许可以借鉴欧盟的《一般数据保护条例》判例法的做法,即法院试图将数据保护的责任分配给与该时间段利益最密切相关的控制者2。
3.第三层:与AI价值链有关的其他主体
在AI生命周期的整个价值链上包括开发者、部署者、用户和接收者等多个利益相关者。例如Lilian Edwards将AI价值链上的主体区分为通用人工智能的开发者、部署者和最终用户3。第三层义务要求与AI价值链密切相关。实际上是将监管重点转移到部署者和用户身上。因为AI输出可能会被滥用于传播有害的言论和行为。然而,这种做法可能引发其他问题4。首先,在AI价值链上设计可行的责任分配是必要的。义务必须以一种能够实现的方式进行构建。简言之,可以合理地期望部署者和用户通过实施必要的技术调整并承担遵守义务的成本的方式来实现义务的履行。其次,许多人工智能法案的高风险义务涉及人工智能目标开发者在训练和建模阶段的责任。通常,人工智能目标开发者会预训练一个大型模型,随后部署者可能会与开发者合作对其进行微调5,而用户最终决定人工智能系统的具体用途,例如用于设计的商业用途或用于生成私人邀请文本。为满足《人工智能法案》关于训练数据、资料的记录保存、透明度和人为监督、性能、稳定性和网络安全的要求,并建立全面的风险管理系统,任何责任方都需要能够访问开发者和部署者的数据与专业知识。这导致了一种监管困境:只关注开发者可能会带来过度低效的内容审查义务。而专注于部署者和用户可能会给那些因洞察力或资源有限而无法遵守义务的人带来负担。第三,AI价值链中的个体行为者可能根本不具备履行监管职责所需的全面知识和控制能力6。这也表明,最终生成式人工智能触发虚假信息的责任可能需要产业链中各个层级的参与者共担风险和责任。
四、生成式人工智能虚假信息治理的应对策略
(一)分层式治理:智能生成下的能动分工
从生成式人工智能预训练、检测训练结果到生成内容的整个过程来看,生成式人工智能及时有效地排除与管控虚假信息的风险,应建立一个“涵盖侵权行为发生前、中、后”的全方位监管机制7。根据数据层、内容层、服务层的不同特点,需为各层级的生成内容参与者设定相应的义务。
1.数据层:“数据控制者+数据处理者”的双主体负责制
第一,人工智能模型开发者应负责确保模型训练数据的完整性。由于人工智能在训练和决策过程中高度依赖准确可靠的数据,任何数据的损害或篡改都可能影响人工智能系统的可信度和有效性。故而,应尽可能从源头上避免引入偏见和有害信息,以保障输出结果的预测能力与真实性。人工智能的模型训练类似于人类智能训练,但前者能够广泛利用各种数据。随着训练数据集的来源的多样化、数据有效性与及时性的提升,人工智能模型的生成内容也将表现出更强的预测能力或者与任务目标更接近的执行结果。然而,现实世界数据的复杂性使得数据质量问题愈发明显,而冗余数据可能会增加不必要的复杂性,从而阻碍训练1,并导致无用甚至有害的结果2。数据控制者面对大规模法律文本和大规模数据集常常表现出“不知所措”的无力感,必要时,利用“技术”解决“技术”问题可能是“魔法”打败“魔法”的最佳捷径。比如,通过去中心化云存储网络,数据可以安全地储存在全球各地的数据中心。再结合区块链技术的能力,就能确保数据的可访问性、一种可验证性、可追踪性和不可变性等特性。区块链是一种分布式账本技术,整个网络协同工作以保证数据的完整性。这种方法缩小了与单点故障相关的风险,降低了恶意攻击和数据篡改的可能性,提升了数字生态系统中的数据安全性和可信度。区块链去中心化云存储,具有实时更新数据、追踪数据痕迹和保持检查数据完整性等特点。利用区块链对人工智能训练数据进行溯源,更容易分辨视觉信息是AI合成的深度伪造内容,还是原始、未被修改的内容3。总体而言,数据的实时追踪等数据质量控制措施显著提高了生成式人工智能模型输出信息的准确性与预测性能。
第二,由生成式人工智能服务提供者负责数据来源披露。虽然《暂行办法》第19条责成提供者应当对训练数据来源予以说明,但并未明确通过何种方式披露以及提供者拒绝披露的责任。对此,可以采用国家标准与行业标准相结合的方式,尤其当人类智能与人工智能协作生成内容时,应当以书面形式记录并标注人类参与度,以方便事后问责。数据来源披露并不是披露所有相关数据,而是在保留商业秘密的前提下,披露文件的核心部分,有助于潜在的原告选择合适的诉讼对象。也可以参照或者援引数据控制和网络服务提供者在保障用户信息安全方面的相关规定,以及对用户使用人工智能系统时所作决策的解释要求。欧盟《人工智能法案》亦作出类似的指引,“人工智能系统的设计、部署、开发过程中涉及数据处理时,人工智能系统提供者作为数据控制者与数据处理者的义务不应受到影响。这些义务源自国家关于保护个人数据和企业商业秘密的法律规定”4。总之,生成式人工智能服务提供者对数据来源的披露应当至少遵循一个原则,即减少立法者与公众对大规模文本的认知成本,尤其当生成式人工智能服务提供者实际上属于多主体合一的复杂主体时,法律的相互参照和援引将会为立法者与公众更好地理解法律提供助益5。
第三,由数据控制者和数据处理者应负责数据资源的互通共享,这有利于修正模型应用中偏见。一方面,如果训练数据仅来自单一来源,模型可能难以有效泛化6,这意味着模型可能在训练池中表现良好,但在处理其他来源的数据时,表现不佳的风险相当高。来自单一来源的数据可能无法对现实世界中的完整数据分布进行采样。例如,基于公开可用数据集训练的胸片分类器可能存在多种种族、性别和社会经济偏差,这些偏差反映了训练数据中患者的分布1,从而导致可推广性差。另一方面,需要控制数据的非正常流动。当数据的流通与数据的保护的规定不一致时,影响最大的往往不是逻辑考量,而是法律背后体现的价值取向与目的。例如,2023年,Meta爱尔兰公司因向美国转移数据违反欧盟数据保护法律,已经被欧盟监管机构罚款12亿欧元(约91亿元人民币),这次罚款是基于《通用数据保护条例》所处的最高金额罚款2。这表明,在涉及个人隐私、企业商业秘密等数据时,自然人的人格权利和企业的财产权相较于数据权益应当具有优先保护顺位。
2.内容层:“事前审查+事后处置”的双保险审查机制
内容审查一般分为事前审查与事后处置。从经济学角度出发,事前审查会增加审查成本并造成审查的低效;事后处置则是对虚假信息造成实际损害的救济,本质上是侵权行为承担责任的权利救济方式之一。
第一,对生成式人工智能服务提供者的事前审查,表现在生成式人工智能服务提供者是否对其生成信息的真实性及其来源进行审查。这一点,可以从《民法典》第1195条到第1197条的信息网络侵权规则中得到启示。相比于仅提供服务而不直接提供内容的信息网络服务提供者,生成式人工智能服务提供者根据用户输入内容,反馈输出结果,因此用户对信息的输出结果也在一定程度上发挥作用,但并不能就此将生成式人工智能服务提供者按照内容提供者认定主体地位,否则他们将对提供虚假信息承担直接责任。当然,由于不只是有生成式人工智能服务提供者参与AI系统的运转,也就不能因为生成式人工智能服务提供者未采取事前审查措施,直接认定其对虚假信息的生成存在主观过错。此时,为了防止用户信息不自由或其他合法权益受侵害,援引“通知—删除”规则实现用户救济或监督的权利可谓明智之举。
一般情况下,为了尽可能使生成信息有用,应鼓励生成式人工智能服务提供者与用户合作并向用户提供必要的信息。尤其是当用户需要的信息,可能涉及商业秘密或受知识产权保护的内容时3。在平衡协作与信息披露及信息保护的问题,可以从内部和外部两个维度进行考虑。在外部,生成式人工智能服务提供者的审查义务需要配以相应的信息访问权。在内部,即在请求方和授权方的关系中,授权方经常以所谓不可逾越的商业秘密或知识产权权利来对抗访问权4。例如,欧盟委员会提出的责任指令中包含了详细的证据披露规则,将受害方的赔偿利益与人工智能开发者和部署者的保密利益对立起来5。关于这一问题,在美国审前发现制度领域存在大量文献和实践经验6。在这一机制下,被提议的欧盟证据披露规则部分借鉴了相关经验1,使受害方可以在提起诉讼之前寻求获得潜在被告持有的文件和信息。反过来,这可能会导致竞争对手提出不正当的获取请求。此外,不同阶段提供者的内容审查利益诉求存在差异,导致不同阶段提供者对虚假信息的接受程度并不相同。在人工智能价值链中,开发者、部署者和用户不仅是业务伙伴,也可能是潜在的生成内容合作伙伴或者竞争对手。因此,部署者和用户的访问权限必须受到限制,以衡平信息披露与信息保护之间的利益。首先,以《最高人民法院关于民事诉讼证据的若干规定》第47条为基础,人民法院对当事人提交的与商业秘密有关的证据不公开质证。其次,为了防止滥用,针对AIGC服务提供者的内容审查的一系列措施,可以引入美国审前发现制度和欧盟证据披露机制2。
第二,由生成式人工智能服务提供者负责及时处置违法信息。平台利用人工智能模型生成虚假信息,按照《暂行办法》新增的第9条的规定,生成式人工智能服务提供者的性质仍然属于网络信息内容服务平台,应当根据本条承担相应的责任,并履行网络信息安全义务。另外,《暂行办法》强调生成式人工智能服务提供者主体身份,旨在指导其责任承担遵循网络平台的规制。生成式人工智能服务提供者应当依据《网络信息内容生态治理规定》《网络安全法》《互联网信息服务管理办法》等关于网络信息内容服务平台的相关规定,履行与其提供服务的内容、生成信息类型相匹配的注意义务,对人工智能模型生成的违法和不良信息及时采取必要措施,并做好记录3。考虑到生成式人工智能的深度学习能力有限,应当对现有技术的缺陷有所容忍,谨慎认定虚假信息是否造成严重后果。同时,对生成式人工智能服务提供者是否及时处置虚假信息或违法信息,应当遵循主客观相一致的归责原则,为人工智能技术的发展预留一定空间。
3.服务层:“错误识别+必要措施”下的全周期风险预防
生成式人工智能开发者、部署者、服务提供者等与AIGC利益相关的群体,应当为持续保持模型性能尽最大努力。在生成式人工智能的整个生命周期中,应当保持它的可解释性、可纠错性、安全性并确保这些要求经过专家测试、记录和验证。
由此,生成式人工智能开发者至少应做出以下努力:第一,生成式人工智能开发者应当尽可能优化模型以最大限度地排除偏见。由于人工智能模型在其训练数据过程中不断变化,其性能评估也可能在训练过程中发生实质性变更。故而,对人工智能生成系统的可信度评估,应当从技术研发到部署应用进行全生命周期的风险识别,并根据技术和产品发展,及时更新调整4,不断优化模型以持续消除可控偏见。对人工智能模型的风险评估与生成式人工智能服务提供者的内容审查义务相类似,均属于引导式治理。与强制性法律规范相比,引导式治理属于软法规制,不履行事前影响风险评估与承担侵权责任之间不成立法律上的因果关系。但这也并不意味着,生成式人工智能模型的开发者、部署者完全无利可图。与企业风险合规相比,生成式人工智能模型的事前影响风险评估更注重与法律政策的良性互动,吸收民事侵权责任的标准来识别、评估、预防和控制AI价值链上的参与者利用生成式人工智能模型生成、复制、传播虚假信息的法律风险。
第二,生成式人工智能开发者、部署者应及时报告人工智能系统无法弥补的、被允许的偏差。这些偏差可能导致人工智能系统性能欠佳,因此最大限度地减少偏差对于人工智能系统的机器学习至关重要。这种偏差可能源于机器学习开发的各个阶段:数据处理、模型开发和性能评估。每一个步骤都可能引入系统性或随机性偏差,其中系统性偏差会降低机器学习系统的公平性,理想情况下应予以消除。然而机器学习研究确实存在局限性,系统可能在不同方面表现出偏差。根据具体数据和任务,这些偏差有时是可以容忍的,甚至被认为是有益的1。但是,开发者必须在机器学习开发过程中识别错误做法,尽可能减少这些问题,并明确报告其系统的其他限制。
(二)纠正式治理:国家保障下的用户救济
纠正式治理的法理基础在于义务违反并不反映民事责任的目的,民事权益受侵害才是启动民事责任的动因2。理论上,损害救济最好的方式,正是霍姆斯所说的:“让损害停留于其发生之处。”3但实际上,当侵权收益大于侵权成本时,侵权者缺乏停止侵权的动力,此时,只有赋予被侵权者奋起反抗的救济权,或者在权利弱势一方的权利可能受侵害之前,允许他们参与该具有创设危险可能性的活动中,发表意见或者提出建议。生成式人工智能模型的开发者、部署者处于管理虚假信息的优势地位,但也不乏“以信息治理之名,行滥用用户隐私之实”。对此,应借鉴避风港规则中的“通知—删除”规则,赋予被侵害用户救济权,将国家或者代表公权力的机关履行公共服务职能的行为置于法的规则约束之下。社会成员的救济权,作为人类自由的保障,原本是体现公平正义、普遍适用于所有人和未来情景的一般性正当行为规则。故而,国家或者代表公权力的机关在介入时,应仅限于保障公众扩展自由的实现4。当生成式人工智能生成的信息侵犯个人权利时,公权力应当保障公众控诉的权利,并为公众提供权利救济渠道。不同的是,相较于“通知—删除”规则,生成式人工智能生成的具体内容在很大程度上依赖用户参与,用户与人工智能是通过人类语言与人工智能的语言模型产生互动关系,人工智能系统根据用户输入内容在现有数据库中进行搜索,这一人机交互的过程中,用户能够让人工智能跟随自己的输出目标做出优化,尽情完成基于“语言实现的自我揭示”5。所以,当用户故意输入虚假信息,很可能误导生成式人工智能模型的深度学习。这意味着虚假信息的传播主要与人类认知信息以及共享信息的驱动力有关。而与人类参与有关的生成式人工智能虚假信息的产生与传播,并不完全由生成式内容服务提供者掌控,因此内容治理义务也不应当完全由部署者与开发者承担。这实际上体现了信息生成与信息传播主体之间的博弈。故而,也应当保证受人工智能系统影响的用户参与设计与救济的权利,并听取他们的意见,以进一步完善投入使用的人工智能系统。
受生成式人工智能模型生成虚假信息影响的主体应当有权向国家监管机构投诉。具体而言,当所有生成式人工智能系统投入运营或投放市场时,受生成式人工智能模型生成虚假信息影响的主体有权就其受到的损害主张权利。无论是依据国家法律、产品责任规则还是其他方式,个人救济的权利都应得到保障。依据《民法典》第1037条,自然人发现个人信息有错误的,有权向信息处理者提出异议并请求及时采取更正等必要措施。在AI系统运作过程中,信息处理者可能是上游的基础模型提供者、中游的模型运算(或优化)的部署者或者下游的生成模型服务提供者,甚至有可能是其他利用生成式人工智能服务进行协作信息生产的个人用户或者组织。故而,保护受高风险人工智能系统影响的个人或者组织的参与权和救济权,实际上是保障民事主体基本权利,只是这一权利没有单独在法律规范中予以凸显。但立法者可以参考《信息网络传播权管理条例》第14条对“通知书”应当包含内容的相关规定,类比地规定生成式人工智能服务提供者在收到包含网络地址、侵权信息等资料的“纠正意见书”时,应当对涉及的内容予以核实,在确认涉嫌侵权的信息确属虚假信息时,生成式人工智能服务提供者应当在合理期限内更正。
目前,《暂行办法》第7条规定,生成式人工智能服务提供者对其使用的数据及基础模型的合法性负责,但并未配以用户监督信息来源合法性的权利。欧盟《人工智能法案》也只是规定,一旦系统进入市场,系统的缺陷报告应当从系统部署者或者从用户那里得到反馈,但这一规定并未对用户的权利予以明确,缺乏可执行性和激励措施,导致部署者难以积极采纳关于AI系统不足之处的反馈。这是因为偏见和不公平可能在特定环境下就已嵌入上游,所以这种不真实或者欠缺信息的纠偏,对通用人工智能模型与生成式人工智能模型来说同样重要。
(三)协同式治理:内外防控下的责任互补
现有法律对生成式人工智能生成虚假信息的治理尚未形成统一规定,主要分布于有关信息网络安全的规范中,如《民法典》《暂行办法》《个人信息保护法》《网络安全法》《数据安全法》,但已有的法律规范并未对生成式人工智能生成虚假信息的侵权责任予以明确。从比较法的视野来看,欧盟《人工智能法案》将模型优化的部署者是否对模型进行实质性修改,作为部署者承担责任的条件,部署者为逃脱责任,必然对其未进行实质性修改充分自证。此时,为了使生成式人工智能得到充分监督,可以考虑开发者与部署者承担不真正连带责任。即生成式人工智能生成虚假信息的侵权后果,应当由AI价值链上最密切相关利益主体共同向第三人承担责任,对内生成式人工智能开发者、部署者、服务提供者或者用户之间可以互相追偿,且应当由开发者或部署者等真正责任人对自己没有过错承担证明责任。
第一,部署者需要证明的重点应集中在其是否尽其所能避免风险的发生,而非是否对通用人工智能模型进行了实质性修改。但将虚假信息的生产与治理串联起来会发现,生成式人工智能背后的技术开发者、部署者等AI价值链上的主体之间已然形成一个巨大的利益关系网络1。生成式人工智能提供者和部署者应共同负责,评估其是否符合基本权利并在研发和部署阶段尽力阻断生产与传播虚假信息,而无需证明部署者已进行了实质性修改。任何人(实际上是部署者)为预期高风险目的投入服务或使用通用AI系统,都有责任证明其是否尽其所能避免风险的发生,而无需证明进行了实质性修改。
第二,外部责任。责任不应该单独分配给部署者,而是需要上游通用AI模型提供者与中下游部署者共同承担责任。因为控制、修改AI系统所需的基础设施和技术资源,在很大程度上依赖于上游提供者。这一责任应该与提供者共同承担。因此,可以在《暂行办法》中对生成式人工智能服务提供者进行广义解释,将规制主体从单一的下游服务主体,扩大到参与AI价值链的多个协作主体。另外,由于人类智能与人工智能协作的信息生产在实践中难以追踪,如若AI价值链上的前端主体(开发者或部署者)能够证明其对虚假信息的生成、复制、传播等不具有过错,且已经采取合理措施阻止虚假信息发酵时,法律对生成式人工智能模型的开发者与部署者不再仅着眼于责任承担的惩治与威慑,更多侧重于推动生成式人工智能模型开发者、部署者责任自主治理。
第三,内部责任。连带责任保证了外部责任的履行,从而服务于受害方的赔偿利益。在内部,受害者责任可以转身向AI价值链中的其他人寻求赔偿。例如,如果开发者通过分发模型基本上保留了人工智能模型的控制权,则内部责任由他们承担。然而,开发者和部署者的责任应在他们对部署模型的影响结束时终止。除此之外,只有用户是监管民事责任的主体:行动激励只有在被激励的人实际上能够采取行动的情况下才有意义①。这里之所以把用户也放在内部责任承担的主体之列,主要基于两方面,一方面,受欧盟《人工智能法案》影响,将“部署者”扩大解释为“在授权之下使用人工智能系统的任何自然人或法人”,也就有可能包括部署者之外、被授权使用系统的用户②。另一方面,依据《民法典》第1173条,用户作为被侵权方,若对生成式人工智能生成虚假信息有过错的,可以减轻开发者和部署者的赔偿责任。综合而言,这样的制度将会使得生成式人工智能模型的开发者、部署者、用户和受虚假信息影响的主体之间实现适当的利益平衡。
结语
当前,纠正虚假信息的主要执行者分为三类:用户层面、平台层面(包括数据层、内容层和服务层)以及政府层面。在用户层面,用户可以通过平台的侵权投诉机制,及时举报发现的虚假信息;在平台层面像Facebok、Twitter和YouTube等社交媒体主要通过标记、及时删除虚假信息或降低虚假信息传播的可能性来阻止其扩散;在政府层面,各国政府已通过立法要求删除虚假信息,并警告信息发布者不要传播误导公众的内容③。尽管上述措施都有助于改善信息环境,但由于信息的复杂性和庞大规模,这些虚假信息仍然难以被人类准确识别。
当不同的参与者利用数字主权、控制系统与资源(或者信息)的权利作为信息掌控的保护伞来实现他们的利益时,这些对抗动态便会显现。即使在部署者、开发者与使用用户之间分配了违法内容及时处置义务、内容审查义务、监督的职责以及被侵权方的救济权,这些虚假信息的治理责任依然会在这些主体之间互相推诿。但良好的制度设计能够削弱虚假信息产生与蔓延的可能性,防止社会公众持续消解对其接触信息的信任。结果正义固然是法律追求的终极价值,但平等接触信息的机会,是个体作为社会一分子基本的精神权利,技术的发展是为了促进这种信息自由。故,生成式人工智能生成虚假信息的治理也应立足于此立意之上。
责任编辑 杨 幸