APP下载

生成式人工智能的人权风险及其法律治理

2024-01-01王彬强蕴慧

人权法学 2024年6期

摘要:人工智能技术的自我赋权与其受制约程度较弱的特性,催生了强大的数字权力,存在滑向“智能利维坦”的风险。若不将人工智能技术的开发和应用纳入法治轨道,将会造成数字技术的异化,导致数字权力的扩张,妨害平等、自由等基本人权。生成式人工智能的出现,颠覆了传统人工智能的发展方向和底层逻辑,标志着人工智能从专注于特定任务向通用人工智能的跃迁。但这种转变加剧了人工智能风险的不确定性,给以往依赖的事前治理和分散治理模式带来了前所未有的挑战。从人权视角出发,结合生成式人工智能技术的发展现状,对人工智能治理进行整体性制度设计显得尤为迫切和关键。应通过强化伦理规约、立法规范发展、实行敏捷治理等措施,推动人工智能治理细节的深化。更进一步,从长远目标来看,构建一套契合中国国情的数字人权理论框架和制度体系,是防止数字权力不当扩张的必由之路。

关键词:生成式人工智能 ChatGPT 技术权力 数字人权 敏捷治理

中图分类号:D92 文献标志码:A

DOI:10.3969/j.issn.2097-0749.2024.06.04

引言

1651 年,英国哲学家托马斯·霍布斯借助“利维坦”这一形象指代拥有绝对权力的国家(政府),构建起国家起源的世俗学说。自此,“利维坦”成为强势国家(政府) 权力的代名词。370 多年后的今天,随着数字时代的到来,这个隐喻意义上的怪兽“利维坦”被赋予了新的含义——“智能利维坦”。将“利维坦”概念与人工智能技术结合产生的“智能利维坦”描述了这样一种社会现象:掌握资本和技术要素的权威实体,通过对社会权力结构的嵌入,拥有了事实上的支配地位。观察目前ChatGPT类生成式人工智能的演进速度,人工智能技术会不断完善自身,变得越来越先进。最终,这一技术有望进入所谓的“通用人工智能”的关键发展阶段,也就是人们常说的科技奇点。与此同时,也应看到,“智能利维坦”就像一把悬在人们头顶的达摩克利斯之剑,凭借数字资本与算法黑箱的庇护,全方位渗透到社会生活的各种场景中,悄无声息地开辟出技术置换权力的通道。自ChatGPT推出以来,生成式人工智能凭借较好的内容生成效果,已经在诸多领域展现出强大的通用潜力,但也导致了算法歧视、隐私泄露、“信息茧房”和“智能鸿沟”等与人权紧密相关、亟待解决的问题。虽然当前各国正在共同努力,积极探索建立健全治理机制,以有效应对人工智能技术发展过程中可能带来的风险和挑战,但就具体的监管模式和风险治理路径,各方尚在探讨如何达成共识。所以,当下我们不得不面对的一个重要的法学议题是:如何防止人工智能发展成为一种无法驾驭的“智能利维坦”,保护公民的数字权利与自由,使其免受数字化威胁。以此为切入点,本文选取生成式人工智能作为研究对象,探讨了这种技术如何构建其数字权力以及可能对人权构成何种威胁,并且结合我国人工智能治理的现状和面临的困境,从实际出发提出应对之策。

一、生成式人工智能的人权风险

在全球数字化转型的浪潮推动下,数字权力扩张造成监控资本的盛行、数据滥用的常态、算法歧视的滋生,以及“数字鸿沟”的加剧,这些现象共同织就了一幅前所未有的“人权危机”图景。其中,数字权力的持有者已经悄然变为侵犯人权的主体,在虚拟空间深处,以一种几乎不易被察觉的方式,剥夺公民的基本权利和自由。在此过程中,受到侵犯的往往是那些专属于数字环境下形成的“数字人权”。特别值得注意的是,在数字技术的迷雾中,数字权力的支配力和控制力因素常常隐匿于用户自主选择和知情同意等辞藻之后。当用户选择踏入数字虚拟空间的那一刻,尽管看似拥有自主选择的权利,实际却可能早已深陷数字权力持有者精心布设的陷阱之中。这种隐秘的权力运作,限制了用户的自由意志和行为选择,迫使用户不得不默认放弃自己对自身数据、隐私的实质性控制权,成为被数字权力持有者操纵和配置的资源对象。

(一) 隐私权风险

生成式大模型具有侵犯隐私权的风险。首先,从模型训练流程来看,由于模型的性能表现基于海量数据的“投喂”,故而训练数据的合法获取与合规使用是生成式人工智能面临的首要风险。生成式人工智能若要获取、使用个人数据,必须遵守诸如《中华人民共和国民法典》(以下简称《民法典》) 第1035 条、《中华人民共和国个人信息保护法》第13 条等条文规定,确保在事先获得主体知情同意的前提下进行数据收集。然而,在数据收集方面,由于非法数据交易、数据买卖、暗网数据爬取等不合法且未授权的隐私数据收集行为的存在,使得部分数据的获取事实上并未真正获得用户的知情同意,很容易造成用户隐私泄露。例如,2023 年3 月31 日,意大利数据保护局由于担忧数据隐私外流问题,将OpenAI 的ChatGPT 聊天机器人服务禁用了一个月之久。其次,大模型人机交互下隐私泄露风险加大。传统的语言模型只是在弱人工智能意义上实现了人机交互,它们只能对预先设定的问题提供固定的答案,缺乏对复杂语言的理解,且无法进行深入的用户互动。而现在,ChatGPT类大模型在人机对话方面取得了显著突破,为用户带来了类似与真人交谈的体验。用户可以通过自然语言设置提示词(prompt) 与大模型进行交互,同时每一次交互又将作用于大模型的训练改进。然而,在频繁的人机交互中,用户为了获得更精准、更详尽的反馈信息,不得不在与大模型互动过程中持续透露个人的真实意图和期望结果,悄无声息地削弱了隐私保护的防线。最后,分析ChatGPT类生成式人工智能模型的运行原理,不难发现,生成式人工智能具备回忆和追溯训练数据的能力,这意味着个人隐私的潜在威胁愈发显著。很多语言模型拥有数万亿参数规模,并且必须在大规模语料库上进行预训练。在训练过程中,生成式人工智能会将这些数据深深地“存储”在记忆中,导致那些早已本该被“遗忘”的私密信息极有可能被再次重新挖掘出来反复利用。即使在后续数据处理过程中移除了个人信息,生成式人工智能依然有可能通过数据解析,从匿名化或去标识化的信息中推断出特定个人的身份及其特征。同时,大模型背后的运营者们为了增加用户黏性,可能会持续地收集、保留或记忆用户的历史对话数据来对用户建模,建立描述用户行为、兴趣、知识和偏好的推算模型,加剧个人信息的泄露风险。

(二) 平等权风险

生成式大模型具有侵犯平等权的风险。一方面,“算法歧视”为歧视行为增加了新手段。算法歧视虽不是法律术语,却已在社会与学术界的讨论中占据了核心位置。结合算法的本质和歧视的含义,我们可以将“算法歧视”理解为由算法内含的固有偏见和外部歧视性数据的输入引起的对特定群体进行系统性、可重复的不公正对待。“算法歧视”的成因可归纳如下:其一,训练数据存在偏见。计算机科学和数据处理领域有条著名的GIGO 定律,即“垃圾进,则垃圾出”(Garbage In,Garbage Out)。这个定律说明,如果输入到计算机系统中的数据是错误的、不完整的或不合逻辑的,无论计算机处理程序多么高效,最后输出的结果一定存在问题。类似于著名的GIGO定律,机器学习领域也有一条重要的BIBO定律,即“偏见进,则偏见出”(Bias in, Bias out)。研究发现,如果训练数据中存在性别刻板印象,那么模型在生成词向量时可能会放大既有的刻板印象。例如,man 相较于woman,与honorable (可敬) 的语义更接近;woman 相较于man,则与submissive (顺从) 的语义更接近。其二,算法设计者自身嵌入的偏见。设计算法时,开发者可能有意或无意地植入了一些主观偏见,导致算法在执行任务时对某些群体的不公平对待。这类偏见的代表是“大数据杀熟”现象,即电商平台根据用户的浏览数据对同一商品和不同用户显示不同的价格。另一方面,“数字鸿沟”加剧社会层级分化。“数字鸿沟”的形成源于公民获取数字技术的机会存在差异,并由此导致不平等问题。有观点指出,“数字鸿沟”涵盖两个维度:数字技术的“接入鸿沟”和“应用鸿沟”。不过随着生成式人工智能的普及,应用范围逐渐从特定领域扩展到更多通用领域,这一过程中产生的机遇并不一定能惠及所有的地区和群体,从而形成了“智能鸿沟”。这种新型“智能鸿沟”将引发新一轮数字不平等现象,削弱“数字弱势群体”的权利。例如,生成式人工智能将取代人类劳动,使其沦为“无用阶级”。在过去,机器主要承担物理性劳动,这时人类至少保留了最后的尊严与自豪——机器不能思考。而现在,生成式人工智能已经足以替代人类最引以为傲的部分——大脑。尽管技术革命也会催生不少新的工作岗位,但这些岗位普遍要求劳动者具备更高的技术素养,大批低技能劳动者依然面临由于技能不匹配而失去就业机会的风险。所以,生成式人工智能显然侵犯了部分群体的就业权利,并且会牵一发而动全身地影响其他基础人权,引发就业歧视和社会分化等连锁反应,挤压一部分人的生存空间。

二、生成式人工智能的治理困境

在人工智能治理中,基于风险预防的事前治理和基于要素场景的分散治理是两种基本治理方式。基于风险预防的事前治理强调对人工智能技术发展的整体规划和全面引导,旨在提前规避潜在风险。相对而言,基于要素场景的分散治理则专注于人工智能技术在特定应用场景中的精确控制和细节管理。欧盟《人工智能法案》是基于风险治理的典型例证,它体现了对人工智能潜在风险的预防性管理。在我国,人工智能治理策略则是整体针对不同技术要素(如数据、算法和平台),以及具体的应用场景(如算法推荐、人脸识别和自动驾驶),分别排摸潜在风险,在此基础上,有针对性地出台与之对应的专项立法,但暂未出台统一的综合性立法。生成式人工智能技术的出现,改变了以往人工智能技术的发展方向和底层逻辑。从决策式人工智能到生成式人工智能,标志着人工智能从特定任务驱动向通用人工智能的转变。然而,这种转变也放大了人工智能风险的不确定性。当面对具备通用性、能够跨模态并表现出智能涌现特性的生成式人工智能时,传统的基于要素场景的数字技术治理方法和以风险预防为导向的治理模式,可能不再行之有效。

(一) 主流治理范式的局限

1.基于风险预防的事前治理

目前,基于风险的人工智能治理在域内外成为立法与实践的主流方向。传统法律治理框架通常以权利路径展开,面对人工智能尤其是具有智能涌现特点的生成式人工智能,基于权利的治理框架需要辅以基于风险的治理策略才更贴合当前人工智能技术的特点。欧盟《人工智能法案》遵循“基于风险的分级监管方法”,依据技术可能对人类健康、安全或基本权利造成的潜在风险,将风险划分为四个等级,分别是:不可接受的风险、高风险、有限风险和最小风险。针对不同等级的风险,法案将实施不同程度的控制措施,分别为:禁止、事前合格性评定和认证标志、信息披露和无义务。其实,如何规范生成式人工智能是欧盟立法之初未曾预料到的变数。监管者认为,生成式人工智能难以融入监管框架,其中一个亟待解决的问题就在于是否将其归类为“高风险类人工智能”。根据2024 年8 月正式生效的欧盟《人工智能法案》,生成式人工智能并未被明确列入第三章“高风险人工智能系统”等级,而被列于四级风险之外,采取了灵活的分层监管,这意味着该类技术可能单独作为高风险系统,或者仅作为高风险系统的组件。我国当前的算法监管制度体系中,算法备案、算法影响评估和算法审计制度同为基于风险的事前治理的典型制度设计。算法备案要求算法开发者和使用者向监管机构报告算法相关信息,目的在于获知具有潜在风险的智能系统的相关信息,出现问题时便于及时追责。算法影响评估和算法审计涉及对算法设计、训练、部署过程的合法性、公平性、透明度和安全性进行检验,目的在于发现并排除模型、算法和数据方面可能存在的安全隐患。

但算法备案、影响评估和审计制度都是建立在互联网业态成熟且算法风险相对明确的基础上,这意味着面对生成式人工智能,基于风险的事前治理可能遭遇失效风险,原因在于:其一,传统人工智能技术可以通过算法备案、评估和审计等事前预防措施,将风险控制在可接受范围内。但生成式人工智能具有涌现性,能够展现超出预定训练任务范畴的新行为或功能,具有跨模态、多领域的通用潜能。不论是内部算法黑箱,还是外部人机交互,均导致对其进行风险等级的概括性预判为时尚早,算法备案、影响评估制度等面临着客观的适用困难。其二,生成式人工智能存在技术治理的“科林格里奇困境(Collingridge Dilemma) ”,这意味着在技术发展的不同阶段,对其进行控制的难度呈现不同的特点,导致监管者需要在技术发展红利和监管风险之间找到平衡点。若介入过早会抑制技术创新,若介入过晚则会陷入技术失控的风险。人工智能技术的飞速创新与现行法律体系的响应迟缓之间存在着明显的“鸿沟”,出现了所谓的“治理真空”。在“真空”区域内,新兴的算法和模型如雨后春笋般涌现,如果监管措施无法及时匹配技术发展,则会给个人和社会带来不可承受之重。

2.基于要素场景的分散治理

从生成式人工智能的风险样态来看,针对算法黑箱、隐私泄露和算法偏见等技术风险,基于要素场景的分散治理存在局限性。就治理对象而言,分散治理模式表现为对数据、算法及网络内容分而治之,但生成式人工智能的特点在于集成性,大模型技术将数据、算法和生成内容紧密结合起来。在模型训练阶段,需要输入不同种类的数据和算法来达到最佳训练效果。在内容生成阶段,生成式人工智能不仅充当信息内容创造工具,同时也是一个收集用户输入信息的枢纽。在此过程中,用户向模型下达指令,模型则依据用户反馈的指令创作内容。与此同时,在与用户的互动中,模型也会捕获并整理用户反馈的信息,以便在训练过程中持续优化输出效果,从而不断提升其生成内容的质量和准确性。因此,生成式人工智能的治理实质是模型治理,核心是对模型进行全面监管,确保数据、算法和生成内容在整个模型的训练、运行及应用阶段符合治理要求。

此外,生成式人工智能依赖于数字平台落地使用,所以还承接了数字平台的垄断风险。数字平台本身掌握庞大的用户基础、海量的数据资源和技术优势,将会进一步借助生成式人工智能技术滥用市场支配地位并且扩张数字权力。就治理场景而言,分散治理方式主要针对那些具有特定应用场景的人工智能技术,例如,算法推荐、人脸识别和自动化驾驶。然而,与专用人工智能相比,生成式人工智能的强大之处在于其具备底层通用能力,有望在多个领域实现深度渗透和技术赋能,其应用场景不胜枚举,风险也在不断增加。所以,基于对象场景的分散治理在面对生成式人工智能的复杂技术时,暴露出了监管效率低下和应对能力不足的问题,难以适应从“低风险”场景贯穿至“高风险”场景可能出现的突发情况,因此,生成式人工智能治理需要一种更具包容性、灵活性和综合性的治理框架。

(二) 具体制度设计的不足

1.数据保护亟待完善

数据是算法的养分,算法利用数据做出决策,两者结合,形成了强大的技术力量。数字权利可以制约数字权力的滥用,对抗数字权力的侵害。然而,我国对个体数字权利的保护和完善方面存在一定的不足。就数据隐私保护而言,在公法层面,我国宪法并未规定数据的权利形态,若要发展宪法中的数据隐私保护有两条路径可走:一是制定并通过宪法修正案,二是运用宪法解释技术。鉴于修宪存在客观障碍,主流观点是通过《中华人民共和国宪法》(以下简称《宪法》)中的“人权保障”条款或“人格尊严”条款扩充宪法隐私权的概念内涵来容纳个人数据或信息保护。概括性条款的解释路径存在天然的弊端:一方面,虽然数据权利与隐私权有着紧密的联系,但数据权利的独特性难以通过隐私权获得证立。例如,传统隐私权强调维护一种消极被动的、不受干扰的人格权利,而数字时代的隐私保护已经发展到积极能动的数据控制权能、数据财产权能。另一方面,由于《宪法》的概括性条款比较宽泛和抽象,为法律解释留下了较大的施展空间。虽然这种灵活性有助于适应社会新型权利的需要,但若不加以适度限制,对概括性条款的无限解读可能会使其变成一个几乎可以被适用于任何情况的“万用工具”,从而损害宪法秩序的稳定性与权威性。在私法层面,《民法典》作为私法领域的基础法,第111 条确立了自然人个人信息受法律保护的基本原则,第1035 条进一步明确了个人信息处理应遵循的原则和条件。虽然《民法典》为个人信息保护提供了基本的法律框架,但原则化的规定在具体实践中面临执行困难,不能完全制止掌握技术优势的权力主体对个人数据的侵权行为。以“知情同意原则”为例,服务提供商深谙如何制定隐私政策以最大化其利益。在某些情况下,用户若不接受服务条款,便无法使用该服务,这显然有悖于私法领域强调的契约自由、意思自治等根本价值。面对冗长且复杂的服务条款,用户往往因为信息过载而不愿花费时间细致阅读和理解这些文档。因此,大部分数据权利的维护措施也随之失效,使得实践中保护个人数据权益变得异常困难。

2.技术侵权难以问责

在技术中立背景下,对生成式人工智能因设计缺陷、数据不可靠、算法不透明和人机合谋等问题导致的侵权损害责任归属,存在较大的讨论空间。例如,算法不透明导致公众对数据使用和自动化决策结果的困惑,已成为侵犯人权的基本诱因。尤其在生成式人工智能的应用情境中,算法的自主性得到了显著提升,同时大模型还能依据外部用户反馈不断迭代生成内容,加剧了侵权责任认定的难度。传统法律在判断一般过错侵权的因果关系时,通常依赖于对主观过错、侵权行为与损害结果之间直接关系的明确判断,但在生成式人工智能复杂的黑箱系统中,因果关系判断很难实现。一是主观过错难以证明。算法的黑箱特性阻断了主观过错的认定过程,算法的设计者可能利用算法决策的客观性和自动性作为防御,否认自身存在主观过错。二是损害结果难以证明。在多起算法侵权案件中,损害结果并非直接显明,而是一种长期、潜在或间接的影响。例如,“算法歧视”可能导致某些群体在求职面试与信用贷款评分等方面受到不公正对待,但这种损害后果很难具体量化呈现。三是算法侵权行为与损害结果之间的因果关系难以证明。即使可以证明主观过错和损害结果,算法侵权行为与损害结果之间的因果关系仍可能难以证明。就ChatGPT 而言,要对生成式人工智能系统问责,必须在算法缺陷与实际损害之间确立因果联系。但ChatGPT类生成式人工智能系统仅在用户触发特定输入时才产生响应,并且随着生成式人工智能与用户之间的持续交流互动以及新数据的不断输入,风险处于不断变化之中,很难追溯具体原因。人工智能归责的困境意味着对不法行为的放纵,由于数字立法的滞后性,法律责任的设定难以跟上数字技术的变革步伐,导致数字权利保障的不足。

三、生成式人工智能治理的路径优化

作为新兴技术,生成式人工智能不仅代表人工智能科技创新的前沿,而且正在重塑社会结构和权力分布。智能技术“利维坦化”风险,要求对传统法律制度的治理理念进行重新审视和适时调整,不应仅仅将生成式人工智能视为纯粹的技术进行治理,否则会忽视人工智能技术有别于其他技术的权力属性,以及数字权力对社会结构和公民权利的深层次影响。另一方面,虽然距离通用人工智能的全面实现尚有时日,但生成式人工智能已被视为通用人工智能的初级形态而备受瞩目。现阶段,生成式人工智能以其通用性特征,能够为下游诸多应用场景提供强大的技术赋能。因此,生成式人工智能的风险治理应具有灵活性、适应性和全局性,即涵盖模型训练、部署和应用的整个生命周期,进行整体性制度设计。现对我国生成式人工智能治理提出以下建议:一是强化伦理规约;二是立法规范发展;三是实行敏捷治理。

(一) 强化伦理规约

1.技术层面:人工智能价值对齐

在生成式人工智能快速发展的当下,对数字技术的治理可以率先考虑技术控制、以技治技,即预先从技术层面制订详细的规范和标准,为企业和行业构建自律秩序,推动人工智能技术形成有效的内生治理机制。以生成式人工智能在内容生成领域的应用为例,其核心要素离不开数据训练和算法模型等关键技术。在数据治理方面,应通过严格的数据采集整理、数据质量控制、数据分类管理等关键环节,确保数据的安全性和有效性。对算法治理,则需侧重于算法的评估和增强其可解释性,努力消除算法可能存在的内在偏见,从而提升算法的可靠性和可信度。全球范围内对人工智能治理已经提出了一系列伦理准则。如2015 年美国电气与电子工程师协会(IEEE) 率先倡导“合乎伦理设计”的理念,并于2016 年和2017 年先后发布了两版《人工智能设计的伦理准则白皮书》。其中第二版白皮书中提出了5 项核心人工智能伦理准则:(1) 人权;(2) 福祉;(3) 问责;(4)透明;(5) 慎用。因此,在设计模型时,企业应当考虑嵌入道德算法,提升模型可信度。其实,算法伦理的嵌入最早可以追溯至1942 年美国作家艾萨克·阿西莫夫提出的“机器人三定律”,这一科幻设定为人工智能伦理和人权问题的讨论提供了一个有价值的起点,即人工智能本身没有道德品质,但设计者创建智能系统时,可以通过数据选择、算法设计、伦理审查、模型优化和持续监督评估等方式,赋予智能系统伦理价值。由于大模型收集或处理数据时可能会不经意间学习并表现出数据中存在的偏见和歧视性信息,为了确保模型内容或算法决策符合人类的价值观并避免不可预测的输出,实现模型与人类偏好的价值对齐至关重要。

目前,数字伦理的构建通常涉及两条技术发展路径:一是规则驱动路径,即“自上而下”的方法。核心在于,在智能系统的设计和编程中,预先设定一套被广泛认可的道德标准,然后嵌入系统的决策框架。例如,自动驾驶汽车的道德算法在设计时需要考虑“伤害最小原则”,即属于在算法层面对权利的预先保护。二是数据驱动路径,即“自下而上”方法。核心在于,通过监督微调和人类反馈强化学习等技术方法,将“智能体”训练成符合人类道德规范的行动者。当然,伦理嵌入面临诸多技术困境。有学者指出,构建伦理智能体或道德机器必须将人的主导贯彻始终。在生成式人工智能场景下,应将人的需求和利益放在首位,防止技术失控。具言之,生成式人工智能至少应当符合以下设计要求:其一,透明原则。透明原则有两项基本要求,(1) 数据透明利用;(2) 算法透明运行。在模型数据收集过程中,应该尊重数据主体的基本权利,如知情权、访问权、更正权和删除权等数据权利。算法透明指算法的设计逻辑和运作机制应该尽量公开和可解释。对此,应当鼓励行业自律组织制定和推广透明度报告标准,透明度报告应包含算法的关键信息,如算法的目的、设计原理、输入数据类型、所使用的特征和模型参数等。其二,非歧视原则。非歧视原则要求算法和模型设计者避免产品和服务对用户群体进行不公平对待,避免将任何形式的偏见或歧视性因素代入模型训练中。例如,设计算法时,应对人工智能进行多样性和包容性测试,确保其能够在不同背景和需求的人群中公平运行,即使当人工智能模型部署后,也需要持续监督评估,确保其持续遵守非歧视原则,及时发现和解决可能出现的新风险。其三,可问责原则。设计者应尽可能建立全流程可追溯备案机制,包括为每个阶段制定详细的文档模板和标准,要求相关人员填写维护记录,自觉履行设计日志责任,便于模型投入使用后的管理。

2.制度层面:健全科技伦理制度

人工智能自20 世纪中叶问世以来,从最初对机器人伦理的科幻探讨,到对算法自动决策、偏见、隐私等问题的高度关注,再到现在对生成式模型应用可能带来的就业替代、人机关系变化等更深层次的伦理挑战,其伦理争论从未停止。正如德国哲学家尤尔根·哈贝马斯(Jürgen Habermas) 所洞见,像脑机接口、基因编辑技术、人工智能等人类增强技术,如果不受适当的伦理和法律约束,可能对人类的自主性、人权价值和道德伦理构成颠覆。当前,多数国家尚缺乏完备的法律体系,以有效应对人工智能技术带来的新兴挑战。此外,立法对科技发展的响应应妥善处理法律敏捷性与稳定性之间的相互关系。鉴于生成式人工智能技术当前的发展态势,实施立法规制成为一种必然趋势,但法律规范的制定和修订通常需要经过漫长的程序,应对新兴技术问题较为滞后。伦理规范具有前瞻性、引导性和补充性,可以在法律出台之前对人工智能领域的道德与法律问题提供指导,凝聚全球共识。人权作为法伦理学的思想根基,具有规范性和伦理性的双重属性。规范性方面,人权被纳入法律体系,成为公民权利的一部分。伦理性方面,人权源于人的本性,是人性尊严的集中体现。对人工智能进行规制,既要考虑道德伦理的内在要求,也要考虑法律规范的外在约束。人权作为规范属性和伦理属性的结合,能够为人工智能技术的研发与应用设定法律规制的底线。现阶段,数字技术的快速发展,尤其是人工智能技术的应用,正在不断推动人权领域的变革。这种变革不仅体现在人权内容的更新,也体现在人权保障方式的创新。在此背景下,第四代人权理论,即“数字人权”脱颖而出。数字人权理论的核心宗旨是利用人权的固有价值,加强对人工智能及其他数字科技的伦理限制和法律规范。在数字人权语境下,生成式人工智能发展的整个生命周期应当尊重、保护和增进人权及基本自由,任何模型、算法的设计与运用一旦侵犯人权均将被认定为非法。另外,人权作为平衡和对抗各种权力的工具,具有天然的防御性质。数字人权意味着不仅要保护传统人权,也需要从制度设计层面出发,赋予公民个人以数字权利,增强其与数字权力博弈的资本,使其免受数字权力的潜在侵害。当务之急是应当提前研判生成式人工智能的技术风险,梳理数字人权理论内涵,构建公正和包容的数字权利框架,推进以数字人权保障为核心的伦理制度与法律体系建构,将生成式人工智能的开发与运用置于法治轨道上运行。

(二) 立法规范发展

1.综合立法:人工智能法

生成式人工智能被视为通用人工智能发展的“奇点时刻”。同时,也带来了人工智能治理的“关键时刻”。当前,我国在应对人工智能风险方面面临法律规则分散、立法层级较低,以及法规之间协调性不足等问题,这些问题在一定程度上影响了人工智能风险治理的效果。因此,构建一套符合国情的人工智能综合性法律体系变得日益迫切。放眼全球,欧盟人工智能领域的立法行动较为迅速,且思路成熟。欧盟《人工智能法案》作为全球首部全面规制人工智能的综合性立法,可以为我国人工智能相关立法提供参考和借鉴价值。就我国而言,必须认识到过去针对人工智能要素、场景的分散治理模式不再那么有效。但在当前生成式人工智能尚未全面落地应用之际,过于前瞻性地规划立法和构建规制路径,可能会阻碍科技创新。因此,在早期政策制订方面,我国可以坚持“发展与治理并行”的策略,采取包容审慎的监管方针,待未来制订人工智能综合法时,可以通过统一原则性立法,在总则中提炼规范人工智能技术的基本原则和底线,在分则中吸纳域内外成功的治理经验,统筹推进人工智能综合立法。

考虑人工智能综合立法时,建议从体系和内容两个角度进行规划:首先,在立法的体系上,构建人工智能领域的法律体系是一项复杂而系统的工程。虽然一部体系完整、结构严谨的《人工智能法》可以为人工智能技术的整体治理提供宏观指导和基本遵循,但同时也需要一系列部门法规,譬如,具体的人工智能治理标准加以配合和补充。此外,为了确保法律规范在实际运作中能够发挥其应有的作用,可以考虑在相关部门设立专门的人工智能伦理委员会和其他专门组织机构,由其对人工智能技术进行审核把关,统筹人工智能各项监管工作,推动标准的制定与落地实践。例如,可以参考欧盟数据保护官(DPO) 制度,由具备较强专业技术能力的人监督数据处理的合规性、与数据控制者进行协调和沟通、联络数据主体,以及负责数据处理活动的记录与归档、培训及保密等事项。数据保护官制度有助于提高数据保护的专业性和透明度,而且对减轻监管机构的负担是一项有益的制度探索。其次,在立法内容上,过度监管会抑制企业创新,监管不足则可能导致安全风险,所以立法内容需要在促进创新和确保安全之间找到平衡。由于伦理和人权问题是必须严肃对待的议题,所以制订人工智能法时,可以考虑将以下原则作为确保伦理道德和人权问题的考量:一是隐私保护;二是公开透明;三是数字人权保护;四是算法问责;五是伦理审查;六是数字正义等。伦理道德和人权具有高度抽象性和不确定性,这要求立法者在制订相关法律法规时,不仅要具备深厚的伦理和法律知识,还需要对人工智能技术有一定的理解和预见性。另外,对当下亟待解决的争议问题,如人工智能的法律地位界定、人工智能生成内容的权利归属、数据权的法律保障以及算法解释权制度构建等也应关注。解决这些问题需要跨学科的研究视角和法律创新,未来立法不应回避。当前,人工智能技术正值快速创新阶段,很多现行法可能未能完全覆盖人工智能带来的新问题。若立法确有困难,则司法解释是一种应对人工智能领域法律空白的方法。

2.个体赋权:数据基本权

信息革命塑造了“万物皆可量化”的社会环境。随着工商业社会向数字社会的转型升级,数据要素已经深度融入社会关系和价值观念之中,导致原本的权利结构和社会规范在新的数据驱动的生态系统中遭到挑战。利益诉求的真实、紧迫以及价值层面的正当可行是权利生成的道德基石。人工智能以新的数字权力形态出现,其异化趋向引发了严重的社会危机。为了扭转权力与权利的不对称局面,需要构建新一轮的权力平衡机制。一是确立数据权利的公法保护机制。2018年的欧盟《通用数据保护条例》被誉为“全球最严的数据保护法”。该法首次将公民的相关数据权利法定化,规定了用户访问权、查询权、更正权、撤回权、限制权、删除权和拒绝权等一套全面的个人信息自决权体系。根据《通用数据保护条例》对公民数据权利的规定,公民数据权是由于人工智能、大数据等数字科技兴起所形成的一项基本人权,指公民应该拥有对个人信息的全面控制能力,以及通过法律手段保护个人信息免受非法侵害的权利。因此,需要将公民的数字基本权利纳入人权领域,通过在公共政策中注入数字人权价值加以保障。二是确立数据权利的私法保护机制。数据基本权利或数字人权是个人数据私法保护的基石,从其出发可以进一步构建各种类型的数字民事权利。实践中,尽管我国《民法典》对隐私权和个人信息保护设有专章规定,但其实并未明确将个人信息定性为权利。这就导致关于个人信息究竟是权益还是权利,以及属于哪一类权利的讨论至今仍存在诸多争议。此外,很多部门法对个人信息与数据隐私的内涵、外延以及相关概念之间的关系存在所指不明和混淆使用的问题,上述问题需要在未来立法中厘清说明。

(三) 敏捷治理理念

1.敏捷治理的理论内涵

2023 年以来,全球人工智能领域立法进程明显加快,各国都在从监管层面追赶人工智能的演进。从长远来看,制订人工智能基本法是大势所趋,但新兴风险处于不断演变之中,目前我国人工智能领域实现统一立法的时机或许尚未成熟,且制订一部基本法面临成本和时间效益的双重考量。但人工智能算力的快速提升和数据量的爆炸式增长,正在以日为单位迭代,远超传统科技的演化速率。面对如此复杂的技术生态,除了行业自律、立法跟进,监管理念也要及时调整。“敏捷治理”是源自软件工程领域的概念,其内在逻辑是强调快速、灵活的响应变化,以用户为中心,通过反馈驱动软件的迭代与优化。2018 年,敏捷治理在世界经济论坛得到了专题讨论,根据论坛发布的《敏捷治理:第四次工业革命中政策制定的重塑》白皮书,“敏捷治理是一套具有柔韧性、流动性、灵活性或适应性的行动或方法,是一种自适应、以人为本,以及具有包容性和可持续的决策过程”。2019 年,敏捷治理被我国《新一代人工智能治理原则——发展负责任的人工智能》吸纳。敏捷治理目前仍然是一个不断发展中的理论概念,其理论内涵、适用边界以及实施机制都在不断地丰富和完善之中。尽管如此,关于敏捷治理的核心理念已经基本得到了广泛的认同。敏捷治理的特征是治理主体参与的广泛度、治理响应的灵敏度,强调扭转被动滞后的事后治理,强调灵活性治理和多元主体协同治理。生成式人工智能具有风险不确定性和全局性,故而敏捷治理契合了生成式人工智能治理的需求。

2.敏捷治理的实现路径

敏捷治理应结合生成式人工智能的特点构建可行的治理路径。首先,分层治理。敏捷治理关注治理对象的全过程,新技术发展的全生命周期均有可能产生难以估量的风险,只有对治理对象持续观测,才能掌控治理全局。生成式大模型具有通用性,基于一个模型可以接入下游不同应用接口,而且很多风险是从模型训练阶段的数据输入引入,这就决定生成式人工智能的风险治理需要贯穿产品的全生命周期,即模型训练、模型部署、内容生成等阶段。依据模型产业链条实施分层治理,构建“基础模型—专业模型—服务应用”的全面治理格局。其次,灵活响应。敏捷治理强调事前干预,对生成式人工智能的潜在风险开展预判;敏捷治理强调事中调适,及时进行政策微调。敏捷治理强调灵活使用治理工具,诸如欧盟《人工智能法案》的新探索——“监管沙盒”可谓弹性监管在小范围内的试点。“监管沙盒”允许在真实环境中对智能产品、服务进行小范围试点,而不必遵守所有常规的监管要求。“监管沙盒”是敏捷治理的一种典型尝试,可以有效弥合技术创新与风险治理之间的矛盾,帮助监管者和技术创新者之间建立更有效的沟通和合作。最后,多元共治。生成式人工智能的治理不能仅囿于政府单一主导,应当追求构建多层次治理体系,实现政府、企业、公众、行业组织等主体的共同参与。这种多元协调、协同互动的治理思维,可以有效地整合各方力量,实现社会共治。诸如2024 年3 月16 日公布的《中华人民共和国人工智能法(学者建议稿)》第13 条就提到了“建立和完善政府主导、社会协同、公众参与的人工智能治理体制,构建多元共治的人工智能治理格局”。在国内层面,政府应当发挥引领作用,做好前瞻性规划,通过定期会议、咨询会和在线论坛等形式,促进信息交流和意见交换。在国际层面,人工智能技术对经济、安全、伦理等方面的影响是全球性的,各国和国际组织需要共同努力,就人工智能治理达成全球共识。

结语

生成式人工智能为数字社会的人权保障带来了诸多风险。从短期看,科技迭代速率远超伦理和法律监管速度,对隐私、平等等基本人权构成了威胁;从中期看,技术自动化导致某些工作替代,影响部分劳动者的生计和社会地位;从长期看,人工智能的发展触及人类文明的根本性问题,即技术进步对人类社会的终极影响。人工智能的治理,需要形成多层次、分阶段的治理策略。短期目标方面,应当着重解决当前人工智能应用最紧迫的问题,如数据安全和隐私保护问题。中期目标方面,需要关注人工智能扩散应用带来的新问题,如就业公平。长期目标则更为宏观,涉及整个数字时代的利益关切,应通过打造“数字人权”的理论框架和制度体系防御“数字权力”的不当扩张。“数字人权”的提出,不仅着眼于当前的技术应用问题,更强调从源头规制人工智能的整体发展方向,确保技术进步增进人类福祉,而不是成为新的不平等源泉或侵犯人权的工具。总之,厘清“数字权力”的法律属性,明确“数字人权”的基本框架,并将之纳入法律体系中,是防范生成式人工智能人权风险的关键所在。只有通过整体性制度设计,才能进一步为人工智能技术的发展和应用划定理性边界,保障人权在数字时代的尊严与安全。

(责任编辑:达 璐)