生成式人工智能的“三经九纬”法治新模式
2024-01-01许娟
摘" 要:
“三经九纬”法治新模式在生成式人工智能治理中是较“规制论”更为“厚”的概念。现有规制之“薄”需要引入新的法治模式来解决生成式人工智能面临的真问题和新挑战,包括在技术基础、应用、标准、可融合的数据算法、可评估的可信度、可转化的规范、对话商谈和主体间统分结合等方面进行法律的适应性改进。在国家战略—产业孵化—立法规范三个经度中,通过部门规章转换产业端需求并改进技术规范,形成生成式人工智能治理路径上的改进策略,包括探索回应型、转化改进型和促进包容型法治新模式。
九纬是指技术基础、应用和标准等国家战略的纬度,数据质量、算法优化和算力设施等产业孵化的纬度,法律目的、原则、规则等立法规范的纬度。
关键词:生成式人工智能;法治新模式;“三经九纬”
中图分类号:DF03" 文献标志码:A
DOI:10.3969/j.issn.1008-4355.2024.03.10" 开放科学(资源服务)标识码(OSID):
文章编号:1008-4355(2024)03-0140-19
收稿日期:2023-08-06
基金项目:
国家社科基金一般项目“个人信息权利行使的平衡机制研究”(19BFX127)
作者简介:
许娟(1972—),女,湖北仙桃人,南京信息工程大学大数据法治研究院院长、法学与公共管理学院教授,博士生导师,法学博士。
①
参见刘方喜:《能量·信息·动因:人工智能生产工艺学批判》,载《阅江学刊》2021年第2期,第6页。
②
参见李佳师:《大模型落地“三重门”》,载电子信息产业网,https://www.cena.com.cn/ic/20230627/120576.html,2024年5月1日访问。
在生成式人工智能的新纪元中,智能的演变呈现出两种显著趋势。一方面,由机器自行产生的智能逐渐替代人的智力,成为新的动力源泉,甚至可以称作智能器官的替代品①;另一方面,机器正被巧妙地嵌入、植入、分拆、打散和重构到我们的日常生活与工作流程之中②,以实现流程的再造与优化。这两种趋势的功能性创造不仅扩展了原有的人与人之间的双边关系,还通过引入人与机器人之间的新方式,共同构建人与人、人与机器人、借助机器人的人与人之间交互的复杂生态系统。这一变革重塑了我们的生产方式和生活方式。
为了有效应对生成式人工智能带来的与人类语境融合参见王天恩:《信息及其基本特性的当代开显》,载《中国社会科学》2022年第2期,第90-113页。的挑战,我们应引入“三经九纬”法治新模式中的“厚”思维结构和概念体系。这一举措旨在提升现有“薄”规制概念刘艺:《论我国法治政府评估指标体系的建构》,载《现代法学》2016年第4期,第15页。在生成式人工智能领域的相关性纬度,从而更全面地解决其伴随的风险与困境。“三经”是指以国家战略、产业孵化、立法规范三个方面为经
,“九纬”是指在“三经”的基础上,进一步衍生出国家战略层面的技术基础、应用和标准的宏观事实纬度,产业孵化层面的数据质量、算法优化和算力设施的微观事实纬度,以及立法规范层面的法律目的、原则、规则等多纬度结构体系。
一、解决既有规制困境需要引入“三经九纬”法治新模式
(一)既有生成式人工智能规制面临的问题和挑战
1.技术基础纬度的功能分派与规制不足
当前,法学理论界对生成式人工智能人机互动模式
的技术基础的认知尚有不足,一般的规制也难以触碰到生成式人工智能的技术内核。因此,改变这种规制状况的首要问题在于厘清生成式人工智能的技术基础。基于生成式人工智能大模型,技术基础可分为“以提示词为核心的技术基础”和“以私人定制化聊天为核心的技术基础”两类。
以提示词为核心的对话语义技术是生成式人工智能服务的关键,且贯穿于“请求—回应”的人机交互过程。参见韩旭至:《生成式人工智能治理的逻辑更新与路径优化——以人机关系为视角》,载《行政法学研究》2023年第6期,第37页。尽管通用大模型能有效提供文本生成服务,但囿于提示词的指示作用,用户在很多情况下必须依赖官方网站或优化提问指令以精准描述提示词来获取有效内容。例如,在法律领域,高质量法律数据的缺乏使得构建多模态中文数据集变得困难,对法律类的提示词的整合能力不足也限制了大模型的应用。因此,需要对生成服务进行法律类提示词的微调,并增强对生成内容中法律知识的验证功能,借助用户反馈构建强化学习机制,以减少知识幻觉并提升大模型在法律场景中的应用能力。参见王禄生:《ChatGPT类技术:法律人工智能的改进者还是颠覆者?》,载《政法论坛》2023年第4期,第59页。人类决策与生成在更多时候会运用到符号化、抽象化、理论化的知识进行推理,而大模型则尚无法准确理解语言背后的真正含义。参见王禄生:《从进化到革命:ChatGPT类技术影响下的法律行业》,载《东方法学》2023年第4期,第65页。通过对用户原始自然语言进行对比预测编码,能够使大模型在一定程度上学习到对人类行为的理解。See Junhui Yi,et al., Multiview Predictive Coding with Contrastive Learning for Person Re Identification, Pattern Recognition, Vol.129,2022,p. 1678.然而,现有的规制理论在区分提示词语言与法律语言差异方面存在不足,导致生成的法律评判的内容有所欠缺。例如,不区分一般恶意交互和严重欺诈交互,或将一般瑕疵与恶意欺诈一并规制,不符合法律规制的精细化要求。为提升生成式人工智能在法律等垂直应用领域的服务效果,需要解决数据供给、提示词整合、知识验证等问题,并改进现有的规制理论,以更好地适应大模型技术的发展和应用领域的需求。
以“私人定制化聊天”为核心的技术基础,存在于“模型即服务”张欣:《生成式人工智能的算法治理挑战与治理型监管》,载《现代法学》2023年第3期,第120页。的优化人机模式交互模式之中。该类大模型类似Transformer-XL模型,在长文本理解和信息提取任务上表现出色。See Zihang Dai,et al. ,Tranformer-XL: Attentive Language Models beyond a Fived-Length Conext,In Prceedings of the 57th Annual Meeting of the Association for Computational Inguistics, A ssociation for Computational Linguisties, 2978-2998( 2019).OpenAI的官方博客中描述了大模型在信息检索和摘要方面的潜力。其本质是一款语言优化大师,而不是预设正确答案或给出正解的机器人。除了文本理解功能以外,大模型还具备一定的语言理解和语法纠错能力,可以提供文档校对和编辑的辅助功能。See Brown T B, Language Models are Few-Shot Learners,Neural Information Processing Systems, Article 159, 2020,p.1894.在文档校对和编辑能力方面,大模型建立在某个时间节点之前的知识库而不是实时的大数据之上,所用的推理模式是缺省推理,其结论并不具有保真性。参见熊明辉:《多维考察ChatGPT》,载《中国社会科学报》2023年3月6日,第5版。大模型面对一些无法回答的时候会表示:“很抱歉,我无法直接提供……”,以表达其审慎对话的态度。在缺乏细节的对话语义下,其私人定制化聊天只能作为用户参考,而不能作为用户采纳的凭据,所以其规制对象应当从服务平台转移到用户。然而现有的规制却没有区分服务平台和服务对象,造成生成式人工智能规制的目的纬度不足的困境。概言之,既有以个性化服务为核心的技术基础的规制论要么过度依赖于期待大模型功能发展的未来治理,要么缺乏解决现有技术缺陷和应用瑕疵的高风险治理功能。
2.技术应用纬度的规制不稳定、多点规制和数据监管分类不明等困境
生成式人工智能面临技术应用风险的困境,包括以下三点:其一,数据要素供给纬度的规制不稳定。数据收集和使用对于ChatGPT这种大模型的训练和学习非常重要。然而,由于涉及个人隐私权、数据泄露和滥用等问题,各国政府对ChatGPT规制此起彼伏。2023年,
ChatGPT被意大利政府叫停使用,经过技术风险评估并解决相关问题后,才恢复使用。See X." M、M." C、H." HE、L." Ch:《AIGC研发及应用数据隐私合规义务识别———以意大利监管ChatGPT为切入点》,载微信公众号“合规小叨客”,https:∥mp.weixin.qq.com/s/fkbYqMyLcZPwYJCWmg-LqQ,2024年5月17日访问。因此,ChatGPT等大模型在数据收集和使用方面面临不稳定的规制环境,需要各国政府加以改变;其二,数据安全和保护纬度的规制多点化。ChatGPT模型存储和处理的海量数据需要安装插件介入,大量外接的插件带来非法侵入、数据泄露、第三方控制等安全问题,存在多点规制难题。ChatGPT面临的数据安全和保护问题复杂多变,需在多方监管下确保插件安全性以防范非法侵入和数据泄露;其三,数据治理和监管分类不明。当前法律框架缺乏科学的分类监管设置,没有为ChatGPT的快速迭代留出足够的应对空间,导致对数据权利保护的不合理、不平衡和不充分,需要增加个人隐私权、企业数据权和公共数据利益的对话纬度。在目前的法律框架下,ChatGPT的数据治理和监管分类不明确,需要科学设置分类监管并为快速迭代留出应对空间,以平衡数据权利。
3.技术标准纬度的算法问责困境
时下,各种各样的生成式人工智能(AIGC或GPT或BOT)大模型不断涌现,这些新兴的算法技术也带来了新的隐私和安全风险参见刘艳红:《人工智能法学研究的反智化批判》,载《东方法学》2019年第5期,第121页。,且现有技术标准及其风险评级尚不清晰,相关的法律法规和政策需要相应地更新和完善。
第一,对生成不当内容和偏见问题的规制之困。当前,ChatGPT在面对错误、问责和法律责任等问题时,暴露出规制的不足。参见《浙江首例,用ChatGPT制作虚假视频,她被警方抓捕》,载成都商报红星新闻官方账号,https://baijiahao.baidu.com/s?id=1770897020064902012amp;wfr=spideramp;for=pc,2024年3月8日访问。由于可能对法律语境理解不充分,ChatGPT生成的内容或许不精确或具有误导性,同时,其对法律概念的理解不足还可能引发对法律意见或判断的错误解读,这增加了在法律领域生成不当内容和偏见的风险,以及规制此类问题的难度。由于训练数据中的偏见和歧视性内容可能被ChatGPT反映在其回答中,不充分的数据控制易导致具有偏见的生成结果,这在法律领域可能造成不公正后果,并加剧制度性不平等,从而展现出对生成不当内容和偏见问题的规制难题。例如,在机器的反透明性问题上,批评者指出算法的不透明性可能让生成式人工智能产出包含不当内容与偏见的结果参见支振锋:《生成式人工智能大模型的信息内容治理》,载《政法论坛》2023年第4期,第34页。,这往往与训练数据中的偏见有关,也与缺乏对AI输出的主动监督机制有关。这种状况揭示了当前对于AI引发的内容和偏见问题在规制上存在的困境,具体表现为:在现有法律和监管框架下,由AI造成的一般负面影响难以与经济损失、人身伤害等严重负面影响进行区分,这突显了在法律和监管层面上对生成不当内容和偏见问题的规制之困。
第二,对隐私问题的一体化规制之难。在技术风险之外,生成式人工智能大模型对海量数据的依赖进一步暴露了个人隐私保护的薄弱环节,尽管差分隐私等强有力的隐私保护技术已投入使用,但这些措施仍无法彻底解决与算法透明度和数据泄露相关的所有问题。这展现了制定全面一体化隐私规制的困境。鉴于生成式人工智能的应用场景广泛且复杂,包括人脸合成、语音合成、虚拟现实等,采取不加分析的粗放式一体化规制难以解决复杂应用场景带来的问题。2023年5月,美国国会研究处发布的《生成式人工智能和数据隐私:初探》报告,通过系统性分析生成式人工智能使用数据的方式及其可能引发的隐私风险,揭示了对隐私问题实施一体化规制的复杂性。参见王金钧:《域外观察/美国国会研究处发布〈生成式人工智能和数据隐私:初探〉报告》,载微信公众号“CAICT互联网法律研究中心”,https:∥mp.weixin.qq.com/s/O_Eoy073uA9wir0FLoV34A,2024年5月3日访问。该报告为制定更为精细化和精准化的隐私保护措施提供了重要参考,同时也揭示了在数据隐私保护方面需要面对不同技术应用和数据类型所带来的多样化挑战。
(二)既有规制路线需要引入“三经九纬”法治新模式
为了积极推动生成式人工智能的发展,国家互联网信息办公室(以下简称“网信办”)于2023年4月发布了《生成式人工智能服务管理办法(征求意见稿)》,其中的多个条款引发了社会热议。回应这些争议后,网信办等七部门于7月10日联合发布了《生成式人工智能服务管理暂行办法》(以下简称《管理办法》)作为管理措施。《管理办法》在立法依据上新增了《科学技术进步法》,突出了对科技进步的支持;明确了国家坚持发展和安全并重、促进创新和依法治理相结合的原则;在生成式人工智能服务方面实行包容审慎和分类分级监管,既体现了对技术发展的支持,也注重了安全和依法治理。此外,《管理办法》还对数据训练方面作出规定,放宽了对研发企业的要求,减轻了其在数据来源合法性和知识产权保护方面的责任,鼓励更多的企业积极参与生成式人工智能的研发和创新。
我国在世界上首次以立法形式界定生成式人工智能概念,
按照《管理办法》界定,生成式人工智能是以算法、模型、规则生成文本、图片、声音、视频、代码等为技术基础生成的模型。尽管相关规定为生成式人工智能的发展提供了政策支持,但存在立法体系化程度方面的不足。
1.可融合数据算法纬度的立法路线图不清晰
现有生成式人工智能的研究主要以“数据纬度治理”和“算法纬度治理”研究见长。“数据纬度治理”始终关注数据保护与隐私问题,集中讨论生成式人工智能的内容治理,并运用风险预防原则,控制人工智能生成的话语空间,以数据主权强化生成式人工智能治理权。参见钭晓东:《风险与控制:论生成式人工智能应用的个人信息保护》,载《政法论丛》2023年第4期,第61页;钭晓东:《论生成式人工智能的数据安全风险及回应型治理》,载《东方法学》2023年第5期,第107页。欧盟通过对个人数据权利的严格保护,形成了对人工智能的源头规制模式参见汪庆华:《人工智能的法律规制路径:一个框架性讨论》,载《现代法学》2019年第2期,第198页。,并在人工智能立法中把算法作为数据的一个内容纬度展开。“算法纬度治理”论者呼吁,立法者应当要求开发者公开算法的运行机制和基本原理,确保算法的决策过程具有可解释性,避免算法偏见和歧视。参见张凌寒:《生成式人工智能的法律定位与分层治理》,载《现代法学》2023年第4期,第127页。美国通过司法判例对算法的法律性质进行分析,在搜索引擎算法的案例中,算法被视为言论,而在刑事辅助审判系统中的算法则被认定为商业秘密。参见汪庆华:《人工智能的法律规制路径:一个框架性讨论》,载《现代法学》2019年第2期,第199页。我国通过分散式的立法对算法在电子商务、新闻内容推荐及智能投资顾问等领域的技术应用分别进行了回应参见汪庆华:《人工智能的法律规制路径:一个框架性讨论》,载《现代法学》2019年第2期,第201页。,并通过数据算法融合立法中的责任与审核机制构建,明确算法使用者对算法在具体场景中应用产生的后果负责。然而,我国生成式人工智能治理需要摆脱将人工智能治理等同于数据治理的困境,一方面结合人工智能数据法的适应性,另一方面融合数据的算法纬度。应明确要求算法开发者遵守公正、平等和合法原则,并对算法的合法合规性承担责任,同时需建立审核机构来评估算法是否符合相关原则,并承担算法审核不通过的责任。参见刘辉:《双向驱动型算法解释工具:以默示算法共谋为场景的探索》,载《现代法学》2022年第6期,第68页。正如有学者指出:随着算法技术的法律规制不断升级,需要不断增进数据立法的持续性参见刘泽刚:《论算法认知偏差对人工智能法律规制的负面影响及其矫正》,载《政治与法律》2022年第11期,第55页。,促进数据算法的统合治理,以描绘清晰的算法纬度立法路线图。
2.可信纬度的风险可评估制度链缺失
可信既是生成式人工智能的伦理要求,也是技术要求。从理论上看,可信伦理通过技术标准实现对风险的可评估,可评估是可信(正题)与风险(反题)的节点问题,可评估是风险的可信标准,即风险的可评估是生成式人工智能的可信纬度。从实践论上看,数据信息风险可评估立法是生成式人工智能规制的蓝本。从技术上看,当下数据分级分类确权授权制度是风险评估的趋势。在立法上,《个人信息保护法》第55条、第56条确立了隐私风险评估制度;《数据安全法》第30条确立了重要数据定期风险评估制度和预报送风险评估报告制度。《数据出境安全评估办法》和《数据出境安全评估申报指南(第一版)》确立了向境外传输AIGC数据的出境安全评估制度。然而现有的生成式人工智能立法规制模式尚不能覆盖不同级别的风险评估,风险分级分类的解释性不足导致评估标准不清晰。
同时《管理办法》中没有规定生成式人工智能服务产品风险原则、规则和技术要求,以及标准—认证—认可风险分级分类评估制度。以上表明生成式人工智能的规制缺乏可信纬度的风险可评估制度链。
3.可转化为立法规范的技术标准的缺失
我国生成式人工智能快速发展的同时,相应的法律环境和法治水平却面临着技术标准缺失的困境,需要在技术增强型法治理念的统领下,将技术标准转化为立法规范。从全球角度看,在借鉴俄罗斯人工智能举国发展战略和欧盟《人工智能法案》基础上,围绕人工智能技术逻辑与标准制定具有权威性、可执行性和适应性的法律框架是解决标准缺失问题的可行路径。然而现有的研究缺乏足够的创新实践的理论概括能力,亟待在既有理论基础上凝练出可转化为立法规范的技术标准,以构成生成式人工智能法治新模式的规则纬度。
(三)多纬度的事实需要引入“三经九纬”法治新模式
ChatGPT已经广泛应用于法律领域,包括法律研究、文件分析和虚拟法律助手等方面,它能够生成类人的回应并提供法律洞见。然而,人们对于使用ChatGPT的可靠性、准确性和伦理影响存在极大的理论分歧。
1.既有商谈模式需要在“三经九纬”之间对话商谈
ChatGPT存在知识幻觉等问题,导致其服务行为的法律评价面临着非法性不明带来的不确定性参见许娟:《数字法学的二进制递归符码》,载《中国社会科学报》2019年10月9日,第5版。,同时,在价值层面,ChatGPT面临着“技术引发伦理困境论”“人类危机风险治理论”“生成式人工智能引发的民主危机论”等价值危机。高位的价值拷问与现实的低端应用之间存在落差,生成式人工智能和法律规范的连接媒介需要借鉴哈贝马斯的事实与规范之间的商谈模式参见[德]哈贝马斯:《在事实与规范之间:关于法律和民主法治国的商谈理论》,童世骏译,生活·读书·新知三联书店2014年版,第128-144页。,模拟对话商谈的“三经九纬”这一“厚”的治理结构是解决这一落差的破解之道。同时,在将模拟商谈对话的技术程序应用于法律领域时,将生成式人工智能转化为法律事实,并将法律事实转化为法律规范,从而推动生成式人工智能立法建设,进而以规则之治带动法治新模式。
2.既有“主体间性”理论需要在“三经九纬”之间统分结合
从生成式人工智能技术端和产业端出发,只有在人—机—人之间不断交往对话,才能挤掉AI的泡沫,促进用户—企业(机器开发方)—政府之间的深度对话。这一观点得到了
斯坦内娃等学者的支持,他们认为需要考虑用户对高质量数据的关注和需求,提高人—机对话能力,并指出,由于人工智能和机器人技术的快速发展,以人工智能主体理论结合社会回应型的法学方法,不仅应当在法规和标准制定过程中发挥作用,也要在机器监督和机器反馈中回应法治可及性。See Mila Staneva amp; Stuart Elliott,Measuring the Impact of Artificial Intelligence and Robotics on the Workplace,in Alexandra Shajekamp;Ernst Andreas Hartmann eds. ,New Digital Work, Institute for Innovation and Technology,Vol.4,16-30(2023).另外,在企业自治方面,普遍缺乏大模型服务平台的容错机制和激励机制。政府应当激励大模型服务平台企业自主完善数据管理和保护措施,在制定和实施相关法规和标准时,要考虑到大模型服务平台企业的利益。
古德曼和弗拉克斯曼等学者提出,深度学习中的算法决策法规可以促进技术创新和发展。经深度学习后的数据开放共享,其大规模利用率更高。See Goodman Brvce amp; Flaxman Seth, European Union Regulalions on Algorihmice Decision-Making and a “Right to Explanation”, Al Magazine, Vol. 38,53-54(2017).这一观点得到了曹静宇等学者
的支持,他们认为复杂智能体领域中的深度学习需要采用共享方法。See Jingyu Cao et al. ,Hierarchical Multi-Agent Reinforcement Learning for Cooperative Tasks with Sparse Rewards in Continuous Domain,Neural Computing and Applications, Vol. 36, 2024,p.283.在用户—企业—政府既有的三方主体间基础上,大模型服务平台在人—机—人之间进行统和分两种方式展开服务,包括在人—机之间进行技术转化,在人—法之间开展试验改进,以技术的可用和可及来充分回应社会需求,并且在智能社会实验中探索大模型应用的新场景。
二、“三经九纬”法治新模式的基本展开
人与机器人的行为在法治空间中各有界定,遵循事实与规范原则,分为国家战略宏观事实、产业孵化微观事实和立法规范等三个层面。宏观层面聚焦国家战略,构建立法目的;微观事实关注
产业孵化中的智能社会实验,创新立法原则;立法规范层面提炼规则,在立法目的和立法原则的基础之上创制规则,形成“国家战略—产业孵化—立法规范”的法治道路。此道路衍生出“三经九纬”模式,涵盖人工智能基础、应用、风险评估等方面,结合数据、算法、算力等核心要素,形成目的、原则和规则的法律体系。生成式人工智能的“三经九纬”法治新模式,旨在通过促进、回应和包容型路径,整合三个层面内容,确保技术创新与法治规范相协调,包括在技术基础层,洞察生成式人工智能趋势,考虑社会影响;在技术产业层,紧跟技术产业发展,预见法律规范要求;在服务应用层,关注服务提供者运营实况,满足公众服务需求。
(一)引入“三经九纬”法治新模式之宏观事实第一经中的三个纬度:基础、应用和标准的重要性
在国家宏观背景下,2023年全国网络安全和信息化工作会议强调发展应用人工智能技术。“人工智能+生成式”的叠加结构增强了认知,但却加剧了风险。为应对新一代人工智能的技术风险,需将技术标准转化为伦理标准,持续试验改进,平衡技术进步与风险管理,确保生成式人工智能在法治的轨道上稳健前行。
1.第一纬:技术基础纬度
生成式人工智能的自然语言处理等关键技术持续突破的同时,仍面临以下技术基础瓶颈。首先,自然语言技术的同质化与创意生成之间存在矛盾。当前大多数训练数据侧重于非专业领域,导致输出文本的性能受限,难以满足用户的多样化需求,大模型的基础和应用前景面临挑战。其次,图片识别工具在提高生成式人工智能模型透明度的同时,也带来了真伪难以识别的风险,这对模型的可靠性和安全性提出了更高要求。此外,人机交互技术的瓶颈同样亟待突破。虽然国外微软新必应和国内百度等企业的大模型开放为用户提供了更好的体验,但个性化生成和交互能力尚未触及行业标准的上限,资本和技术双轮驱动能力受到限制。在创意生成方面,虽然OpenAI等领军企业已有重要技术突破,如GPT-3语言模型,但用户体验与宣传之间存在差距,需要进一步优化和推广。最后,自主学习作为提升生成式人工智能模型适应性、可解释性和决策能力See Finn C,Abbeel P amp; Levine S,Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,Proceedings of the 34th International Conference on Machine Learning, PMLR70,1131-1132(2017).的关键技术,目前其以预训练模型为主导的适应性交互和创意生成功能仍有限。因此,我们需要深入挖掘技术基础纬度,把握生成式人工智能内容生成的本质,以实现技术的突破和创新。
2.第二纬:技术应用纬度
生成式人工智能的技术应用纬度体现在其服务的多样化与专业化上。现阶段,生成式人工智能技术应用服务分为普通平台服务和政府特殊采购服务。普通平台服务,如阿里巴巴的“法链”和蚂蚁金服的“智能草案”,虽提供泛在的智能交互,但技术应用纬度受限于市场与技术转化能力,以及用户认知和应用能力的差异。这些服务在人机互动智能化程度和生成能力方面仍有提升空间。政府特殊采购服务,则聚焦于专业定制化的机器人服务,如IBM的“Watson”和中国科学院的“小蓝”机器人,展现了更为精准和深入的技术应用。在刑事审理参见张晗、郑伟昊、窦志成等:《融合法律文本结构信息的刑事案件判决预测》,载《计算机工程与应用》2023年第3期,第255页。、犯罪预测参见朱文慧、陈高链、王燕:《服刑人员情绪调节与行为制止系统的设计与实现》,载《计算机科学与应用》2022年第3期,第576页。、物证分析参见刘志军:《可信电子数据取证及规则运用研究》,武汉大学出版社2020年版,第14页。、证据识别参见黄玲、刘邦凡:《基于图像分析的车祸现场识别技术研究》,载《现代电子技术》2017年第12期,第117-118页。等法律领域,这些服务能够提供智能问答、案例分析和决策支持,展示了技术应用纬度的专业性和广度。政府采购服务的技术应用通过“探索实验”的方式,开展智能社会实验,为法律领域提供了更为专业和智能的服务。这种服务模式不仅拓宽了技术应用纬度,也为社会发展和治理带来了新的机遇和挑战。
3.第三纬:技术标准纬度
面对生成式人工智能在技术应用纬度上的挑战,《管理办法》虽全面但难以完全覆盖其规制需求。因此,自律机制和行业标准成为管理风险的关键。在技术标准层面,欧盟通过多次修订法案,逐步强化对AI技术的监管。从2019年的《人工智能道德准则》到2024年通过的《人工智能法案》,欧盟不断提升生成式人工智能的透明度要求,以应对大模型风险。这些努力不仅形成了有效的风险监管思路,也为技术应用纬度的标准化奠定了坚实的立法基础。在技术标准纬度上,欧盟的“风险四分法”为AI技术的监管提供了明确框架。危险型AI,即可能直接威胁生命、自由、基本权利的技术,如ChatGPT Transformer模型在敏感法律决策中的应用,必须受到严格限制。高风险AI,影响公共安全、基础设施等领域的技术,需持续监测风险并采取管理措施,确保《人工智能法案》第9条规定的落实。限制型AI则针对特定领域或活动,如敏感案件中的生成式人工智能使用,需经专业监督审查。低风险AI技术,如辅助文书起草、数据分析等,应鼓励发展以提高效率和准确性。面对
“责任鸿沟”风险,构建法治支撑的技术标准制定程序See Matthew U. Scherer et al.,Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies,Harvard Journal of Law amp; Technology,Vol. 29,2016,p.353.和多元协同的用户参与机制See H. Korala et al.,Design and Implementation of a Platform for Managing Time-Sensitive Iot Applications,2020 IEEE 6th International Conference on Collaboration and Internet Computing,49-50(2020).至关重要。同时,应加强法律法规与风险标准的衔接融合,确保技术标准导向与风险标准相结合,形成生成式人工智能特有的可信伦理路径。这样,我们不仅能有效规避风险,还能促进技术的健康发展,避免法律系统扭曲、不公或违反原则的情况。
(二)引入“三经九纬”法治新模式之微观事实第二经中的三个纬度:数据、算法、算力的重要性
生成式人工智能内容生成及服务能力核心为数据、算法和算力三要素。这三要素不仅构成了技术基础,也是内容治理的关键。数据是生成式人工智能的基石,决定了内容的质量和多样性。算法作为处理数据的核心,直接影响内容的生成方式和准确性。算力则是支撑数据和算法高效运行的基础。针对这两种生成式人工智能ChatGPT大模型,一方面,服务平台作为内容的集散地,需建立严格的内容审核机制,结合人工智能技术和人工审核,确保内容的合规性和健康性。另一方面,服务行为本身也需受到监管,确保文本生成服务在遵循用户意图的同时,不产生违法、有害或低俗内容。通过内容治理,确保生成式人工智能内容生成及服务能力健康、有序发展。
1.第四纬:数据质量纬度
在第四纬度,即数据质量纬度上,生成式人工智能的运作核心在于数据的质量与合规性。数据不仅关乎技术的成败,更涉及歧视性
See Kim P.T.,Data-Driven Discrimination at Work. William and Mary Law Review, Vol.58,2017,p.884.、合法性See Florid L. amp; Taddeo M.,What is Data Ethics? Philosophical Transactions of the Royal Society A Mathematical Physical and Engineering Sciences,Vol. 374,2016,p.2083.和隐私保护See Stahl B. C. et al. ,The Ethics of Computing: A Survey of the Computing-Oriented Literature,ACM Computing Surveys,Vol. 48,26- 28(2016).等敏感议题。因此,高质量数据的保护和利用研究至关重要,包括数据的知识产权与个人隐私保护、审查、安全、交互、共享等方面。对于自然语言处理模型,高质量数据是其训练与优化的基石,无论是语言文本、语料库还是知识图谱,都需要经过严格筛选和处理,以确保模型的准确性和可靠性。正如艾伦·图灵所强调,理解自然语言是实现人工智能的基础,而这离不开大量高质量语言数据的支持。See Turing A. M,Computing Machinery and Intelligence,Mind,Vol. 236,445-446(1950).2023年10月11日发布的《生成式人工智能服务安全基本要求(征求意见稿)》强调建立语料来源黑名单制度,旨在提高语料质量和模型性能,包括不使用黑名单数据、安全评估语料来源、提高语料多样性及确保来源可追溯性。
此外,生成式人工智能可能引发的知识幻觉,实质上是语言幻觉,可能导致思维混乱和网络安全威胁。为此,《网络安全法》等法律法规为应对此类问题提供了法律保障。同时,服务平台运营商在数据采集、存储、使用、分析、加密、脱敏和共享过程中,需遵循《数据安全法》的规定,以确保数据安全。此外,自然语言处理涉及大量个人数据和敏感信息,因此必须严格遵守《个人信息保护法》的相关条款,防止数据泄露和滥用,保护用户隐私和安全。这些法律法规共同构成了生成式人工智能数据质量保障的法律框架,为技术的健康发展提供了坚实的法律基础。
2.第五纬:算法优化纬度
重视算法的公平性与可解释性,在大模型算法优化中占据核心地位。为确保公众对算法决策的信任与理解,需从法律层面明确大模型算法的权属、应用责任、交易流通及保护等关键问题。同时,在技术上,需精心设计自动化决策程序,并深入研究自然语言分析与深度学习算法等议题。“人工智能法示范法1.0(专家建议稿)”第17条提出:“国家支持人工智能算法创新,依法加强基础模型保护,促进基础模型创新开发、应用推广。”这一建议为算法优化提供了学理层面的参考。在算法优化的立法实践中,应严格遵循《管理办法》第17条“提供具有舆论属性或者社会动员能力的生成式人工智能服务”的规定。这意味着在优化过程中,需要充分考虑算法可能对社会、经济、文化等方面产生的影响,并进行相应的社会风险评估和应对策略制定。在新一代人工智能算法优化的实际应用中,涌现出大模型服务司法的例证,包括引导社情民意的AI调解员及小额诉讼AI法官。通过研究这些特定数字司法场景下的AI应用,我们发现优化后的算法可以有效减少公众对算法黑箱的担忧,进而提升公众对算法决策的信任度。
3.第六纬:算力设施纬度
在生成式人工智能的应用中,AI的算力对法治新模式产生了重要影响。为促进这种影响,我们需要加强算力平台的兼容性和适用性,规划管理并维护算力设施,建立公共算力资源平台。根据“人工智能法示范法1.0(专家建议稿)”第16条第2款的建议,国家应制定算力资源供给政策,推动平台建设与利用,加强算力科学调度,为人工智能技术与产业发展提供公共算力支持。在社会层面,AI算力与大数据相结合,可以显著提升法治的公平性和效率。通过分析海量社会数据,我们能够洞察潜在的不平等现象,助力政府公正地制定政策。同时,算力设施可用于社会舆情的监测和预测,以回应社会对法治新模式的期望。在法律领域,算力设施方面的发展推动了生成式人工智能创新。例如,在在线争端解决中,AI的算力能够自动化并加速纠纷解决过程,从而提高司法数据访问的效率和成本效益。此外,结合区块链技术的智能合约算力的资源,有助于增强合同执行的透明性和可信度,有效减少诉讼和纠纷的发生。
(三)引入“三经九纬”法治新模式之立法规范第三经中的三个纬度:目的、原则和规则的重要性
生成式人工智能的宏观背景和微观现状正逐步融入立法规范,其核心在于技术规则与法律规范的适配与转化。
斯蒂尔戈等学者指出,数据质量、模型偏差等因素影响着机器学习算法的技术规则,进而影响法律规则实施See Stilgoe J., Owen R. amp; Macnaghten P.,Developing a Framework for Responsible Innovation,Research Policy,Vol. 9,1695-1696(2013).,由此微观分析立法规范至关重要。当前,各国正致力于构建以数据和算法为核心的人工智能框架性立法。我国已发布多项相关法规,如《互联网信息服务算法推荐管理规定》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》《互联网信息服务深度合成管理规定》《中国关于加强人工智能伦理治理的立场文件》,但仍需完善全国性框架立法;国际上,美国《人工智能权利法案的蓝图》明确了公民在使用自动化系统时的五项核心权利,包括安全有效保护、算法歧视保护、数据隐私、提示和解释,以及替代和退出措施,而欧盟《人工智能法案》则引入了全面规则,针对高风险人工智能系统设计、开发和使用,并强调促进可信人工智能方案的全球推广,形成以规则为基础、以价值为导向的人工智能方案。
1.第七纬:法律目的纬度
生成式人工智能以其高度智能和自主性,对个人隐私、道德规范、社会权益等产生深远影响,也更易触及法律伦理底线。因此,其立法需求更为迫切和细致。法律界需通过明确法律概念、界定法益目的,制定专门化、细致化的立法目的论,以维护社会秩序和公共利益。从法益保护的内容上看,生成式人工智能立法规范中目的纬度主要对应个人隐私、企业发展、数据主权、数据安全等法益保护。参见王锡锌:《个人信息权益的三层构造及保护机制》,载《现代法学》2021年第5期,第105页。从法益目的评价来看,通过对法律的内部规制进行法益评价来体现民主的立法目的。参见曹博:《算法歧视的类型界分与规制范式重构》,载《现代法学》2021年第4期,第121页。在这种观点中,法律的内部规制是通过法律概念、规则和标准来实现规制目的,而不涉及法律的制定、执行和解释过程中的外部机制和约束。因此,明晰生成式人工智能的法律概念并界定其法益目的,对于有效地制定立法目的至关重要。在诸多概念和分类中,
有学者将“生成式人工智能服务提供者与其他形式的人工智能服务提供者进行区分,并定义其特征和应用范围”。参见徐伟:《论生成式人工智能服务提供者的法律地位及其责任———以ChatGPT为例》,载《法律科学(西北政法大学学报)》2023年第4期,第78页。主体性目的论者提出,生成式人工智能的发展涉及不同主体的法益,需要围绕技术社会化和社会技术化两个技术治理的纬度展开参见窦尔翔、段玉聪:《升维超越:中国应对GPT-AGI的战略选择》,载《海南大学学报(人文社会科学版)》2023年第4期,第64页。,协调性目的论者进一步指出,确保技术创新、经济绩效、社会利益之间的科技伦理协调是生成式人工智能立法目的亟待解决的问题。参见龙卫球:《人工智能立法的“技术—社会+经济”范式———基于引领法律与科技新型关系的视角》,载《武汉大学学报(哲学社会科学版)》2020年第1期,第71页。
生成式人工智能服务提供者的法律权责、技术治理纬度及科技伦理协调,均构成立法目的论的核心要素。人工智能服务提供者的类型化目的论、主体性目的论与协调性目的论为生成式人工智能的立法目的论提供了多元视角。然而,面对目的不明、平衡困难和持续挑战的立法现状,我国并未简单选择欧盟的风险规制立法模式或美国以法秩序稳定为主的立法路径,而采取了以技术发展为基石的整体性系统性立法模式。这一模式以法律原则为导向,将技术转化为立法途径,旨在通过相关法规在目标制定、内容规范及执行层面的统一整合,构建一个系统完备、相互配合的法律框架。这一框架确保了各项法规之间的内在逻辑和一致性,体现了对法律进行整体性和系统性阐释
的理念
参见於兴中、郑戈、丁晓东:《生成式人工智能与法律的六大议题:以ChatGPT为例》,载《中国法律评论》2023年第2期,第5页。,强调法律原则的重要性,以及通过法律原则来指导和推动立法工作的必要性。这种立法模式不仅符合当前我国生成式人工智能立法的实际需求,奠定了立法目的论基础也为法律原则导向下的技术转化型立法路径参见[英]罗杰·布朗斯沃德:《法律3.0:规则、规制和技术》,毛海栋译,北京大学出版社2023年版,第18页。提供了有益的借鉴和启示。
2.第八纬:法律原则纬度
为有效应对ChatGPT知识幻觉和算法偏见等问题,必须从基本价值上引导技术发展,将包括公共性、公平性、合法性等基本价值转化为法律原则,实现以技术为基础,以价值为导向的法律原则路径,主要包括:共治原则、共益原则和透明度原则。
第一,共治原则。共治原则意味着从以监管为中心转向协力互补的善治轨道参见吴元元:《食品安全共治中的信任断裂与制度因应》,载《现代法学》2016年第4期,第60页。,包括:(1)解决生成式人工智能服务平台的所有权之争。共治原则将生成式人工智能视为一种公共资源,主张确立公共所有权,以确保其持续可用性、公平性和社会效益。(2)解决控制权之争。目前一些开源社区将人工智能的控制权力归属于公众,而不是封闭在少数组织或个人所有和垄断权力之中。“人工智能法示范法1.0(专家建议稿)”第16条第3款提出:“鼓励和支持高等院校、科研机构、企业和其他组织建设人工智能算力基础设施、开源开发平台和开源社区,开展算力资源市场化交易,引导各行业合理有序使用算力资源,提升算力基础设施利用效能。”(3)确立透明度义务。共治原则强调多方参与和透明度,平衡各方的利益和权力,确保决策过程的公正性和合理性。
第二,共益原则。生成式人工智能的模型之大、资本之巨、性能之紊等因素导致对其的评价出现两极化,阻碍了共益原则的推行。首先,有关生成式人工智能的知识体系更新周期长,导致其无法及时回应社会和专业的问题。需要加强数据集合的及时性和多样性,以使生成式人工智能能够跟上社会共益需求。在算法模型方面也需要不断迭代和改进,以提高生成式人工智能的生成结果的准确性和实用性。其次,生成式人工智能所需的高算力资源和服务器数量超出了普通企业的经济承受能力,需要探索更加可行和经济的解决方案来满足人工智能技术的资源需求,促进技术应用的广泛性和普惠性。最后,生成式人工智能的准确率尚不足以应对具有一定逻辑要求的工作任务,需要对生成式人工智能的训练和测试过程进行改进,提高其对复杂问题和逻辑推理的处理能力。同时,也要加强监管和审核机制,避免生成式人工智能在输出信息时出现误导、偏见或偏差的情况;还需要提升算法的精确度,提高生成式人工智能企业的商业信誉,以共益原则作为维护算法权力行使的边界。
第三,透明度原则。一个可以被采用的有效生成式人工智能必须经过透明度原则的检验。透明度原则应涵盖模型的结构、训练数据,以及对输入和输出之间关系的理解,通过可视化、可解释性模型和规范化等方法来扩展透明度的研究方向See Chiyuan Zhang, et al. ,Understanding Deep Learning (Still) Requires Rethinking Generalization,Communications of the ACM, Vol. 64,2021,p.107.,进而通过可解释性模型提供对决策过程的解释和相关信息来实现决策树、规则提取和局部可解释性方法
。
生成式人工智能的透明度原则围绕以下三个难题展开:(1)解释之难。生成式人工智能通常使用深度学习等多模态拟合技术生成文本、图像等内容,其决策过程的复杂,难以被解释和被用户理解。《个人信息保护法》第24条第3款对个人权益有重大影响的自动化决策中的说明义务局限在一般性产品说明书义务。欧盟《人工智能法案》第3条将说明义务规则扩展到一般性可视正义的原则。(2)错误之轭。生成式人工智能有时候会产生不准确、偏见或令人困惑的输出。由于其复杂性和缺乏透明度,人们很难确定这些问题的根源,并对生成式人工智能的输出进行有效监督和管理。(3)伦理之虚。生成式人工智能广泛应用于社交媒体、新闻报道、艺术创作等领域,其输出的内容可能涉及虚假信息等伦理方面的问题,生成式人工智能运用中的语言伪造现象也属于伦理方面的问题。
3.第九纬:法律规则纬度
欧盟通过《人工智能法案》,将对人工智能的监管从起初的柔性规制路径,转向立法规范路径。各国纷纷采取法律规则来监管人工智能系统(包括生成式)的开发和使用。如生成式人工智能在进行数据训练时涉及大量的个人信息。在处理这些信息方面,《个人信息保护法》第24条规定了三个重要规则:决策透明、信息自决和重大利益。首先,决策透明原则要求生成式人工智能的开发者和使用者必须对其决策过程进行充分和透明的说明,以保证用户能够理解算法背后的推理和预测过程。其次,信息自决原则要求生成式人工智能的使用者仅能在用户自愿同意的情况下,获取和使用个人信息。最后,重大利益原则要求生成式人工智能的开发者和使用者必须保证算法的使用和数据处理,符合公共利益和社会伦理。
三、“三经九纬”法治新模式应对生成式人工智能的治理路径
“三经九纬”法治新模式从法律目的、原则、规则等三个纬度出发,探索构建技术转化和试验改进、社会回应和场景探索以及促进激励和稳健包容的立法建设路径,以使传统法律制度更为适应生成式人工智能发展的需求。
(一)就法律目的纬度而言,采取技术转化+试验改进的促进型法治建设路径
1.围绕生成式人工智能“三经九纬”的技术适应转化型法治
随着自然语言技术的飞速发展,生成式人工智能的法治模式需要适应自然语言的技术特点来进行转化并改进。技术增强型法治可以分为以下两种类型:一是技术适应型法治,根据不同技术特点和应用场景,制定相应法律法规。参见季卫东:《新文科的学术范式与集群化》,载《上海交通大学学报(哲学社会科学版)》2020年第1期,第11页。例如,针对信息泄露问题,出台《个人信息保护法》;针对数据安全问题,制定《数据安全法》。二是技术转化型法治,将技术成果转化为法律实践,在解决实际问题的过程中形成规范性科技。一项研究显示,使用规范性科技概念,可以将法律决策权从决策者转移给代码或代码设计者。这一概念是由荷兰蒂尔堡大学的库普斯(Bert-Jaap Koops)教授提出的。See Koops E J,Criteria for Normative Technology: An Essay on the Acceptability of “Code as Law” in Light of Democratic and Constitutional Values,in R Brownswordamp;K Yeung eds. , Regulating technologies,Hart Publishing,157-159(2008).技术增强型法治需要从增强法律对大模型的适应性、大模型与法律的可转化性两个方面出发进行技术转化和试验改进,以此推动法治模式兼具价值论和目的论。
第一,大模型与法律之间的适应性问题。法律适应技术变革引发的技术适应型法治新模式,主要表现为:(1)法律目的的适应性。明确每种生成式人工智能与每个法律目标之间的联系和关系。例如,大模型语言处理技术需要遵守隐私保护的底线法治原则,确保个人信息安全。(2)应用场景的适应性。根据大模型在法律场景中的应用以实现法律目标的改进。例如,自然语言处理技术可以被用于审理案件时的文本分析和信息筛选,以提高审判效率。(3)法律规范的适应性。明确每个法律目标对技术的规范作用。例如,高透明度、可解释性和可追溯性的要求会促使技术开发者设计更加透明和可追踪的系统,以提高公平性和可信度,包括客观上的可信度与主观上的可信度,而法律责任追究机制的底层客观规范与法律可信顶层主观伦理一道,共同在生成式人工智能适应性上发生规范作用。参见唐林垚:《人工智能时代的算法规制:责任分层与义务合规》,载《现代法学》2020年第1期,第199页。
第二,大模型与法律之间的可转化性问题。生成式人工智能的自主创新本质与法律的稳定属性之间存在显著对比,然而,这并非阻碍了技术向法律的转化,反而促进了技术与法律融合的适应性探索与改进。参见彭辉、姚颉靖:《美日韩科技立法的转型与升级:演化历程与路径选择》,载《东南法学》2016年第1期,第45页。根据《管理办法》第3条的规定,促进创新与依法治理相结合的原则,意味着要采取有效措施鼓励生成式人工智能的创新发展。这不仅将科技创新纳入法治的维度,还涵盖了技术向法律的转移、技术的法理内嵌及技术语言向法律语言的转译。当前,技术与法律之间的思维范式存在不可通约的问题,这需要从国家战略层面打破两者之间的隔阂。在世界各国,人工智能的宏观背景通常被纳入国家技术战略当中。在相关法律法规的制定过程中,生成式人工智能可以提升法治运作的效率和质量,自动化审批、电子文件处理、智能化数据管理等方面均是其应用范畴。此外,该技术还可以扩大公众参与和监督的范围与形式,如通过在线诉讼、在线问答征求意见、数据透明等方式增加公众对政府机构和企业的监督力度。
2.通过负面清单和备案审查制度进行管理方式的试验改进
“试验改进型法”是一种介于立法授权与行政授权之间的新型授权制度。其核心是将法律决策授权给特定试验主体来实施,包括暂调或暂停部分法律的适用。本质上,这种授权制度是法律施行力中止和新试验法制定的有机组合,并不属于法律修改。因此,“试验改进型法”也属于类似行政特许的权力授权。有关部门通过行政许可或设置市场准入制度,牵头制定并定期更新人工智能产品、服务负面清单。“试验改进型法”采取正反两种管理方式,在裁量基准幅度范围内,对负面清单内的产品、服务实施许可管理,对负面清单外的产品、服务实施备案管理。例如,
有专家建议在人工智能法立法中设立“人工智能管理制度”专章,其目的在于探索生成式人工智能行政许可制度的试验改进,鼓励政府机关、事业单位、国有企业及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域开展人工智能技术应用先行先试,优先采购和使用安全可靠的人工智能产品和服务。
(二)就法律原则纬度而言,采取探索场景+社会回应的回应型法治建设路径
生成式人工智能能力是多模态人机交互的集成,是数量巨大的自然人的集体智慧外化,其超大问答系统通过模拟社会交互,推动社会可信度和价值对齐,以回应社会需求。采取以原则导向治理路径
不仅能够适应技术快速变化的敏捷治理,还能回应社会需求并促进技术转化应用,确保技术发展与社会价值平衡,促进实现生成式人工智能的道德性。
1.透明度原则是探索可信的场景正义的具体化
目前,技术应用中的透明度问题已经引起了越来越多的讨论。为回应目前人工智能在实践中存在的透明度问题,增强透明度和可信度,需要建立更加清晰、公正和规范的场景应用标准,并通过有效的监督和反馈机制,使用户能够获得详细的解释和说明,深入挖掘透明度原则的潜力,实现数字空间的规范化、法治化和智能化发展。参见骆正林:《数字空间、人工智能与社会世界的秩序演化》,载《阅江学刊》2023年第6期,第95页。在具体应用场景中,相关机构研发的法律机器人在适用透明度原则时应从以下四方面展开:
第一,坚持理由的一致性。
融合“法律整合”理念,确保法律机器人在算法与规则设计时,综合考虑道德、正义、效率等多元价值。这样的设计旨在实现法律决策的全面性和公众利益的最大化,从而减少决策失误,提高透明度和可信度。
第二,推行设计全过程的说明解释。法律机器人的决策过程与依据必须采用易懂易解的算法和规则,并经过严格审查与测试,以确保其准确性与可靠性。同时,必须强化系统监督与维护,确保运作透明,并构建有效的反馈机制。这样的做法旨在让用户能够充分了解法律机器人的工作原理和决策依据,从而增强其对技术应用的信任感。
第三,避免内容偏差。应警惕认知偏差对法律机器人透明度的影响。参见[美]丹尼尔·卡尼曼:《思考,快与慢》,胡晓姣、李爱民、何梦莹译,中信出版社2012年版,第112页。在算法与规则制定中,应充分考虑心理学偏差,如确认偏误和羊群效应,设计合理的机制与程序来防范其影响。这样的设计旨在确保法律机器人在处理案件时能够保持客观、公正的态度,减少主观偏见和错误判断。
第四,强化语言认知功能。应通过优化法律机器人的规则模型与自然语言处理技术,采用清晰、简洁、易于理解的语言表达方式。参见[美]本杰明·李·沃尔夫:《语言、思维与现实———沃尔夫文集》,高一虹等译,商务印书馆2012年版,第56页。该书提出的语言生成和解析的规则模型,提高语言增强认知功能。这样的改进旨在提高公众对机器人决策过程与依据的认知和理解,从而进一步增强透明度和可信度。
综上所述,透明度原则在探索可信的场景正义中发挥着至关重要的作用。通过坚守理由的一致性原则、推行设计全过程的说明解释原则、贯彻避免内容偏差原则以及强化语言认知功能原则,我们可以更好地推进技术应用的发展,实现数字空间的规范、法治和智能化。
2.公平原则是回应并优化大模型算法偏差的具体化
大模型算法在设计编写、数据处理、运行应用等阶段出现的偏差导致了算法歧视、不公平竞争和滥用等现象。参见姚尚建:《数字治理中的权力控制与权利破茧》,载《理论与改革》2022年第3期,第132页。需要在明确各类算法偏差的具体问题的基础上,强化公平原则,回应社会对修正算法偏差的期待。
一方面,公平原则首要任务是解决算法歧视问题。这种歧视源于由算法产生的权力结构
。在大模型算法的操控下,平台企业等控制者与用户建立了单向的横向权力关系。控制者拥有按照用户固有属性进行分类的能力,并且可以单方面设定算法规则,而用户则无法选择退出,只能接受这些决策结果。参见陈吉栋:《人工智能法的理论体系与核心议题》,载《东方法学》2023年第1期,第66页。因此,在监管层面预防和治理算法歧视时需要对算法权力进行规制。在算法歧视的具体认定上,应以算法根据用户特征做出的决策作为行为要件,以用户受到不利的差别对待作为结果要件。如果涉及算法开发、部署、使用的相关方能证明这种差别对待是合理的,则不构成算法歧视。
另一方面,公平原则在面对大模型算法中偏差和错误的及时修正和改进方面扮演着重要角色。为了确保算法的决策过程公正且透明,曹静宇等学者提出将元学习与层次强化学习相结合,通过不断改进和优化算法,实现在复杂多智能体系统中的强化学习,提升算法的公平性和准确性。See Jingyu Cao,et al. ,Hierarchical Multi-Agent Reinforcement Learning for Cooperative Tasks with Sparse Rewards in Continuous Domain,Neural Computing and Applications,Vol. 36,2024,p.273.宾斯强调了模型公平性的必要性,即需要对机器学习模型进行持续的监控和调整,以及时发现并修正模型中的任何偏差和错误,确保模型在不同情境下都能保持公平性。See Reuben Binns,Fairness in Machine Learning: Lessons from Political Philosophy, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, Vol. 81,153-154(2018).此外,
古德曼和弗拉克斯曼讨论了欧盟的算法决策法规,指出这些法规不仅回应了公众对于算法决策透明度和公平性的关切,而且促进了技术创新和发展,认为这些法规要求生成式人工智能系统必须满足公平性要求,并支持系统创新发展,以确保技术进步同时兼顾社会道德和法律责任。See Goodman B. amp; Flaxman S.,European Union Regulations on Algorithmic Decision-Making and a Right to Explanation,AI Magazine, Vol.38 ,2017,p. 50.卡洛及其他学者则提出了法律体系在面对生成式人工智能的快速发展时,应具备社会回应型和探索场景型的特点。他们强调,大模型算法的设计和应用应当遵循规范化、易于理解的语言表达方式,这有助于确保公众能够理解决策过程和依据,从而增加人工智能系统的接受度。See Calo Ryan,Robotics and the Lessons of Cyberlaw, California Law Review,Vol. 103,2014,p.513.综上所述,公平原则在优化大模型算法偏差方面的具体化措施涉及多个层面:包括算法公平性、模型公平性、法规回应性以及公众接受性等。
(三)就法律规则纬度而言,采取促进激励+稳健包容的包容型法治建设路径
鉴于生成式人工智能具有稳健包容的技术属性,我们应当将这些属性转化为相应的法律规则,确保这些规则包容审慎
。世界各国人工智能立法尽管各有差异,但基本原理都体现为将算法技术应用中的伦理困境转化为可信属性,进而形成法律制度运行的逻辑,包括:制定算法运行环境、技术认证和技术安全标准体系,规定算法开发、部署、使用等主体的安全保障义务等。
1.生成式人工智能算力的技术激励和包容型法治动因
《管理办法》第3条规定了包容审慎的规则之治,即对生成式人工智能服务实行包容审慎和分类分级监管。在数字化时代,包容性法治的重要性日益凸显。作为对生成式人工智能的制度安排
,包容性法治应成为数字化时代下维护公正、保障公民权利的重要手段。数字领域中的算法和技术应当避免人工智能系统或者其他数字服务对某些群体的歧视和排斥。《管理办法》第4条第2款规定:在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。开放和宽容的态度是实现包容性法治的关键。在数字化时代,当个体可能面临信息茧房和数字鸿沟的挑战时,应采取措施以规避劣势、发挥优势,减少人为偏见,并拓宽人类的知识与能力边界。《管理办法》中明确了
鼓励自主创新、促进国际交流与合作、推动基础设施建设
等原则,旨在克服数字化时代的挑战,推动生成式人工智能的健康发展,提升算力资源利用效率,确保数据资源的安全性和可信度。
随着人工智能技术的迅速发展和广泛应用,人工智能伦理问题也愈加突显。其中,生成式人工智能的鲁棒性
(可理解为人工智能系统的抗干扰性)
和人工智能伦理标准中的包容性被视为属性转变为标准的典范。博斯特罗姆
等学者探讨了鲁棒性作为人工智能伦理问题和人工智能对齐问题的一个视角,并提出将机器学习模型的鲁棒性作为人工智能开发中的重要因素,以帮助理解人工智能系统如何对外界变化做出反应,从而提高人工智能的可靠性See Bostrom Nick,Superintelligence: Paths , Dangers , Strategies, Oxford University Press,2014,p. 68.;
乔宾等学者调查了全球各个组织对于人工智能伦理问题的看法和建议,注意到包容性被普遍认为应当成为人工智能伦理标准之一,以保证人工智能技术满足不同人群的需求和关注点。See Anna Jobin, Marcello Ienca amp; Effy Vayena,The Global Landscape of AI Ethics Guidelines, Nature Machine Intelligence, Vol. 1,389-390(2019).《管理办法》第10条中也有类似规定:
“提供者应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。”
2.法治为生成式人工智能算力的技术激励提供动因
法治对生成式人工智能算力技术转化至关重要,为生成式人工智能提供规范的运行轨道,为技术创新提供了制度保障,为技术的交流合作提供了指引和方向。(1)完善规则之治。
通过明确的规则指引,确保技术应用和创新在法治轨道上发展,同时应对技术应用中可能出现的风险,如《个人信息保护法》第55条、第56条对信息安全风险影响评估的条件和内容进行了细化,为企业在应用生成式人工智能算力时提供了明确的法律指导。然而,仍需明确风险评估概念以提升法律实施效果。此外,还需完善安全保障和风险评估义务规定,强化契约约束,构建公平、透明、可信赖的法治环境,为技术持续创新和健康发展提供保障。(2)推动创新之治。
通过明确的规则指引,鼓励生成式人工智能算力的创新和发展,为其提供更加广阔的应用场景和市场。《管理办法》《生成式人工智能服务安全基本要求(征求意见稿)》
及部分学者建议稿等,均指出了创新发展原则,并通过知识产权保护和技术创新等手段,加强生成式人工智能算力的技术研究和开发,推动其向更高端领域、更复杂的应用场景拓展。(3)促进合作之治。
通过明确的规则指引,
促进不同机构之间的合作和交流,形成合力,共同推动生成式人工智能算力的技术转化和应用,共同化解技术风险、市场风险。
3.生成式人工智能关键技术突破与法治互嵌
第一,生成式人工智能知识库构建技术与法治空间的互嵌是为了促进法治和技术的良性发展。生成式人工智能和DAO平台等知识库的广泛应用,提高了数据收集的精细化、精准度和时效性。通过设计“技术转化+试验改进”“探索场景+社会回应”“促进激励+稳健包容”三个规范模块,突破传统知识库的构建方式,建立起具有转化、回应和促进功能司法转化、回应、促进气候治理的逻辑,对生成式人工智能技术转化、回应、促进数据治理具有启发价值。参见朱明哲:《司法如何参与气候治理——比较法视角下的观察》,载《政治与法律》2022年第7期,第18-19页。的生成式人工智能知识库。以司法场景为例,可以
借助知识库构建,强化生成式人工智能介入司法数据优化治理。为了体现“探索场景+社会回应”“促进激励+稳健包容”,可以通过生成式人工智能,增加具有评论区功能的知识库,增加用户对话的技术功能,促进公众参与互动,探索新的智能社会实验,形成参与式的法治空间。当前,全国各地正在推进的开放群岛、开源社区建设,为生成式人工智能知识库提供了技术转化和试验改进的新场景,为法治和技术的融合提供更好的支持和推动。
第二,生成式人工智能算法在歧视预测预警技术上的突破与法治价值的深度融合尤为关键。目前,我们面临的主要挑战在于生成式人工智能在预测预警算法歧视、算法偏见等现象时,存在预测效果评估的精准性不足、风险预警的时效性不强,以及误报、漏报等问题。为了应对这些挑战,应当研发针对海量数据分析的生成式人工智能算法歧视预测预警技术,通过构建智能算法歧视风险评估模型智能算法歧视风险评估模型的一个例证是:2018年,美国职业足球大联盟(MLS)使用了一种名为“Soccer Analytics”(足球分析)的人工智能算法来预测球员的表现。该算法使用多个指标,如速度、力量、技术等,来计算每个球员在比赛中的预计表现。然而,有研究表明,这种算法存在性别和种族歧视问题。例如,在对加拿大女子足球队进行测试时,算法低估了这些运动员的表现。为了解决这个问题,研究人员构建了一个智能算法歧视风险评估模型。他们首先对足球数据进行收集和处理,以消除可能存在的歧视偏差。然后,他们使用机器学习算法训练新的足球分析模型,并在训练过程中尝试消除歧视性特征。接下来,他们对新模型进行了评估,并发现其性能要优于以前的模型。最后,他们提出了一系列改进方案,包括收集更多样化的数据、审查和调整算法参数等,以避免歧视问题。通过构建智能算法歧视风险评估模型,研究人员可以更好地了解算法中的歧视问题,并采取措施来减少或消除这些问题。此外,该模型也有助于促进公平和平等的职业足球机会,提高足球运动员在职业比赛中的表现。See Stark C. et al. , Fairness Perceptions of Algorithmic Decisionmaking:A Systematic Review of the Empirical Literature,Big Data Society,Vol. 9,2021,p.2.,攻克关键技术难题,实现对算法歧视行为的精准预测和及时预警。例如,为了强化对生成式人工智能算法中潜在歧视行为的检测和监管,公平AI联盟和美国联邦贸易委员会曾联合发起“AI并非无罪”的行动宣言See Michael Veale, Max Van Kleek amp; Reuben Binns,Fairness and Accountability Design Needs for Algorithmic Support in High-Stake Public Secstor Decision-Making,In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (CHI’18). Association for Computing Machinery, NY, USA, Paper No. 440,10-12(2018).
,以强化生成式人工智能应用的公平性和合规性。
第三,实现生成式人工智能产品风险智能识别应用技术与风险法治的深度融合至关重要。当前,生成式人工智能产品缺乏完善的风险分类分级和技术标准体系。例如,ChatGPT在提供法律咨询和文书撰写服务时,就存在知识幻觉和算法偏见带来的风险,包括错误解读法律条款的风险和传递不准确法律信息的风险。因此,需要运用自然语言处理和知识图谱技术,从侵犯法益角度对风险进行分级分类,研发风险评估模型,深化风险识别和评估策略的研究,从而提升风险识别的效率与准确性、加强风险防控能力,为生成式人工智能的包容型法治建设提供技术保障。
结语
“三经九纬”法治新模式关注数据要素的法律权属、市场化,以及生成式人工智能算法原理的可信性及其检验标准的完善等问题,以在法律框架中融入技术维度为基本理念。“三经九纬”法治新模式直面生成式人工智能在重点应用场景、技术与产品标准、风险等级识别与控制体系等方面的制度化与法治化挑战,并试图针对数据法律认知模糊、风险标准分级分类控制技术体系缺失等问题提出初步解决方案,以促进生成式人工智能的健康、有序发展为目标。
ML
A New Model of Rule of Law for Generative Artifical Intelligence Focusing on “Three Longitudinal and Nine Latitudinal Aspects”
XU Juan
(Big Data Rule of Law Research Institute,Nanjing University of Information Science amp; Technology, Nanjing 210044, China)
Abstract:
The new rule of law model of “
three longitudinal" and nine latitudinal aspects” is a richer concept than “regulation theory” in generative artificial intelligence governance. The “thinness” of existing regulations requires the introduction of new rule of law models to solve the real problems and new challenges faced by generative AI, including the improvement of the applicability of laws in the aspects of technical basis, technical application, technical standards, convergentable data algorithms, evaluable credibility, transformable norms, dialogue and negotiation, and the integration between entities. The nine dimensions corresponding to three aspects respectively refer to the dimensions of technical basis, technical application and technical standards, data quality, algorithm optimization and computing facilities, and legal purposes, legal principles and legal rules. In the three aspects of national strategy - industry incubation - legislative norms, through ministerial regulations to transform the needs of the industrial side and improve technical norms, to form an improvement strategy on the path of generative AI governance, including exploring a new mode of response, transformation and improvement, and promoting inclusive rule of law.
Key words:" Generative Artificial Intelligence; New Rule of Law Model; “Three Longitudinal and Nine
Latitudinal Aspects”
本文责任编辑:董彦斌
青年学术编辑:任世丹