生成式人工智能引入数字政府建设的规制路径
2025-01-31傅建平
[摘 要] 数字技术的迭代发展与能力跃迁契合了数字政府转型中的多维需求。生成式人工智能技术能够为数字政府的建设提供在政府决策科学性与前瞻性强化、政府运作效率优化与成本降低、政务服务的亲切度与参与度提升等方面的助力。从风险社会的理论出发,信息时代的风险网络更为复杂、治理更加困难,需要引入三维视角从而综合施策。回归到生成式人工智能引入数字政府建设的场景来看,存在着复杂算法引发的数据安全与信息保密风险、资本力量解构行政权力公共属性的风险、数据处理导致的公民数据权利被侵犯风险。数据分类分级、算法伦理审查、技术问责能够成为应对上述风险的有效规制路径,而针对上述路径,能够以数据多维审视为基点、以行政机关义务为途径、以算法应用监管为场景,提出可操作性更强的细化对策。
[关键词] 生成式人工智能;数字政府;风险社会;法治对策;算法治理
[中图分类号]" D63"" [文献标识码] A"" [文章编号] 1008-1763(2025)01-0124-09
The Regulatory Path of Introducing Generative
Artificial Intelligence into Digital Government Construction:
From the Perspective of Risk Society
FU Jianping
(School of Marxism, Central South University, Changsha 410083, China)
Abstract:The iterative development and capability leap of digital technology align with the multidimensional needs in the transformation of digital government. The" generative artificial intelligence technology can provide significant support for the construction of digital government by enhancing the scientific and forward-looking nature of government decision-making, optimizing government operational efficiency and reducing cost, and improving the friendliness and participation in government services. However, from the theoretical perspective of risk society, the risk network in the information age is more complex and governance is more challenging, requiring a three-dimensional perspective for comprehensive policy implementation. Returning to the scenario of introducing generative artificial intelligence into digital government construction, there exist risks such as data security and information confidentiality breaches caused by complex algorithms, the risk of capital forces deconstructing the public nature of administrative power, and the risk of citizen data rights being infringed due to data processing. To address these risks, effective regulatory paths include data classification and grading, algorithmic ethics review, and technical accountability. Regarding these paths, we can propose more operational and detailed countermeasures based on multidimensional data review as the foundation, administrative agency obligations as the pathway, and algorithm application supervision as the scenario.
Key words: generative artificial intelligence; digital government; risk society; legal countermeasures; algorithm governance
在全球信息技术日新月异的浪潮中,数字政府的概念已由前瞻性的构想跃升为世界各国政府机构改革的核心策略,这既是政府职能的数字化转型,也是通过融合先进信息技术,全面提升公共服务效率、透明度与响应速度的新型治理范式。在此进程中,生成式人工智能(AIGC)以其卓越的数据分析、决策辅助及个性化服务能力,正逐步成为加速政府服务智能化、精准化升级的强劲引擎。
然而,正如风险社会理论所揭示的,任何技术革新都伴随着一系列挑战与风险。生成式人工智能技术的应用增加了数据泄露、滥用乃至被外部势力操控的可能性,对既有社会秩序和导向产生了深远的影响。数据安全和个人隐私保护也引起关注[1]。首先,是数据主权风险的加剧。在大数据时代,数据是驱动经济与社会发展的重要资源。政府机构作为海量数据的持有者,对数据的利用直接关乎国家的安全与利益。其次,社会文化秩序的维护与文化传承问题浮出水面。算法偏见和信息茧房效应可能加剧社会分化,影响社会共识的形成。最后,个人数据安全与隐私保护成为亟待加强的重点。非法数据获取、不当数据使用和隐私泄露事件频发,引发了公众的广泛担忧。
在风险社会框架下,深入剖析生成式人工智能在数字政府体系内融合的风险架构,制定行之有效的应对策略,是一项兼具紧迫性和前瞻性的课题,需要从风险社会理论的视角,全面审视该技术在政务服务中的潜在威胁,从宏观到微观、从制度到执行,全方位地构建响应策略,在技术革新与社会治理之间找到最佳平衡点,共同构建一个既高效又安全的数字政府生态。
一 风险社会理论于信息时代的引入
随着工业化浪潮、市场经济扩张及全球化进程加速,现代社会正逐步演变成为一个充满不确定性和风险的世界。科学是万事万物运转的重要因素,但其往往只会求助于决策,而忽视后果[2]293。公众逐渐意识到,源自市场经济的波动、科技进步的双刃剑效应以及官僚体系僵化所带来的风险,已远远超出了个体或单一组织的控制范畴,演化成了一种具有全球影响力、深层次结构特征的社会现象。全球威胁导致已知的风险规律基础受到削弱甚至失效[3],应当探索新的风险治理方案。
(一)信息时代的风险网络与治理
随着科技的飞速发展和全球化的不断推进,人类社会所面临的风险已不再单一,而是一个错综复杂、多元交织的风险网络。当前,数据安全已经成为一个不容忽视的风险点,一旦数据泄露或被非法获取,将对个人、组织乃至国家安全造成重大影响。更为复杂的是,随着人工智能、大数据等技术的广泛应用,技术系统的自主性越来越强,技术失控的潜在风险随之而来[4]。
对此,亟须从社会整体性和系统性角度出发,对社会现实风险进行全面治理。具体而言,这需要整个社会共同参与,形成一套覆盖广泛、响应迅速且具有高度适应性的综合管理体系,需要构建一套灵敏的风险预警系统,及时捕捉潜在的威胁信号。提高风险应对能力是风险管理机制中的关键环节,不仅要制定详尽的应急计划,还要具备快速反应和灵活调整的能力,以适应不断变化的风险环境。在社会整体性和系统性的视角下,风险管理的有效实施离不开跨领域的紧密协作,政府、企业、科研机构、非政府组织以及普通民众,都是风险管理生态系统中的重要组成部分。
(二)三维视角综合施策的引入
随着信息技术的迅猛发展,特别是人工智能、大数据、云计算等前沿技术与政务的深度融合,在重塑公共服务模式,提升治理效能的同时也催生了一系列新型风险,包括数据泄露、算法偏见、网络攻击等直接威胁,以及数字鸿沟加剧、个人隐私侵蚀、社会信任度下降等深层问题,挑战着传统治理体系的边界。
风险识别与评估、风险管理与应对、风险沟通与公众参与是数字政府建设中不可或缺的三个支柱。当前,人们对于科学技术迅猛发展带来的副作用和负面效应所酿成的自然风险的察觉和认知程度大大提升[5]。在数字政府的构建过程中,风险识别与评估是推动其稳健发展的首要步骤,应对数据安全漏洞、系统稳定性隐患、隐私泄露风险、算法偏见及技术失控等环节进行全面排查,精准定位潜在风险点。随后,通过定量与定性相结合的方式进行评估,分析其可能造成的损害程度及发生的可能性,为后续的风险管理提供科学依据。同时,需要建立健全的风险预警机制,对风险进行实时监测与评估,以期尽早识别并采取干预措施。在数字政府建设中,风险沟通与公众参与不仅是提升政府透明度的关键,也是增强社会整体风险意识与应对能力的重要途径。政府应主动与公众展开对话,采用多种渠道和形式,鼓励公民和社会各界积极参与,形成风险共治的良好局面。
风险社会理论与生成式人工智能安全风险具有高度的契合性[6]。为有效应对这些风险,社会性治理策略可以从以下几个方向展开:在数据制度方向,可以利用区块链技术标识所有参与者的贡献,授予收益凭证,借助链上记账的隐私存证方案,建立“以链治链”的“法链”机制,优化流通记录存证方式,实现记录的安全可信可验证[7];在责任配置方向,明确多节点责任边界,建立责任追溯机制;在科技伦理方向,强化科技伦理教育和宣传,提升公众和科技工作者的伦理意识。
二 生成式人工智能引入数字政府
建设的效能
生成式人工智能的引入,标志着数字政府架构从信息化向智能化时代转向,这不仅是一种技术上的迭代,更是治理理念与模式的根本转变。生成式人工智能作为核心驱动力,重塑了数字政府的整体架构,直击数字政府在服务民众过程中的痛点,通过精准交互,实现了动态行为的质变。
(一)政府决策的科学性与前瞻性强化
在数字化转型的浪潮中,生成式人工智能改变了数字政府的整体架构与运作模式,推动其向智能化迈进。在城市规划、交通管理等复杂社会治理领域,人工智能通过对人口流动、交通流量、环境变化等多维度数据的综合分析[8],能够预测未来的趋势与潜在需求,使政府决策具备更强的科学依据与前瞻性。同时,模式识别技术能够提升生成式人工智能赋能政府治理效率,为政府提供更加高效、灵活的服务方案。例如,在公共服务领域,生成式人工智能可以识别市民最频繁使用的服务类型与时间,自动调整资源分配,实现服务供给与需求的精准匹配;在面对突发事件或政策制定时,可以快速整合各类信息,包括历史数据、实时反馈、专家意见等,为决策者提供全面、客观的分析报告与建议。
随着技术的不断进步,智能系统能够通过持续收集与分析反馈数据,自动调整算法模型,优化决策逻辑,从而不断提升政府服务的效率与质量。动态优化机制保证了数字政府能够与时俱进,适应不断变化的社会需求与挑战。公民可以使用自然语言与ChatGPT等智能系统交互,完成问答、分类、摘要、翻译、聊天等从自然语言理解到自然语言生成的任务[9]。在追求效率与智能化的同时,生成式人工智能也可以协助构建更加透明和可信赖的政府服务体系,自动生成详细的流程日志和决策依据,保障每一项行政操作都有迹可循,易于审计。
(二)政府运作的效率优化与成本降低
生成式人工智能正悄然重塑着政府机构的运行版图,有效降低了行政成本,增强了公共服务的准确性和及时性。以往政府机构面临大量繁琐且耗时的常规工作(如文件审核、许可证发放、数据录入等)时,往往依赖于人力处理,效率低下且容易出错。智能系统能够快速准确识别并验证各类文档的内容,自动比对数据库中的相关信息,保障审核过程既高效又准确。对于许可证发放等标准化流程,人工智能可以根据预设的规则和标准,自动完成审批流程,避免人为因素可能导致的延误和错误,其以数字技术和算法为工具进行自动化操作和决策的过程就是推进算法行政的过程[10]。同时,智能撰写功能不仅能够提高文件的一致性和专业度,还能增强政策传达的清晰性和准确性,增强政府的公信力。此外,政府财务审计是一个耗时的过程,涉及大量文档和交易记录。为此,可以引入“审计跟踪”工具,保留每一个算法行政决定案件的全部历史记录[11]。利用智能算法自动执行初步审计工作,识别异常交易、验证账目一致性等基础操作,帮助审计人员专注于更复杂的分析和调查。基于此,生成式人工智能促进了政府动态行为的自动化,提高了政府机构的响应速度和运营效率,同时也降低了人力成本和错误率,使政府能更有效地履行职责。
(三)政务服务的亲切度与参与感提升
从解决传统服务痛点到开创全新交互体验,生成式人工智能为政府服务注入了创新活力。与民众交互是政务服务中的一个传统痛点,政府服务的信息往往较为复杂,专业术语多,普通民众可能难以理解和获取所需信息。传统的政务服务依赖于实体窗口或电话咨询,民众的访问受时空限制,导致问题难以及时解决。政府机构的官僚体系可能导致决策和执行过程缓慢,不能及时响应民众的问题或请求,影响服务体验。而在数字政府建设过程中,智能问答系统凭借自然语言处理与理解能力,能够迅速响应民众的各类咨询,提供准确、专业的解答,极大地缓解了政府服务窗口的压力,缩短了民众等待时间。同时,通过语音识别技术,无论是视力障碍者还是对电子设备操作不熟练的老年人,都能轻松通过语音指令完成服务请求,享受平等、便捷的政府服务,体现了数字包容性原则,彰显政府致力于提升公共服务质量的决心。
借助生成式人工智能的深度学习能力,数字政府能够实现对用户的个性化服务推荐。系统通过分析用户的行为模式、兴趣偏好等数据,能够进行定制化的智能推送。智能系统可以分析用户的历史记录和偏好,提供个性化的办事指南,指导用户更快地完成申请流程,或提前预警可能出现的问题。生成式人工智能打破了传统服务渠道的局限,无论是通过官方网站、移动应用,还是社交媒体平台,民众都能无缝接入政府服务网络,享受便捷服务,全方位、多触点的服务体系提升了政府服务的可达性和民众的参与度,增强了政府与民众之间的紧密联系。
三 生成式人工智能引入数字
政府建设的风险
无疑,新一代的人工智能技术利用自身独特的优势为数字政府治理领域带来了前所未有的创新机遇。技术是中性的,其本身不具备威胁属性,而当它与人类意图相结合时,技术风险便相伴而生[12]。与许多突破性技术一样,新一代人工智能同样伴随着一系列风险,包括数据主权风险、文化秩序风险以及数据安全风险。
(一)复杂算法引发数据安全与信息泄露风险
在生成式人工智能参与数字政府建设的浪潮中,现代国家俨然成为超级“数字利维坦”。数据主权赋予了国家对数据资源、软件技术、标准制定、服务供应等数字基础设施的法定掌控权和最高管辖权,也包括在全球数据治理中的自主决策与合作治理权益。自2013年“棱镜门”[13]事件被公开后,数据安全在推动国家数字政府进步中的关键性日益受到重视。首先,生成式人工智能可能引发技术霸权以及垄断现象。技术创新与自主性对于国家数据安全至关重要。AI Now的研究报告指出,生成式人工智能技术主要集中在少数几家大型科技公司手中,这无疑巩固了其市场地位。以Open AI公司为例,其通过不断推动技术革新与通过扩充数据集和精细调整参数,ChatGPT-4利用多模态模型[14],大幅提升了其性能。与此同时,Google也积极推出了PaLM API一系列相关工具和平台。掌握生成式人工智能核心技术的企业还可能通过技术独占来谋求霸权地位,西方霸权国家可能为了维护自身利益对我国实施技术封锁。虽然我国的百度、阿里、华为等企业也推出了与ChatGPT类似的生成式语言模型,但相较于国外的科技巨头,我们的技术发展起步较晚,因此面临着相当大的竞争压力。一旦这些国外科技巨头在生成式人工智能领域占据主导地位,他们可能会利用生成式人工智能来影响意识形态,从而加强其在全球的政治和军事影响力。基于此,实现技术的全面自主研发,将成为我国未来在人工智能模型领域的重要目标。
其次,还应当警惕生成式人工智能利用其敏感信息抓取能力对国家安全形成的威胁。数字政府的核心数据库中往往包含了与国家安全和国家利益密切相关的敏感信息,这些信息若未经严格筛选和脱敏处理便被直接用作人工智能的训练数据,其泄露风险将显著增加。人工智能的工作原理依赖于对大量数据的深度学习和语义分析,以生成新的、具有创造性的内容。期间,语义分析模块有可能在未经意间捕获到与国家安全情报高度相关的敏感信息。这些信息一旦进入人工智能的处理流程,就可能通过算法和模型被提炼、分析和重组,进而以某种形式被输出或暴露。更为严峻的是,由于网络空间的开放性和互联性,这些被处理过的敏感信息可能轻易地被国外情报机构发现、截取和利用。这种信息泄露不仅可能损害我国的国家安全利益,还可能对我国的数据主权安全构成严重威胁。
(二)资本力量解构行政权力公共属性
生成式人工智能所携带的资本力量暗藏着对行政权力公共属性的潜在解构风险。随着该技术的广泛应用,其背后的资本实体正逐步在各领域扩大其影响力和控制力,若此趋势持续演进,政府等公共权力机构的权威性可能会受到前所未有的冲击。
在传统的人工智能应用领域,国家有能力实施有效的监控措施,从而确保国家利益与安全不受资本的过度侵蚀。然而,生成式人工智能的独特运行机制打破了这一平衡。该技术的核心数据大多源于用户与互联网的实时交互,可能在极短的时间内便被相关科技公司捕获与分析。这一全新的数据生成与获取模式,从根本上改变了传统的行政法律关系格局,使得原本“行政机关—行政相对人”的二元结构逐渐让位于“智能系统—行政相对人”的新型关系模式[15]。在此背景下,资本在生成式人工智能领域内的优势地位日益凸显,无疑加大了国家监管的难度,同时也为资本向数字政府领域的渗透提供了契机。此种变化不仅可能重塑国家行政部门与其他社会主体之间的权力动态,更可能在深层次上影响国家政权的基本运作模式,从而对我国的社会稳定构成潜在威胁。
(三)数据处理导致公民数据权利被侵犯
生成式人工智能作为一种前沿的大型语言模型,它的训练与优化离不开海量的数据“喂养”。然而,在对OpenAI等企业公布的隐私政策进行研究时可发现,生成式人工智能在数据收集方面存在显著的合规问题,其未经数据所有者明确同意,便已经大规模地、系统地采集了个人数据。更令人不安的是,这些数据很可能包含了大量的个人隐私和敏感信息,如个人身份信息、财务状况、健康状况等。
在数字化时代,数据已经超越了原始的信息属性,成为一种具有巨大经济价值和社会影响力的生产要素。高价值的数据资源,不仅在经济领域被视为宝贵的资产,更在社会治理、公共服务等多个领域发挥着举足轻重的作用。对这些数据的掌控和利用,无疑会形成一种新的权力结构,甚至可能影响到社会的公平与正义。大型语言模型及其研发企业凭借其在技术和信息方面的显著优势,已经实现了对信息数据的高效集中和深度利用。这种集中效应不仅加强了企业在市场中的竞争地位,更在无形中构建了一种“准权力控制”的格局。当这种技术与数字政府进行深度合作时,可能会为生成式人工智能的数据收集行为披上“合法”的外衣,从而为其对个人数据的过度采集和滥用提供便利。
四 生成式人工智能引入数字
政府建设的规制路径
进入现代社会后,“被制造出来的风险”逐渐取代传统的自然风险,成为“我们在没有多少历史经验情况下所必须要面对的现实问题”。生成式人工智能嵌入数字政府一方面需要在“法律AI”的路径上探寻其赋能政府的可能性与路径,另一方面亦要在“AI法律”的路径上对其可能带来的风险进行分析、研判,进而采取法治化的方式来化解风险。
(一)分类分级:以数据质量保障算法的安全运作
生成式人工智能嵌入数字政府建设的底层逻辑在于利用大数据分析并通过机器学习数据背后所体现的一般性规律,借助预测、研判、提供建议等方式辅助政府决策。人工智能的运行逻辑是利用计算机和数据进行推理、模式识别、学习或其他形式的推断[16]22。目前生成式人工智能可获取的数据存在不清晰、不明确的问题。由于数据质量和算法安全密不可分,数据质量直接影响算法的决策结果,而算法的安全运作又需要高质量的数据作为支撑,因此,需要从源头确保数据的准确性和可靠性,对数据进行严格的分级分类。
数据分级分类对于生成式人工智能模型训练与算法应用的重要作用在于明确AI能够对何种数据加以收集、分析以及利用。这既需要通过数据分级分类为AI提供高质量、标准化、结构式的数据,减少AI应用可能产生的算法偏见、算法歧视等问题;同时也需要限制生成式人工智能借助“政务服务”或“社会治理”之手而无限制地收集与利用数据。为此,法律制度中应嵌入伦理要求,以确保算法的运作符合社会价值观和伦理标准。我国可以借鉴国际上的经验和标准,例如欧盟的《通用数据保护条例》(GDPR)等明确算法的透明性、公平性、可解释性等伦理要求。
一方面,通过数据分级分类为AI提供高质量的数据。生成式人工智能的模型训练需要不断地进行数据“喂养”以提高算法的精确度,同时在后期亦需要数据反馈以实现算法模型的自适应与自调整。具体而言,第一,提升模型性能,通过将数据按照相关性、复杂度或特征进行分类,根据每一类数据的特点优化模型参数,提升模型对特定类型数据的处理能力。第二,资源优化,高级别的数据(如高分辨率图像或复杂的文本)可能需要更多的计算资源来处理。通过数据分级,可以优先使用高性能计算资源处理这类数据,而低级别的数据则使用较少的资源处理,实现资源的合理分配。第三,增强模型的泛化能力,确保模型能够接触到不同类型的数据,提高其在未知数据上的表现力。
另一方面,通过数据分级分类为生成式人工智能设立行为边界,平衡其与数字政府建设相结合过程中可能产生的价值冲突。数字政府建设具有提升行政效能、促进政府转型等多重效能,若要实现生成式人工智能对数字政府的技术赋能,便不得不面对秩序、行政效能提升与自由、个人隐私等价值之间的内在张力问题。为此,需要从事前、事中、事后三个方面入手建立一套完善的数据质量评估体系,以确保数据的准确性和可靠性。事前需要对数据进行严格的审核和验证,确保其来源的合法性和真实性;事中需要对数据进行定期的监测和评估,确保其质量和安全;事后需要对数据的运作结果进行评估和反馈,以便及时发现问题并进行改进。
(二)伦理审查:以法治方式引导公共价值的回归
伦理审查是确保科学研究和技术开发符合社会伦理标准的重要机制。从事前角度出发,在生成式AI系统设计和开发阶段引入伦理审查,可以更有效地预防潜在的伦理风险。当前,世界各国积极组建伦理委员会以应对人工智能发展引发的伦理困境,如Google、Lucid AI、微软等,我国也正式宣布组建国家科技伦理委员会,旨在将科技发展控制在人文伦理许可的范围内。具体而言,可以从以下几个环节制定伦理审查方案。
第一,政府要建立明确可行的伦理准则和框架。技术的开发要遵循明确的伦理原则,如尊重隐私、重视公平性、透明度、责任性和安全性等,并以此指导行业标准的制定和执行。政府可参考国际标准组织和专业团体指南,制定或采纳适合本地文化和法律环境的伦理标准。第二,企业要强化设计阶段的伦理考量。在项目初期,企业要考虑伦理影响,识别潜在的偏见来源和敏感场景,确保设计目标符合伦理原则。此外,还可组建多元化的项目团队,吸纳不同背景的专家和社会科学领域的顾问多角度审视伦理问题。第三,政府和企业要强化模型评估与监控。在模型开发阶段,要注重模型的可解释性,使决策过程透明,便于外部审查和内部审计。同时,还要持续监控模型输出,定期评估其性能和伦理影响,以及时调整和优化模型运行过程。第四,政府要鼓励用户参与培训和反馈。强化知情同意规则的应用,确保用户了解AI系统的工作原理及其可能的影响,获取必要的同意。政府还应当建立有效的用户反馈机制,鼓励用户提供关于AI行为的感受和建议,作为持续改进的依据。第五,政府要推进跨学科合作。例如,可以设立由伦理学、法学、心理学等多领域专家组成的伦理委员会,对AI项目进行独立审查;还应当通过研讨会、公开论坛等形式,强化公众参与,增加决策的民主性和透明度。
(三)技术问责:以明晰的责任体系实现权利救济
生成式人工智能嵌入数字政府建设提升了政府行政效能,但也有可能引发“算法卸责”[17]问题。为此,必须要明确生成式人工智能嵌入数字政府的责任体系。而技术问责是确保技术发展与应用过程中能够符合伦理和法律要求的重要机制,应在技术开发和应用前,考虑其可能带来的社会影响和伦理问题,通过法律制度嵌入伦理要求,形成一套明晰的责任体系,以实现权利救济。
一般而言,政府不具有开发AI模型算法的技术能力,其往往倾向于通过“外部采买”的方式开展数字政府建设。但是,若生成式人工智能因其内容导向错误或者自动化决策等侵犯公众权益,明确相关责任主体则成为首要问题。对此,应当明确AI模型算法的角色地位,论证其是否具备责任能力。尽管目前生成式人工智能所展现出来的能力显示,其已然具有某些“类人性”的特质,尤其是在思维逻辑、话语表达等方面,可以做出与人类类似的情感表达。但是,其本质仍然是模仿,是通过计算机对情感的分析,进而将情感符号转化为计算机赋码进行输出的技术性过程。而从法律技术或者便利的角度而言,是否可像法人一般将生成式人工智能拟制为法律主体,目前无论是在理论上还是技术上都面临着重大的争议或者难题[18]。因此,生成式人工智能当前并不具备独立承担责任的能力。
基于此,在生成式人工智能嵌入数字政府造成行政相对人权益受损时,可能的责任主体包括政府以及模型算法的技术开发者,这需要区分不同情形来明确二者承担何种责任。一方面,绝大多数情况下,政府需要对相对人的权益受损情况承担责任,并不存在如民法上的连带责任。其缘由在于,在数字政府建设中,科技公司、研发机构等提供的是技术性开发服务,即便其技术造成了相对人的权益侵害,也难以构成共同侵权,并不存在连带责任的适用空间。另一方面,技术开发者亦可能承担责任,但往往要承担与政府及其部门之间通过合同约定的民事责任,如其在提供技术性服务过程中,负有对技术工具进行提前检查、审核以及后续的调适义务,若因此而造成后续的侵权事件发生,技术开发者应当根据合同约定承担民事责任,包括但不限于经济赔偿、单方解除协议、纳入政府采购黑名单等。
五 生成式人工智能引入数字
政府建设的对策细化
政府在风险治理理论框架中扮演新治理理念倡导者、风险治理的核心枢纽、风险治理制度的建立和维护者、风险信息的疏导者、公民权利的维护者[19]的角色。因此,在生成式人工智能嵌入数字政府建构中,除了宏观层面的理论建构,还需要制度层面的微观填充,以全流程完善生成式人工智能赋能数字政府建设。
(一)以数据多维审视为基点的分级分类
为满足数据在市场应用中的灵活需求,充分发挥数据的市场价值,在国家数据安全工作协调机制指导下,我国颁布了《中华人民共和国数据安全法》《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》及相关规定,细化数据分级分类标准体系,根据数据管理和使用需求和数据在经济社会发展中的重要程度,来兼顾数据安全和发展。
1.关注数据特性与相关利益的分级分类展开
构建数据分级分类标准不能忽视数据的复杂性和多样性。数据类型不同,所涉及的权益和潜在风险也存在差异。因此,构建数据分级分类标准应以数据本身特性和相关利益为核心,而非仅依靠数据分析的责任主体。目前,我国数据分级分类已经构建起基本的框架体系,但是责任主体不同会涉及不同的利益诉求和风险承受能力,导致实践中分级标准碎片化。对于重要数据的判定,应放弃从“谁掌握数据”来着手(即“自下而上”的数据分类),而是从数据可能影响的价值、利益来判断[20]。
2.注重内在属性与应用过程的数据价值评估
构建数据分级分类标准需要对不同的数据展开价值评估。这一过程不仅要参考其内在属性,还应注重数据应用过程的价值。一方面,数据产生所固有的属性往往不变,与数据所属类型直接相关,例如个人身份信息和国家安全信息因关乎隐私和国家安全而需要确保数据安全、合规使用。另一方面,重静态而轻动态的数据安全保护模式无法应对日益凸显的数据流通需求所产生的新型数据安全风险。动态价值是关注数据应用过程中的价值,数据的价值可能随着时间、环境、使用方式等因素的变化而变化。
此外,对数据价值的评估还应当考虑政府大数据与人工智能技术的应用特征,以及科技治理的伦理化趋势。生成式人工智能研发、设计等“上游”,要基于设计原则性、程序性要求,推动伦理考量结构化嵌入生成式人工智能研发过程,确保其研发不仅仅考虑工具性价值,也要关注复合性的科技伦理探究。同时,法律需要对“下游”涉及的生成式人工智能使用行为进行回应性规制,促成技术的工具价值与社会价值间的持续对话和不断调适,促使生成式人工智能更好地赋能数字政府建设。
(二)以行政机关义务为途径的伦理审查
生成式人工智能引入数字政府时,以行政机关义务为途径的伦理审查,是确保生成式人工智能在政府治理中合理、公正、透明运行的关键。因此,行政机关需要建立一套完善的伦理审查机制,对生成式人工智能系统的设计、开发、部署和运行进行全过程的监督和评估。
1.以伦理风险评估确保技术中立
在深入探索生成式人工智能技术的行政应用中,行政机关首先应当在技术层面保证生成式人工智能的开发和运营可靠、安全并合乎伦理[21],并细致排查可能潜藏的伦理争点与风险区域。这一过程要求行政机关全面审视生成式技术的潜在影响,包括隐私保护、算法偏见、责任归属等多个维度,强化算法设计中的伦理嵌入,强化数字政府建设整个生命周期的伦理规制[22]。其次,行政机关基于详尽的评估报告,理应构建一套涵盖广泛、操作性强的伦理指导原则与行为规范体系,以将伦理考量深度融入生成式人工智能系统的设计、开发、应用等生命周期,确保每一步操作都能坚守伦理底线,促进技术健康发展。最后,行政机关理应积极拓宽对话渠道,深化与社会各界的交流互动,在广泛吸纳公众意见、专家见解及非政府组织建议的同时,强化公众对生成式人工智能技术的认知与信任,为技术的广泛应用奠定坚实的社会基础。
2.以数据隐私治理筑牢信任基石
在生成式人工智能技术的广泛应用中,数据是核心驱动力,而隐私保护则是不可逾越的伦理红线。首先,应建立健全数据管理制度,明确数据采集、存储、处理、共享及销毁的全链条责任主体与操作规范,确保每一环节都符合法律法规与伦理要求。这包括但不限于对敏感数据的加密处理、访问权限的严格控制以及数据最小化原则的贯彻实施,从而有效遏制数据泄露与滥用风险。其次,行政机关还需推动建立透明化的数据使用机制,要求人工智能系统的开发者与运营者公开数据处理逻辑、算法模型及决策依据,增强公众对技术运行过程的信任与理解。最后,应鼓励采用差分隐私、联邦学习等先进技术手段,在保证数据有效利用的同时控制数字技术发展对隐私的侵犯,最大限度地保护个人信息[23]。行政机关还应设立独立的隐私保护监督机构,负责对数据治理措施的执行情况进行定期检查与评估,及时发现并纠正任何违反隐私保护原则的行为。为进一步提升公众的数据保护意识与参与度,行政机关应积极开展数据保护教育与宣传活动,普及数据隐私保护知识,引导公民合理行使数据权利,共同营造安全可信的人工智能应用环境。
3.以算法透明公开消除技术偏见
算法作为生成式人工智能技术的核心,其设计与应用直接关系结果的公平与公正。行政机关应制定严格的算法审查标准,对算法模型进行全面的公平性评估,识别并纠正其中可能存在的偏见与歧视因素。例如,对算法训练数据的多样性审查、模型预测结果的公平性验证以及针对不同群体影响的分析等;也可以借助价值敏感设计方法(VSD)和感知歧视的数据挖掘技术(DADM)等将基本伦理原则嵌入目标算法等[24]。同时,行政机关应推动算法透明度的提升,要求开发者与运营者公开算法的基本原理、逻辑结构及关键参数,使公众能够了解并评估算法决策的过程与结果;通过建立算法可解释性标准与机制,促进公众对算法决策的信任与接受度,减少因技术不透明而引发的误解与担忧[25]。此外,行政机关还需建立算法审计与问责制度,对算法的运行情况进行定期审计与评估,对发现的偏见与歧视问题进行严肃问责与处理。通过引入独立的审计机构或专家团队,对算法进行全面、客观的审查,确保算法在公平、公正的原则下运行。
(三)以算法应用监管为场景的技术问责
数字技术的快速发展和多样化应用需要政府制定灵活和有效的管理机制,以适应不断变化的环境和需求。
1.算法应用各主体的权责明晰
算法决策的偏见和歧视等问题对个人权利和社会公正构成了潜在威胁。因此,法律制度必须适应这一新情况,将伦理要求纳入监管框架,确保技术发展与社会价值相协调。一方面,正视生成式人工智能带来的技术、伦理问题。算法设计者和开发者需承担评估和测试责任,确保其符合公共利益和社会价值。另一方面,监管的责任体系应当在多方参与下协力建构。数字政府的构建涉及多个监管主体,包括政府部门、监管机构、行业组织和社会公众等,各自可以发挥不同的监管优势,如政府部门为生成式人工智能的嵌入制定相关法规和政策,明确生成式人工智能监管标准和指导原则;监管机构负责审查和监督生成式人工智能的应用;行业协会可以为生成式人工智能的应用提供专业支持。
2.政府内部各层级的权责明晰
中央和地方政府在数字政府的构建中扮演着不同的角色,中央政府关注生成式人工智能嵌入数字政府的顶层设计,地方政府注重实际管理和服务提供。因此,应明晰政府内部各层级的权责。首先,中央政府需要制定生成式人工智能应用的政策框架,明确数字政府的发展方向,确保生成式人工智能的应用符合国家安全和伦理道德。在具体应用层面,中央政府应统一基础标准和规范,促进技术应用的标准化和规范化。我国各地方的利益主张不同,因此也需要中央政府协调各地方部门之间的协作,促进政府间的信息共享与合作,避免形成“信息孤岛”,阻碍数字政府建设。其次,在中央政府规划指导下,各地方政府需要因地制宜,结合本地区的实际情况制定生成式人工智能应用的具体方案,推动技术落地。最后,数字政府的打造离不开中央和地方政府的紧密配合,中央和地方需要共同努力,推动数字化的顺利转型。
六 结 语
在信息时代,风险社会理论仍有重要的现实意义与价值,尤其是就生成式人工智能在数字政府建设中的应用而言,该理论得以进一步扩展和验证。本文以风险社会理论为出发点与分析工具,以信息时代为背景,分析了生成式人工智能在参与数字政府建设过程中的多重效能以及在其间伴生的多重风险,并分别从规制路径的宏观方向与细化对策的微观要点出发,论证了如何有效规制生成式人工智能引入数字政府建设中的潜在问题。由于受研究体量与视角的局限,上述路径、对策无法尽善尽美。未来,技术的外观与运作逻辑必然加速迭代,但其背后所蕴含的权利、责任、义务等核心本质仍将保持动态恒定,科技必然要遵循法治建设要求才能够实现科技向善。
[参 考 文 献]
[1] 张凌寒.生成式人工智能的法律定位与分层治理[J].现代法学,2023(4):126-141.
[2] 贝克.风险社会:新的现代性之路[M].南京:译林出版社,2018.
[3] 贝克,郗卫东.风险社会再思考[J].马克思主义与现实,2002(4):46-51.
[4] 高亮华.技术失控与人的责任——论弗兰肯斯坦问题[J].科学与社会,2016(3):128-135.
[5] 拉什,王武龙.风险社会与风险文化[J].马克思主义与现实,2002(4):52-63.
[6] 陈嘉鑫,李宝诚.风险社会理论视域下生成式人工智能安全风险检视与应对[J].情报杂志,2025(1):128-135+171.
[7] 黄尹旭,杨东.“利益-权利”双元共生:“数据要素×”的价值创造[J].中国社会科学,2024(2):51-74.
[8] 曹冬松,方雷. 数字时代的“网红城市”:生成形态、流量效应与治理转型——基于典型城市的案例考察[J].电子政务,2025(1):52-64.
[9] 冯志伟.从ChatGPT到Sora发展中的术语问题[J].中国科技术语,2024(2):88-92.
[10]王贵.算法行政的兴起、挑战及法治化调适[J].电子政务,2021(7):2-14.
[11]王怀勇,邓若翰.算法行政:现实挑战与法律应对[J].行政法学研究,2022(4):104-118.
[12]甘钧先.意图孪生:人工智能军事化的国际安全挑战与治理路径[J].长沙理工大学学报(社会科学版),2024(1):106-116.
[13]王玥.试论网络数据本地化立法的正当性[J].西安交通大学学报(社会科学版), 2016(1):54-61.
[14]于文轩.ChatGPT与敏捷治理[J].学海,2023(2):52-57.
[15]马长山.数智治理的法治悖论[J].东方法学,2022(4):63-74.
[16]卢格尔.人工智能:复杂问题求解的结构和策略[M].郭茂祖,刘扬,玄萍,等译.北京:机械工业出版社,2010.
[17]高童非.论自动化行政中的“算法卸责”[J].电子政务,2023(2):115-128.
[18]雷磊.ChatGPT对法律人主体性的挑战[J].法学,2023(9):3-15.
[19]赵华,陈淑伟.论政府在社会风险治理中的价值追求与角色变革[J].天津行政学院学报,2013(3):51-54.
[20]洪延青.国家安全视野中的数据分类分级保护[J].中国法律评论,2021(5):70-78.
[21]孙那,鲍一鸣.生成式人工智能的科技安全风险与防范[J].陕西师范大学学报(哲学社会科学版),2024(1):108-121.
[22]薛桂波,燕茹.科技伦理治理战略下颠覆性技术的伦理挑战及其应对[J].科技管理研究,2024(10):205-211.
[23]林爱珺, 章梦天.基于数据多粒度的隐私差序保护[J].苏州大学学报(哲学社会科学版),2024(2): 182-192.
[24]陈锐,王文玉.算法嵌入政府治理的权力异化风险及其规制方案[J].理论探索,2022(6):81-90.
[25]王文玉.算法嵌入政府治理的优势、挑战与法律规制[J].华中科技大学学报(社会科学版),2021(4):26-36.