我国应用ChatGPT辅助行政决策算法危机治理的探索与思考
2023-10-24张欣高天书
张欣 高天书
[摘要]探讨ChatGPT辅助行政决策的可能性,提前预判其可能带来的危机并提出相应的治理对策。以文献分析为方法,就ChatGPT辅助行政决策进行了可能性分析,并基于其技术特性探讨ChatGPT辅助行政决策可能导致的算法危机。ChatGPT存在双面性,可能引发行政决策的安全性、科学性与公正性危机,因此要从多个层面防范其应用于行政决策当中的风险。为了规范ChatGPT在实际中的运用,要从强化ChatGPT辅助行政决策的监督机制、优化ChatGPT辅助行政决策的技术保障机制、搭建ChatGPT辅助行政决策的主体机制三个方面着手,引导ChatGPT辅助行政决策走上良性健康的发展轨道。
[关键词]ChatGPT;生成式人工智能;行政决策;数字政府;算法危机
一、 引言
十九届四中全会提出,“建立健全运用互联网、高新科技手段、生成式人工智能等技术手段进行行政管理的制度规则”1,数字政府建设的持续推进需要不断利用新的技术革命成果。2022年11月Open AI公司推出聊天机器人程序ChatGPT引起了广泛的社会关注。根据国家互联网信息办公室于2023年4月11日发布的关于《生成式人工智能服务管理办法(征求意见稿)》第二条的规定,所谓生成式人工智能,是指生成文本、图片、声音、视频等内容技术以回应提示工程的一种人工智能系统。从目前来看,学界关于生成式人工智能的探讨主要围绕两大方面:一是生成式人工智能在各行各业的应用前景,目前讨论最多的是生成式人工智为教育领域革新创造的机遇[1-3];二是生成式人工智能的应用可能引发的风险,主要有著作权风险[4]、国家安全风险[5]、法律规制风险[6-7]等等。总体来看,目前关于生成式人工智能的研究较少关注到行政治理领域,部分研究数字政府建设与ChatGPT相结合的文献虽对此有所涉及2,但是未深入至行政决策的各个子系统当中。实际上,行政决策内部程序控制严格,以信息为手段,行政决策可分为几个不同的部分,每个部分都可能涉及对信息的收集、分析与运用,而ChatGPT正是一个超强的人工智能算法系统,其所有的外部功能表现实质上都可归于其背后对数据或信息的强大分析能力。在此背景下,探讨如何利用ChatGPT辅助行政决策,为新时代国家治理现代化提供最新的技术驱动具有重要意义。
二、 ChatGPT辅助行政决策的理论逻辑
从系统论的角度看,现代行政决策系统包括四个子系统,即行政决策中枢系统、行政决策咨询系统、行政决策信息系统和行政决策审批控制系统,其最终目标旨在提升政府行政决策质效、实现社会公共利益。随着以ChatGPT为代表的生成式人工智能的迭代与完善,数字技术在辅助行政裁量、收集决策信息、配置行政资源等方面为算法行政决策的发展提供了新视野。
1. ChatGPT优化行政决策中枢系统的运行
ChatGPT的应用有助于提升行政决策中枢系统运行的科学性。行政决策中枢系统在行政决策过程中居于核心地位,主要负责识别决策内容,确定决策过程的可行性和可能性,明确决策目标,组织、协调决策过程的展开和决策方案的设计,评估、选择决策方案以及监督决策执行。行政决策中枢系统类似于人类的“大脑”,负责领导、组织、协调行政决策的全过程,而ChatGPT具有高度的拟人性,能够在配合行政决策中枢系统运行的同时提升其科学化程度。
一方面,ChatGPT能够提升行政决策程序的科学性。在传统的行政决策活动中,决策主体需要搜集大量相关信息,经过反复推理与论证才能作出决策。并且,由于决策主体认知差异、主观偏好和程序差异等因素,行政决策程序繁冗复杂,决策内容也极易带有主观色彩。ChatGPT能够利用预训练语言模型(LM)生成初始文本,再通过数据训练打分模型(RM)对其进行判别、标注,以模型回答和人类满意程度为内容对标注语料进行微调,进而使用强化学习(RL)以打分模型为借力继续优化初始语言模型,最终输出较为精准且符合人类要求的文本内容。另一方面,ChatGPT能够实现行政决策内容的科学性。ChatGPT拥有海量的预训练数据库,GPT-3 的参数量为 1750 亿个,GPT-4的参数量增加至约一万亿个[8]。相较于GPT-3,GPT-4的数据库规模更大,可参考的数据信息涵盖范围更广。并且,ChatGPT依托于大型语言模型(LLM),能够进行自主学习,依托于底层的预训练数据库对决策问题进行系统性认识,并基于已有的人类偏好数据和关联政务数据科学确认决策目标,依据打分模型进行微调,以模型对生成文本的评判能力为评估决策方案提供数据支撑。
2. ChatGPT优化行政决策咨询系统的运行
ChatGPT的应用有助于提高行政决策咨询系统运行的民主性。行政决策咨询系统可以理解为行政决策智库,系统组成人员主要是专门领域的专家学者,其以自身科学的专业知识、专业技能以及丰富的实践经验为行政决策主体提供智识支持,为制定和优化行政决策方案提供专业建议和理论参考。民主性是重大行政决策程序的价值目标之一[9],是维护行政相对人利益和社会公共利益的重要手段。
一方面,ChatGPT能够有效提升咨询系统的独立性,减少政府部门和行政机制的干預。ChatGPT具有一定的技术门槛,在GPT-3模型中包括96层Transformer解码器,以下一个词预测的方式进行无监督生成式预训练,以此获得文本自动生成能力[10]。在ChatGPT的算法设计架构中,政府部门和旧有的行政体制无法从中途对行政咨询过程进行不当干预,在一定程度上保证了咨询系统的独立性和自主性。另一方面,ChatGPT能够增强行政咨询过程的交互性,保证智库人员的民主参与。行政机关可以借助Codex模型生成代码,通过Insert&Edit模型对已生成的文本内容进行插入或修改,智库人员可以借助InstructGPT模型进行微调,生成合理性程度更高的答案。相较于现有的智能平台和智能对话方式,ChatGPT的拟人化程度更高,更能够增强行政机关和智库人员参与咨询的具身化体验。
3. ChatGPT优化行政决策信息系统的运行
ChatGPT的应用能够有效提升行政决策信息系统运行的准确性。行政决策信息系统的主要功能是为决策收集、储存、加工、传递信息,为决策方案的制定和决策结果的产生提供信息基础。首先,在信息输入阶段,ChatGPT能够打破“信息孤岛”,实现数据信息的共建共享。在政务服务过程中,各层级、各区域部门之间的信息来源互相无关联、信息平台之间保持独立的信息库,在信息处理方面联动性较差,加上有关信息的运用只能在单一的平台中应用,从而使信息不能够被互相传递,进而出现“信息孤岛”[11]。ChatGPT的介入能够有效破除旧有技术系统的掣肘,将政务数据、社会数据和网络数据纳入预训练数据库,以信息共享机制和通过一站式服务平台为行政决策提供信息数据集参考。其次,在信息处理阶段,ChatGPT能够凭借强大的算力提升信息处理速度。ChatGPT使用GPT-3.5模型训练的总算力消耗约3640 PF-days(即按每秒一千万亿次计算,运行3640天)[12],相较于旧有的信息处理系统而言,拥有更强的算力和更快的数据处理速度。在超级算力加持而产生的量变下,ChatGPT拥有更优质的信息处理能力和更强大的创造能力[13]。最后,在信息输出阶段,ChatGPT的上下文关联能力和预测能力能够提高信息输出能力和决策预测能力。GPT-3模型利用Zero-Shot、One-Shot和Few-Shot,可以理解自然语言并据此进行推理,进而诱导模型输出答案[10]。当前,基于信息处理任务类型的不同,上述模型的应用场域和输出结果也存在差异。ChatGPT基于Transformer这一生成式预训练转换器,在决策信息处理过程中,能够利用解码器(Decoder)根据已有的信息参数预测数据的变化态势和决策结果,从而提升信息输出的效率和可用性。
4. ChatGPT优化行政决策审批控制系统的运行
ChatGPT的应用有助于实现行政决策审批控制系统运行的高效性。行政决策审批控制系统是行政决策的终端子系统,其主要负责依法对行政决策的有效性进行审查批准。传统的行政决策审批活动涉及多个行政机关,且各个行政机关的决策审批程序存在差异,以及相关行政机关的审批权限受到严格限制,上述因素严重降低了行政决策审批效率和行政决策执行效率。伴随民主政治和公共治理需求的变化,我国行政决策模式逐渐由管理主义模式向参与式治理模式转变[14]。
一方面,ChatGPT能够辅助简化行政决策审批流程,缩短审批时间,提高审批效率。在传统行政活动中,信息不对称和信息沟通不畅成为影响行政治理效能的重要因素。伴随算法自动化决策的产生,上述问题得到有效缓解,政府权力运行的广度、深度和密度得到增强[15]。例如,上海市实施“一网通办”改革后,接入事项3600项,累计办件量达3.07亿,让三省一市企业群众享受到了“同城服务”1。顺应这一发展趋势,运用ChatGPT将进一步提升政府服务效率。ChatGPT能够实现信息共享,有助于行政决策审批主体与审批事项相关主体进行沟通、协调;同时,ChatGPT具备自然语言理解与生成能力、上下文学习能力,能够不受物理时间与空间的限制,输出符合人类需要的高质量结果,在一站式服务平台中加快完成行政决策审批流程。另一方面,ChatGPT能够增强行政决策审批的民主化参与,提高执行效率。InstructGPT模型相較于Transformer或GPT-3,具备更加自然、真实、中立的内容生成特性[10]。依托该模型,行政决策审批内容能够在最小程度上受到审批主体的主观偏好等因素的不当袭扰。同时,利用ChatGPT的高度拟人性和交互性,可以增强社会公众对行政决策的认知和理解,促进行政决策的贯彻执行。
三、 ChatGPT辅助行政决策的算法危机
ChatGPT等自然语言处理模型的出现,为决策者提供了强大的信息抓取和处理能力。然而这种强大的能力也引发了行政决策的算法危机。具体而言,可以分为三方面的危机:决策的安全性危机、决策的科学性危机以及决策的公正性危机。
1. ChatGPT强大的信息抓取力引发决策的安全性危机
在使用ChatGPT进行决策辅助的过程中,由于ChatGPT抓取信息的能力十分强大,可能导致信息过度收集、信息产生泄露等安全性危机,具体如下:
ChatGPT辅助行政决策时具有信息泄露的风险。ChatGPT在处理信息时,需要从各种数据源中抓取和分析大量的信息,同时这种信息抓取的过程也带来了信息泄露的风险[16]。如果未能妥善保护抓取的信息,可能会被未经授权的人员访问、使用或泄露,从而导致决策的隐私和安全受到威胁。当代的信息环境智能化与自动化高度结合,从而加大了ChatGPT在数据过程中的安全风险,包括数据来源、提取、展示等[17]。首先,关于数据来源方面,只要用户启用了ChatGPT的应用,就会产生公司敏感信息方面的痕迹也就可能面临数据泄露的风险。假如这些敏感信息源属于国家级别,泄密的可能性将会是100%。比如据《Economist》报导,三星半导体员工疑似因使用ChatGPT,导致在三起不同事件中泄露公司机密。调查原因皆因员工将公司机密资讯输入ChatGPT而导致。其次,在数据提取的阶段,ChatGPT利用大数据功能将所录入的数据信息存储至系统内再在需要使用的时候进行随时提取,这就有可能导致在录入之时已经被相关用户所获取,从而导致这种非授权共享出现数据泄露的风险。所以不要把ChatGPT当作可靠的“机器人”。例如,亚马逊公司律师曾警告员工在进行与数据有关联的工作时不使用ChatGPT,原因在于ChatGPT会将接触到的录入数据视为训练信息,进而导致数据被动泄密的可能性以及削弱公司的核心竞争力。最后,ChatGPT在辅助行政决策时会受到信息虚假的干扰。由于ChatGPT的信息抓取能力强大,它可能会从各种数据源中抓取虚假或失实的信息,并在决策过程中误导决策者。虚假信息的干扰可能导致决策的错误和不准确,进而影响决策的结果和效果[18]。ChatGPT的特性中最突出的就是与高含金量伪造技术的结合。这种高含金量伪造技术整合文本、音频、视频等格式进行联想、模仿与学习功能进而产出以假乱真的政府文书,通过网络载体进行误导,引发舆情。假如心术不正的人利用ChatGPT现有的强大数据功能将其与高含金量伪造技术整合使用,轻则影响个人的信息安全问题,重则带来政治、经济、法律、社会等多领域的危害。比如,在学术领域,抄袭率是一项非常重要的指标,假如大量的学生只是把ChatGPT当作写作论文的工具,那么学术造假现象会越来越严重,不仅影响学术论文的质量,而且带来的潜在性社会风气危害是必然的,而且将会是巨大的。
ChatGPT在辅助行政决策时会面临恶意攻击和篡改的风险。恶意攻击者可以通过篡改抓取的信息,操纵决策的过程和结果,从而达到其自身的目的。以一个普通上班族为例,ChatGPT所具备的强大编码功能可以使一名普通上班族变成熟练的程序员。这就会加大安全风险,因为几乎任何人在ChatGPT的“协助”下都能熟悉地操作数据系统达成个人目的。如果运用ChatGPT的目的是不道德的,那么将会加大泄密的机率,影响社会安全。有证据显示,一部分网络攻击者利用ChatGPT创建新的木马实现信息窃取,然而这一过程并不需要攻击者具备编程的技能。他们利用ChatGPT对数据库强制性窃取,一般方法是通过已公开的用户名和不断调试的密码组合进行撞库。除此之外,他们利用ChatGPT编写的网络钓鱼邮件进行恶意攻击。考虑到ChatGPT是智能生成式软件擅长模仿人类思维方式,通过编写网络钓鱼邮件以正常的文本格式就能避开扫毒软件的检测,经过编写的网络钓鱼邮件所隐含的欺骗性是非常大的。
2. ChatGPT弱化的信息鑒别力引发决策的科学性危机
ChatGPT辅助行政决策不仅会引起安全性危机,ChatGPT强大的能力也引发了决策的科学性危机。由于ChatGPT弱化的信息鉴别力,存在着信息准确性、可信度和科学性的问题[19]。具体如下:
首先,ChatGPT自身具有局限性。ChatGPT是基于大规模训练数据的生成式模型,其输出结果是通过学习大量文本数据得出的。然而,根据技术自身的风险属性,任何技术的使用都会导致安全和不安全这两种结果趋向。因此,这种生成式模型存在一定的局限性,包括对数据质量的依赖、对语义理解的限制以及对背景知识的不完全掌握等[20]。这些局限性可能导致ChatGPT在决策中产生错误的结论,从而引发科学性危机。因为ChatGPT的回答是基于已有的文本数据,这意味着它的回答受到数据集的限制。如果数据集中存在偏见、错误或不准确的信息,模型可能会重复这些错误或偏见,给出错误的结果[21]。这对需要准确和可靠信息的领域,例如医学、法律或金融等,可能会带来风险,并且ChatGPT没有真正的理解能力。它只是通过观察大量文本数据中的模式和概率来生成回答。因此,当遇到复杂的或需要深入理解的信息行为时,ChatGPT提供的答案准确率会降低。它只能根据已有的模式和知识进行推理和回答,而无法进行创造性思考或灵活应对。此外,ChatGPT也容易受到输入数据的影响。如果用户提供的问题或语句存在歧义或不完整,模型可能会给出模棱两可或不准确的回答。这是因为模型没有直接与现实世界进行交互,无法主动寻求澄清或进一步的信息。
其次,ChatGPT信息鉴别力存在缺失问题。由于ChatGPT的生成式特性,它在处理复杂问题时容易受到信息的误导和不准确性的影响。ChatGPT可能会无法准确理解问题的关键点,或者在生成回答时受到特定数据集的偏见影响。这种缺失的信息鉴别力可能导致决策者在面临复杂问题时无法得到准确、全面和可靠的信息支持,从而影响决策的科学性。
再次,信息的准确性存在问题。由于ChatGPT是通过大量的训练数据来生成回答的,它的回答往往是基于统计概率的推测而非准确的事实。这就带来了信息准确性的问题。在决策过程中,如果依赖ChatGPT提供的信息进行决策,可能会受到错误和不准确信息的干扰,导致决策的不准确和错误。比如输入“如何做鱼香肉丝”这个问题,搜索引擎是找到已经存在于互联网上的做法,并把结果排序,而ChatGPT给出的是看起来像“做法”的一段文字,与搜索引擎给出的做法不同,它不是从一个完整的做菜秘籍得来的,而是算法根据每个字的概率和上下文,重新排列一个字一个词而产生的。用户看到了一个完整的做法,但这个做法却从来没有存在过。这意味着ChatGPT只是创造了一段做菜的文字,并不一定具有准确性。ChatGPT模型综合使用了in-contextlearning、RLHF等模型,其中一部分模型是用类似对英语完形填空的方法来训练的。所以,ChatGPT是文字编码和概率组合的游戏,不是准确的事实信息,其准确度存在一定的可质疑性。
此外,信息的可信度存在问题。ChatGPT模型是基于大量的训练数据而生成的,它可能会从不可靠的数据源中抓取信息,并将其作为回答提供给用户。这就带来了信息可信度的问题,用户很难判断ChatGPT提供的信息是否可信。比如,人们之间进行交流的时候,不会重复问对方同一个问题。人的思想是一致的,说出来的话是一致的。ChatGPT则不同,如果问了一个问题,觉得它回答得不好,你可以重复问同样的问题,直到得到满意的答案。ChatGPT算法的随机性,让它每次给出的答案都不一样,会有完全相反的观点。这也就导致信息具有不可信的可能性。
最后,决策的科学性存在问题。ChatGPT的训练数据主要来自互联网,其中包含了大量的非科学性和误导性的信息。这就带来了科学性的问题。如果决策者依赖ChatGPT提供的信息进行决策,可能会受到非科学性信息的误导,导致决策的不科学和不合理。
3. ChatGPT强大的技术吸引力引发决策的公正性危机
ChatGPT作为一种强大的自然语言处理基础模型,在决策过程中的应用越来越丰富[22]。然而,也正是由于其技术优势,ChatGPT可能引发决策的公正性危机。
第一,信息的偏见与歧视问题。ChatGPT是基于大规模预训练的神经网络模型,具有强大的语言生成和理解能力[23]。它可以通过学习大量的文本数据,自动生成准确、流畅的回答,并提供有关问题的详细解释。这种技术优势使ChatGPT在决策过程中成为一种强大的工具,吸引了广泛的应用。但是ChatGPT的训练数据通常来自互联网,其中可能存在信息的偏见和歧视,这些偏见和歧视可能会影响ChatGPT的回答结果,导致决策结果的不公正性。
第二,特定数据集的影响。ChatGPT的回答结果可能受到特定数据集的影响,缺乏对多样性和包容性的理解。ChatGPT是通过学习大量的文本数据进行训练的,如果训练数据集缺乏多样性和包容性,模型在生成回答时可能会存在偏见,对某些群体或议题的回答结果可能不公正。首先,训练数据集中的偏见和歧视可能会被模型学习和反映出来。如果数据集中存在对特定群体的歧视性观点、刻板印象或偏见,模型可能会学习到这些信息,便可能形成数字时代的“数据歧视”[24],并在回答问题时产生不公正的结果。例如,如果训练数据中存在性别歧视的言论,模型可能会在回答与性别相关的问题时传递这种歧视。有论者提出,一旦某一算法承担了过量的个人价值和偏好,那么依托于这一算法而实现的统计分析结果就很难确保其正义性[25]。其次,模型通过观察大量文本数据中的语言模式和概率分布来生成回答。如果在训练数据中存在某些群体的不平衡表示,模型可能会在回答问题时偏向于这些群体的观点或立场。这可能导致对其他群体的歧视或偏见,从而产生不公正的回答。此外,模型也可能受到社会和文化偏见的影响。训练数据通常是从互联网上收集而来,而互联网上存在各种各样的偏见和歧视观点。模型可能会在回答问题时重复这些观点,而不考虑其是否公正或准确。
第三,隐私和安全问题。ChatGPT的模型结构和算法可能存在潜在的隐私和安全问题。如果未能妥善管理和保护用户的个人信息和敏感数据,可能会对决策的公正性产生负面影响[26]。首先,如果个人信息被不当地用于决策,可能导致对不同个体的不平等对待。例如,如果根据个人信息做出决策而忽视其他相关因素,可能导致特定群体或个人被不公正地排斥或限制他们的机会。其次,个人信息的不当使用可能会侵犯用户的隐私权。如果个人信息被滥用、泄露或未经授权地使用,用户可能会感到被侵犯,从而对决策系统失去信任。这可能会对决策的公正性产生负面影响,因为用户不再愿意提供准确和全面的信息。最后,如果决策系统只依赖于特定类型的个人信息,而忽视其他重要的数据来源,可能会导致决策偏差。个人信息的不完整或不准确可能会导致决策的不准确性和不公正性,从而对用户产生负面影响。
四、 ChatGPT辅助行政决策中算法危机的治理路径
“任何事物都有两面性”的特质在ChatGPT这一新兴人工智能技术上体现得尤为明显。虽然ChatGPT有助于协调运行行政决策的各个系统,并对其进行技术赋能,但是因为其自身的技术特性,ChatGPT在辅助行政决策过程中可能引发诸多危机。但也不能“因噎废食”,而是要针对其可能引发的危机进行有效的治理,将风险发生的可能性降至最低。
1. 强化ChatGPT辅助行政决策的监督机制
第一,应该制定和完善相关法律法规,以规制人工智能(ChatGPT)带来的包括国家数据信息和个人数据信息的安全风险。近年来,我国陆续颁布了《网络安全法》《数据安全法》《个人信息保护法》等法律规范,但关于数据权属、价值和交易规则等数据要素的基础性法律制度还有所欠缺。人工智能领域欠缺专门规范,尤其是相应的设计规范和预防规制,相关部门对人工智能的法律、法规、规章和技术标准应该进行合理规划,以避免ChatGPT带来的潜在风险。此外,相關部门也应该出台相应的文件,以弥补监管制度的空缺。比如,在辅助行政决策的过程中,根据我国《中华人民共和国个人信息保护法》第13条的规定,信息处理者方需要征得个人同意才能处理个人信息。然而,相关部门对“个人做到知情同意”的认定存在不确定性,因此,除了制定和完善相关法律法规,应加大对ChatGPT所属科技巨头的监管力度,才能更好地治理ChatGPT辅助行政的工作。
第二,如果网络公开环境中的数据存在虚假,错误和误导性的信息,会导致ChatGPT呈现不准确的内容,从而对ChatGPT辅助行政决策产生消极影响。因此,净化网络环境是确保ChatGPT呈现准确内容的重要一环。一方面,相关部门应继续加大对网络环境的监管力度,从源头上预防虚假、错误信息的流入。另一方面,中国公民的网络道德意识需要强化。除了联合政府、网络运营商以及学校等多个渠道的力量作用在让公民意识到在上网过程中要以积极的、开放的、公平公正的、客观的心态进行网络活动,有关方要借助科技、行政、法律等手段为用户提供健康的上网环境,使每位公民把道德意识放在上网活动中的首位。另外,还应加强对ChatGPT所属开发者的监督管理以及出台相关的监管制度,明确责任情形以及追责形式,强化ChatGPT的追责建构。尤其是要监管由ChatGPT产生的错误信息而造成严重后果的情况,加大对违法违规行为的惩罚力度,以起到监督和警示的作用。这一措施也可以间接鼓励和督促开发者对ChatGPT的完善,比如提高ChatGPT对网络信息和数据的鉴别和筛选能力,最大限度避免ChatGPT产生错误的信息从而误导行政决策。
第三,我国应对相关部门的运行和管理进行优化(人员规划,责任划分等),以确保行政决策结果的公正性。我国目前对人工智能的监管为多部门监管。人工智能涉及领域多,不同领域和部门在实施监管的过程会有所交集,但是,监管主体过多则会导致,各个部门只注重在与自身利益关联大的情况下参与监管以及执法工作;相对地,当面对与自身利益小的或者是复杂的情况,相关部门则出现工作懈怠或者是避而不谈的情况。如果ChatGPT出错导致决策失误,在辅助行政决策中直接取代政府人员进行判断,也会导致各部门以ChatGPT运行失误而推诿责任。因此,除了对相关监管部门进行优化,有必要建立一套监督机制对各部门进行监管,防止工作资源分配不均。此外,我国也应当加大相关政府从业人员对ChatGPT知识、技能的专业培训,防止工作人员在行政决策上过度依赖ChatGPT,以规避行政决策结果缺乏公正性等问题。
2. 优化ChatGPT辅助行政决策的技术保障机制
当前,为了对有关人工智能技术和信息数据进行完善的监管,我国根据自身的信息化成熟度建立了较为完备的法律体系,例如《新一代人工智能伦理规范》《个人信息保护法》《互联网信息服务算法推荐管理规定》等。即在当前的法律框架下,ChatGPT辅助行政决策过程中产生的技术风险能够得到有效管理。然而,法律法规的严格监管尚未被证明是最为有效的技术保障机制,仅一味地监管和惩处,也会制约ChatGPT人工智能技术的发展进步。因此,完善的ChatGPT辅助行政决策保障机制是不可或缺的,应当坚持以技术高质量发展为导向,研发出更高水平的技术保障机制,将算法保障、技术保障、嵌入保障相关的法律法规融入ChatGPT模型、算法和应用程序的各个环节,将技术风险进行前置管理。因此,ChatGPT辅助行政决策的技术保障机制应当重点关注技术源头。
ChatGPT技术企业应当发挥技术“急先锋”作用。目前来看,研发ChatGPT人工智能技术的企业多为资金和技术实力雄厚大型企业,它们拥有充足的资本积累和鲜明的技术优势,在完善ChatGPT技术保障方面反应较为及时,因此技术企业应当坚持底线意识,严格坚持有关法律法规。技术企业在对ChatGPT模型、算法、数据库进行更新时,应当加强对信息内容的筛选,必要时通过第三方介入的方式对ChatGPT技术进行实时监督。例如,在ChatGPT辅助行政决策的实践中涉及个人信息安全问题时,技术企业和相关第三方应当主动进行技术风险评估,并出具风险评估报告,践行法律法规规定的权利义务,坚守技术底线。同时,ChatGPT技术企业还应当定期开展审查工作,对ChatGPT模型、算法、数据库进行核验,以确保在技术层面上不出现违反伦理道德和算法歧视的问题。
在ChatGPT行政决策人机交互过程中,行为人应当梳理技术安全意识和个人信息保护意识,杜绝在人机交互的过程中输入敏感信息、在ChatGPT自我学习时将敏感信息和行政决策相融合,干扰ChatGPT辅助行政决策数据库的更新,进而引发技术风险。因此,ChatGPT辅助行政决策中的行为人也应当坚守底线意识,合法合规地使用ChatGPT,不得在使用过程中输入违法违规、涉密涉险的信息,也不得诱导ChatGPT生成错误的、歧视的、违法的行政决策。
3. 搭建ChatGPT辅助行政决策的主体机制
搭建ChatGPT辅助行政决策的主体机制是为了明确ChatGPT和行政主体在行政决策治理中的角色定位和功能,并确保ChatGPT的辅助性质,以保障行政机关及相关从业人员在行政决策中的主导地位。
首先,要明确ChatGPT的辅助性质。作为人工智能辅助工具,ChatGPT的目的是提供信息和分析的支持,以辅助行政决策的制定。ChatGPT并不具备决策权和决策能力,其作用是提供数据和分析结果,为决策者提供参考和建议。
其次,要保障行政机关及相关从业人员在行政决策中的主导地位。行政机关承担着行政决策的责任和权威,应保持对决策的主导权和对决策过程的控制。ChatGPT的角色是为决策者提供信息和分析,而非替代决策者的角色。在建立主体机制中,应明确ChatGPT的使用范围和限制,确保其在辅助决策过程中的合法性和合规性。同时,要建立ChatGPT使用的规范和准则,以确保其输出信息的准确性、客观性和可靠性。
再次,确保行政决策的透明和公正也是主体机制的重要方面。决策者应清楚披露ChatGPT在决策过程中的使用情况,包括输入的数据、分析的方法和结果等,以保障决策的公正性和可追溯性。同时对ChatGPT的算法原则进行披露,包括每次升级更新后说明。提升大众对ChatGPT决策过程和结果的认知。
最后,建立跨学科的专家团队,由相关领域的专家包括法学、计算机科学、经济学、心理学等,组成团队对ChatGPT进行监督和评估。这样可以确保ChatGPT在辅助行政决策中的合理应用和持续改进。同时政府在使用ChatGPT辅助决策的过程中,应持续对其决策过程和结果进行反思,社会公众也应具有反馈和建议权。通过多主体参与监管和评估,促进ChatGPT辅助行政决策能力不断提升。通过打造这样的主体机制,我们可以确保在行政决策过程中,ChatGPT的辅助作用能夠被合理运用;保障行政主体及相关从业人员的主导地位;提高行政决策的透明性和质量,为公共治理提供更好的支持。
五、 结语
尽管以ChatGPT为代表的生成式人工智能是弱人工智能时代的一次重大技术跃迁,但是,它所具有的弱人工智能本质决定了其对行政决策的影响并非颠覆性的,因而也不必夸张其应用的意义。在具体应用层面,应当结合具体情况探索其在行政决策当中的应用领域、应用目标和应用路径。要秉持务实理性的观点认识生成式人工智能参与行政决策的技术跃迁、可能危机与治理路径,加快我国自主的生成式人工智能在数字政府建设领域的应用培育。
参考文献:
[1] 高琳琦.生成式人工智能在个性化学习中的应用模式[J].天津师范大学学报(基础教育版),2023(4):36-40.
[2] 曹辉,赵梓含.ChatGPT的特质研判,教育审思与风险应对——基于“知识—主体—立场”的视角[J].现代教育管理,2023(7):75-84.
[3] 姜华,王春秀,杨暑东.生成式AI在教育领域的应用潜能,风险挑战及应对策略[J].现代教育管理,2023(7):66-74.
[4] 王迁.再论人工智能生成的内容在著作权法中的定性[J].政法论坛,2023(4):16-33.
[5] 黄日涵,姚浩龙.被重塑的世界?ChatGPT崛起下人工智能与国家安全新特征[J].国际安全研究,2023(4):82-106.
[6] 王惠敏,许峰,蔡士林.ChatGPT应用的风险迭代与法律因应研究[J/OL].电子政务,(2023-06-29).https://kns.cnki.net/kcms2/detail/11.5181.TP.20230628.1331.008.html.
[7] 王迁.再论人工智能生成的内容在著作权法中的定性[J].政法论坛,2023(4):16-33.
[8] 吴清.ChatGPT热度下滑OpenAI推安卓版“续热”[N].中国经营报,2023-07-31(C03).
[9] 江国华,梅扬.行政决策法学论纲[J].法学论坛,2018(2):58-69.
[10] 钱力,刘熠,张智雄,等.ChatGPT的技术基础分析[J].数据分析与知识发现,2023,7(3):6-15.
[11] 陈文.政务服务“信息孤岛”现象的成因与消解[J].中国行政管理,2016(7):10.
[12] 朱光辉,王喜文.ChatGPT的运行模式,关键技术及未来图景[J].新疆师范大学学报(哲学社会科学版),2023,44(4):113-122.
[13] 令小雄,王鼎民,袁健. ChatGPT爆火后关于科技伦理及学术伦理的冷思考[J].新疆师范大学学报(哲学社会科学版),2023,44(4):123-136.
[14] 王锡锌,章永乐.我国行政决策模式之转型——从管理主义模式到参与式治理模式[J].法商研究,2010(5):3-12.
[15] 张凌寒.算法自动化决策与行政正当程序制度的冲突与调和[J].东方法学,2020(6):4-17.
[16] 杜昕怡,肖泽晟.人工智能算法辅助行政决策的法治风险及其化解路径[J].学习论坛,2023(3):122-130.
[17] 周智博.ChatGPT模型引入我国数字政府建设:功能,风险及其规制[J].山东大学学报(哲学社会科学版),2023(3):144-154.
[18] 宋华琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大学学报(社会科学版),2018,21(6):82-90.
[19] 赵觉珵.ChatGPT是颠覆性突破?专家:它提供的答案在准确性等方面还有局限[EB/OL].[2023-02-10](2023-08-10).https://world.huanqiu.com/article/4BdfQl1qcAM.
[20] 黄璜.赋物以“智”,赋治以“慧”:简论ChatGPT与数字政府建设[J].学海,2023(2):35-40.
[21] 王怀勇,邓若翰.算法行政:现实挑战与法律应对[J].行政法学研究,2022(4):104-118.
[22] 於兴中,郑戈,丁晓东.生成式人工智能与法律的六大议题:以ChatGPT为例[J].中国法律评论,2023(2):1-20.
[23] 苏明,陈·巴特尔.数据驱动下的人工智能知识生产[J].中国科技论坛,2021(11):51-56.
[24] 黄雨晴.中国数字鸿沟的成因与赋权式治理[J].学习与实践,2022(9):23-33.
[25] 陈伟光,袁静.人工智能全球治理:基于主体、结构和机制的分析[J].国际观察,2018(4):23-37.
[26] 李茜.智媒时代在线政务服务的ChatGPT化研究[J].武汉工程职业技术学院学报,2023,35(2):53-57.
作者简介:张欣(1981-),男,河北公安警察职业学院副教授,研究方向为警务指挥与战术专业;高天书(1997-),男,中国政法大学“2011计划”司法文明协同创新中心博士研究生,研究方向为司法文明。
(收稿日期:2023-06-06 责任编辑:苏子宠)