生成式人工智能安全风险与综合治理研究
——以ChatGPT 为例
2023-06-07陈嘉鑫董紫来
陈嘉鑫,董紫来
(西南政法大学,重庆 401120)
随着第四次科技革命的蓬勃发展,以深度学习、大数据、神经网络等技术为基础的人工智能技术正日益深刻地嵌入人类社会之中,推动社会生活的发展与进步。在促进社会生活的样态不断更迭的同时,人工智能技术本身也在不断地进行升级。在二十一世纪的前二十年,决策式人工智能尚局限于自动驾驶、医疗健康、安全监控、游戏娱乐等特定领域,仅在特定事项中起辅助作用。而在2018 年6 月美国科技巨头Open AI 公布人工智能语言模型GPT(Generative Pre-Training)后,生成式人工智能便开启了快速迭代的历程:2022 年11 月30 日发布的ChatGPT 是生成式人工智能出现在公众视野的起点,但远非生成式人工智能发展的起点。
生成式人工智能凭借其训练机制与底层模型算法的创新,具备了决策式人工智能所不具备的强知识迁移能力与人格化表象,实现了人工智能技术发展史上难得一见的颠覆性创新;而技术进步带来的算法黑箱、市场垄断与技术壁垒造就的数据寡头,无不预示着多元安全风险正在酝酿。人工智能技术的迭代不可避免地伴随着风险的迭代,风险的迭代要求规制手段与治理框架的迭代。立足于决策式人工智能技术环境的规制手段与治理体系,难以应对生成式人工智能带来的独特安全风险;不断更新的规制手段与治理体系同样滞后于生成式人工智能技术与风险迭代的步伐[1]。总结生成式人工智能的主要安全风险类型,检视安全风险背后的技术与社会根源,并提出相应的综合治理路径,是生成式人工智能发展与治理的迫切需求。
一、生成式人工智能的鲜明特征
生成式人工智能具有完全不同于决策式人工智能的训练机制与底层模型算法,上述技术环境决定了前者与后者在主客体关系、多模态任务能力、研发运营成本等方面存在显著区别。把握生成式人工智能与决策式人工智能的区别,梳理生成式人工智能的鲜明特征,需要从生成式人工智能的人格化表象、数据挖掘能力、算法黑箱、数据垄断四个维度开展深入分析。随着技术环境的持续迭代,生成式人工智能的各类特征也在不断深化;生成式人工智能的鲜明特征是新风险挑战的技术与社会根源,特征的变化发展构成了生成式人工智能风险迭代的内在动力。
(一)人格化表象突出
正如理性构成了人类与生活环境的重要区分标准,智能性是人工智能区别于传统机械的数字时代“理性”:智能性成为了人工智能与传统机械的分野[2]。而以决策式人工智能为代表的人工智能技术局限于特定细分领域,在严格的设定条件下承担辅助决策等有限的职能,作为技术客体与工具的非人化特征突出:当时的研究者普遍将“情绪的感知与表达”视为区别人类与人工智能的核心。而在生成式人工智能愈发成为主流的今天,立足“情感”的人机界限在新技术特征的冲击下变得模糊。以ChatGPT生成信息的过程为例:不同于直接从信息网络中寻找答案的搜索引擎与依照预设程序输出模版的语音人工智能,ChatGPT 能够利用深度学习模型,凭借接受的预训练,理解提问的上下文场景与观点态度;可以将网络数据信息转化为文本,并依据使用者的提示以拟人化的自然语言重新组织输出的内容。此外,随着网络数据信息的不断更迭,ChatGPT 能不断开展自我学习,调整完善输出的答案;面对用户的反对质疑、赞同欣赏等不同态度,ChatGPT 能对用户情绪表现出一定程度上的关切,并有针对性地调整输出的内容与表述形式。生成式人工智能的自我学习、自我创造、自我进化让“人工智能更加像人”,但这并非其人格化表象日益凸显的唯一原因[3]。人工智能发展到生成式人工智能阶段,具备了以理解、记忆、设计等为代表的人脑机能与特征,交互的内容与形式更加拟人化,适用范围也更加广泛。生成式人工智能在诸多领域指导人的具体行为,其机敏的反馈与全面的情感关切也在不断模糊用户对人工智能的技术客体认知,影响人的主客体认知与行为习性,使得人与人工智能在一定程度上趋同。
(二)数据挖掘能力提升
大型语言模型、微调模型、深度神经网络等前沿技术是生成式人工智能的技术基础,赋予了Chat-GPT 极强的数据挖掘能力。ChatGPT 的预训练过程是大型语言模型与微调语言模型应用的巧妙结合:开发者首先运用大型语料库对ChatGPT进行无监督多任务训练,然后运用针对具体任务进行特化的小型数据集对ChatGPT 进行监督调整[4]。从GPT-1 到最新的GPT-4,开发者的技术策略并没有根本性转变;开发者主要通过提升训练数据体量与质量、引入强化学习与人工标注功能等方式,实现提升ChatGPT 任务迁移能力的目的。ChatGPT 出色的理解交互能力以及在编程等领域强大的处理能力,都来源于不断加强的数据挖掘能力。从GPT-1 语言模型的1.17 亿个训练参数,到GPT-2 的15 亿个,再到GPT-3 的1750 亿个:语言模型迭代伴随的训练数据增长分别达到了近13 倍、近117倍。GPT-4 的技术突破主要集中在多模态任务能力与长内容生成两个方面,即理解文字、图片等多种形式内容的能力和生成规模较大的内容,并不追求极大的训练参数量,但其训练参数量仍然达到了千亿规模。大型语言模型“悟道2.0”和“Switch Transformer”训练参数量则分别达到了1.75 万亿与1.6 万亿[5]。在大型语言模型的支持下,生成式人工智能具备了强大的数据挖掘与记忆能力,能够在挖掘海量数据资源的基础上,将网络空间碎片化、样态繁多的信息梳理为逻辑缜密的自然语言表述[6]。高效挖掘数字空间的信息数据是生成式人工智能数据挖掘能力强的重要体现,但并非唯一维度:ChatGPT 力图构建的与用户持续交流的使用样态,同时也是生成式人工智能大规模挖掘并记忆数据的体现[7]。ChatGPT 提供的答案往往不是一次性的,它会根据对用户需求的判断删减、修正或补充输出的内容,而在这个过程中,不论是用户为得到精准服务给予的内容提示,还是有意或无意暴露出的表述逻辑与表达方式,乃至更深层次的内心意图,都将成为生成式人工智能挖掘的对象。
(三)算法黑箱凸显
算法、算力、大数据共同组成了人工智能三大核心要素,算法则是上述三大要素之首。算法黑箱则是人工智能研发管理者与用户在算法上形成的关系不平衡、权力不对等、知识不平等、信息不对称状况[8]。生成式人工智能相较决策式人工智能算法黑箱更为明显,其原因主要有两个方面:生成式人工智能算法更庞大复杂,有效披露的难度更大;算法涉及研发管理者的核心商业秘密,披露主体往往抵制算法披露。以ChatGPT 为例,其使用了当前人工智能乃至计算机领域最顶尖的大数据技术,需要处理人工智能领域前所未有的千亿、万亿级参数规模的数据,算法的复杂程度必然远远超过决策式人工智能;此外,ChatGPT 属于通用型人工智能,适用的范围远比仅活跃于细分领域界限内的决策式人工智能广泛,巨大的适用范围进一步加大了算法解释乃至有效披露的难度。生成式人工智能算法黑箱的存在与发展不仅取决于程序语言向自然语言转化的客观难度,还取决于算法程序语言的掌控者,即生成式人工智能研发管理者的披露意愿。初代ChatGPT 依托的大型语言模型GPT-3的单次训练费用便超过460 万美元,Open AI 在ChatGPT 首发之年2022 年便在技术开发上投入了约5.44 亿美元[9],其中相当可观的部分被投入到算法开发中,算法保密也同样是保守商业秘密、保证收回成本的关键。因此研发管理者往往只倾向于披露在基础研究环节应用的基础算法,而将具体任务环节应用的算法视为商业秘密并三缄其口。算法披露的主客观两方面“梗阻”,使得生成式人工智能的算法黑箱程度空前加剧,且在多元主体间形成了阶梯式的算法黑箱状况。
(四)数据垄断深化
生成式人工智能是蓬勃发展的人工智能市场的产物,也正在深刻重塑人工智能市场的基本格局与竞争秩序。从ChatGPT 研发运营的过程来看,大型语言模型的搭建、使用大型语言模型进行训练都需要消耗极高的算力成本,而人工标注与加强学习也需要不菲的技术与人力资源投入:这些因素共同决定了生成式人工智能的研发运营是个门槛极高的过程,高昂资金技术成本的另一面往往是严密的技术壁垒和数据垄断。生成式人工智能的研发运营需要数据与算力的高度集中,搭建大型语言模型需要的数据远远超过训练决策式人工智能所需要的数据,搭建与训练所需要的算力同样远远超过决策式人工智能。同时,生成式人工智能属于通用人工智能,其研发运营需要融合多领域的技术,OpenAI 在研发ChatGPT 的过程中便以其雄厚财力并购了大量专门技术企业。换言之,在决策式人工智能时代,由于决策式人工智能倾向于专精细分领域,单个人工智能占用的数据与算力较为有限,需要的技术也往往来源于个别领域,天然地形成了一种“去中心化”或者“多中心化”的人工智能市场格局。而在生成式人工智能成为主流的当下,人工智能企业内部已经具备了数据与算力高度集中的特征,生成式人工智能的推广则将逐步奠定资源空前集中的人工智能市场格局。
二、生成式人工智能的多元安全风险透视
在通用人工智能的最广泛使用场景下,生成式人工智能的运行过程主要是从数字空间检索数据集并将之由程序语言转化为逻辑严密的自然语言的过程,输出的结果是用户提问的答案。就输出的结果而言,不论是“一本正经的胡说八道”,还是条理清晰的真实信息,都可能产生致人损害或侵犯知识产权的安全风险。而从生成式人工智能的研发运营角度来看,生成式人工智能迭代的高昂技术成本与自身极高的技术壁垒,使得人工智能诞生之初便面临的算法黑箱问题愈发难以解决;数据资源的管理与支配不断向少数主体集中,增加了威胁个人信息、网络安全等公私法益的重大风险发生的可能性。现目前,应当遵循由后端应用到前端研发运营的思路,系统梳理生成式人工智能在后端应用的一般使用场景与特殊滥用场景的相应侵权风险,以及在前端研发、运营过程中潜藏的系统性数据安全风险。
(一)内容谬误:虚假误导与无意义信息致人损害
生成式人工智能经过无监管大型语言模型与有监管微调模型的反复预训练,获得了较强的自然语言组织与人机交互能力,但这只赋予了生成式人工智能的人格化表象,并没有使其具备人脑拥有的全部机能,更不能保证输出内容的质量与真实性。以ChatGPT 为例,其输出自然语言文本的质量一方面取决于训练模型的规模与质量,其中包括大型语言模型与针对细分领域特化的微调模型的全面程度与内容质量;另一方面取决于人工标注、强化学习的质量。从大型语言模型的角度看,无论是初代GPT 模型的亿级规模数据,还是GPT-2 的十亿级数据规模,都已经远远超出了筛选和过滤能力的极限,遑论GPT-3、GPT-4、悟道2.0、Switch Transformer 等模型涉及的千亿级、万亿级数据规模。鉴于筛选和过滤大型语言模型中的不良信息在技术上几无可能,当前在设计大型语言模型时也并未过多考虑信息的筛选与过滤问题,而是将不良信息影响的排除问题与具体问题如何进行优化一并交给了有监督微调模型。从微调模型的角度看,其数据规模只是明显小于大型语言模型,就研发管理者进行筛选、过滤而言,规模仍然是较为庞大的。一方面,生成式人工智能研发管理者囿于技术与成本上的困境,难以对微调过程中的不良信息进行有效筛查与彻底排除;另一方面,研发管理者囿于自身的特殊经历、片面认知与固有偏见,难以对涉及种族歧视、色情暴力、文化传统、政治观点等领域的不良信息作出立场正确、尺度合理的判断,甚至有意纵容上述不良信息在语言模型中存在,并发挥不利影响。
生成式人工智能不仅潜藏着提供虚假误导与无意义信息的风险,其人格化表象还将助长用户陷入虚假信息陷阱而遭受损害。简而言之,用户在面对决策式人工智能时,具有清晰的主客认知,两者之间是明确的“主体——客体”二元关系;而生成式人工智能在设计上淡化技术客体与工具表征,极力表现人工智能“善解人意”“自主能动”的一面,可能模糊用户的主客认知,干扰用户对输出结果的判断。进而言之,决策式人工智能输出的结果尚需用户的分析、筛选与判断,或者说本就秉持辅助决策的目的而有意为之;生成式人工智能直接以逻辑严密的文本提供问题的答案,事实上挤压了用户分析、判断等思维活动存在的空间,自然语言的表达形式更易被理解,逻辑严密、旁征博引更显权威准确,容易唤醒用户不加独立思考径直采纳权威意见的主观倾向。鉴于ChatGPT 已然出现种族歧视、意识形态、伦理道德等方面的问题,正在面临多国执法机构的审查、限制甚至禁止,用户若盲目采信生成式人工智能提供的答案,极有可能作出错误决断、造成自身损害。
(二)运行侵权:模型训练与知识重组忽视知识产权
随着语言模型与训练机制的不断优化升级,生成式人工智能运行过程与结果的质量也随之稳步提升;然而在生成式人工智能创作物的形式与内容不断完善的同时,创作物的知识产权瑕疵尚未得到有效的解决,甚至随着语言模型数据规模的不断扩大有愈演愈烈之势。正如前文所述,生成式人工智能具有极强的数据挖掘能力,GPT-4 涉及的大型语言模型参数规模早已突破千亿级,识别与筛查其中特征明显、危害性强的不良信息尚且面临极大的困难,需要微调模型在此方面进行补充:生成式人工智能强大数据挖掘能力的背后缺乏对于数据内容合法与违法边界的探知,缺乏对语料数据知识产权边界的清晰感知也是不言自明的;碎片化语料信息涉及的知识产权关系相较有害内容更为隐蔽、更加难以被识别,而规模如此庞大的信息所涉知识产权关系即便被一一识别,建立合法的许可使用关系也将是个困难的过程。生成式人工智能的研发管理者囿于技术手段的限制与市场主体的损益比较逻辑,并不尽力也无法做到“先理顺语料信息的知识产权关系,再构建大型语言模型”。而微调模型训练阶段的人工标注与加强学习受限于同样的原因与逻辑,无法完全排除人工智能创作物侵犯他人知识产权的风险。
预训练阶段无法筛查与排除知识产权风险,生成式人工智能的运行逻辑进一步加大了知识产权风险的可能性与监管难度。有学者曾就“ChatGPT 的文本生成过程是否会侵犯他人著作权”提问ChatGPT:ChatGPT明确表示不会侵犯,其文本生成是在概率模型的基础上,依据预设的文本规则进行的知识重组[10]。ChatGPT 不会也不被允许直接抄袭涉及知识产权的文本,但这并不意味着其不会侵犯他人的知识产权;ChatGPT 坦陈未经许可利用他人文本进行知识重组可能侵犯知识产权,知识重组的运行方式也加大了知识产权风险的监管难度。尽管ChatGPT 具有很强的数据挖掘能力与知识迁移能力,但这并不意味着ChatGPT 革新了知识产生的途径,相反,其真正从事的是知识的抽象凝练、碎片化知识的梳理重组。因此,工具定位的ChatGPT 是否会侵犯知识产权并没有定论,侵权与否最后往往取决于用户取得信息后的后续用途。而随着生成式人工智能进一步向通用人工智能的定位转变,以ChatGPT为代表的生成式人工智能将被愈发广泛地用于各种场景与目的,其中既有扩大公共利益的目的,又有牟取商业利益的目的:当生成式知识重组的运行逻辑愈发深刻地嵌入商业营利的活动,极有可能诱发系统性的知识产权危机。
(三)使用失当:恶意滥用与算法黑箱削弱监管体系
以ChatGPT为代表的生成式人工智能被滥用已经成为一种现实威胁:据德新社的报道,欧洲刑警组织认为ChatGPT可能被犯罪分子用于制造虚假信息、冒充组织或个人实施欺诈、获取网络犯罪工具。ChatGPT 擅于“一本正经的胡说八道”,易被犯罪分子用于制造逼真度极高的虚假消息;而上述属性又便于犯罪分子滥用ChatGPT 仿冒特定组织或个人的语言风格,已经被犯罪分子用于实施诈骗。ChatGPT 被滥用的最大风险在于极大地降低了犯罪分子获取网络犯罪工具的门槛。在ChatGPT 出现之前,犯罪分子需要具备一定的信息技术知识与能力,才能制作恶意程序代码、搭建非法平台、获取用于隐藏IP的辅助工具:申言之,网络犯罪在本质上仍然属于网络活动,需要经历一切网络活动必经的“用户的自然语言向计算机的程序语言转化”的过程;将自然语言转化为程序语言的能力门槛,客观上限制了犯罪分子开展网络犯罪活动;犯罪分子需要掌握一定的信息技术知识与能力,才能开展网络犯罪活动,只有不断强化专业知识和技能,才能实施更为复杂的网络犯罪活动。以ChatGPT 为代表的生成式人工智能构建起了自然语言与程序语言之间的桥梁,不具备专业知识与技术的犯罪分子仍然可以在人工智能的辅助下轻松地进行编程与搭建平台,将自然语言表述的犯罪意图向程序语言反映的犯罪行为进行转化。以网络犯罪为代表的非接触式犯罪的兴起,正是由于网络突破了犯罪构成要素耦合所需要的接触条件[11],然而自然语言与程序语言之间的壁垒仍然存在;生成式人工智能对自然语言与程序语言间壁垒的突破,将导致非接触式犯罪的门槛进一步降低。
如果说人格化特征与数据挖掘能力等人工智能要素的变迁使得安全风险形态更迭超出了既有人工智能治理体系的规制能力,算法黑箱的加剧则从根本上削弱了治理体系的监管能力,加剧了生成式人工智能被滥用的风险。非接触式犯罪相较传统犯罪更难以监管,生成式人工智能被滥用将促使非接触式犯罪取代传统犯罪的主流犯罪形态地位,从外部挑战网络犯罪监管体系;而生成式人工智能本身的算法黑箱,则从内部降低了现行监管体系的效能。在算法黑箱的影响下,监管者难以将知识产权被侵犯、人工智能被滥用、数据泄露等具体风险定位于生成式人工智能运用的具体过程,也难以由虚假信息、欺诈线索追溯到具体的犯罪人。更进一步来说,算法黑箱使得监管规范制定需要依据的现实状况变得更为模糊,立法者难以针对人工智能运用中的具体问题及其根源制定相应的规范,导致监管规范失之于宽泛。
(四)运营失序:数据集中与技术垄断扩大泄露危害
生成式人工智能推广应用的核心问题之一便是数据来源问题:生成式人工智能需要训练的问题范围极为广泛,每个具体问题都需要大量样本用于学习。有学者认为,ChatGPT 在国内的广泛应用同时也是在为Open AI 扩充中文语料库服务,每个国内用户都可能被视为语言模型的采集样本。使用碎片化的数字空间语料并不构成威胁,而系统搜集互联网语料并搭建一个国家、一种语言的数字空间语料库则可能引发市场经济领域甚至国家安全领域的重大问题。从个体的角度看,使用ChatGPT的过程极有可能暴露日程安排、身份学历、社会关系等隐私与个人信息,ChatGPT 打着精准服务、持续服务的旗号采集与存储关于用户的数据信息,却并不公布对用户隐私与个人信息的安全保障措施与后续处理状况。生成式人工智能的发展暗藏着过程与结果皆不透明的个人信息采集狂潮,由此导致了个人信息在若干互联网巨头的空前集中,一旦安全保障不力,可能导致用户个人信息的大规模泄露。从国家与社会的角度看,语言、文字、图片等多模态载体承载着十亿多中国网民在数字空间活动的全部信息,如果仅仅将其用于产品的设计与推介等正常市场活动,都可能极大地影响市场的公平竞争秩序;倘若其他国家、地区或组织将上述数据用于情报搜集与意识形态竞争,将对我国的国家安全构成严重威胁[12]。
生成式人工智能作为当前最符合通用人工智能定义的人工智能样态,被要求和已经实现的任务迁移能力是相当高的;而其研发运营所需要的技术种类、涉及领域之多也刷新了人工智能发展历程的记录。以ChatGPT 为代表的生成式人工智能在研发运营中主要使用了五类核心技术与架构:思维链技术、指示微调技术、强化学习技术、Transformer模型与基于Transformer的基本架构[13],涉及了软件工程、网络工程、空间信息与数字技术、大数据、数字媒体技术等多个领域。生成式人工智能在技术与领域的高度复合性带来了监管的困难,其核心技术在一定程度上领先于信息安全、网络安全技术的发展,先进技术的集中更进一步加大了安全监管的难度,技术垄断则限制了技术监管本身的发展——为了把握市场的先机和隔绝政府的干预,互联网寡头总是倾向于保持先进技术对外界的不透明状态,监管技术也因此被挤出信息网络技术的第一梯队。而生成式人工智能涉及的领域之多也让本用于规制单一领域的规范难以适用,加之立法者因畏惧压抑科技发展而瞻前顾后:当前的监管规范实效正在不断下降。综上,数据集中在前端加剧泄露的风险与危害,而技术垄断则让数据安全、网络安全等后端监管变得格外困难,共同构成了生成式人工智能的运营失序风险。
三、生成式人工智能安全风险的综合治理路径
在技术层面,从内容模型的训练到内容的生成,生成式人工智能具有内容谬误与运行侵权两重风险;穿透技术的表象直视科技发展态势,算法黑箱带来的使用失当与数据技术垄断带来的运营失序将成为大数据智能时代的深层次隐忧。在大数据智能的时代背景下,生成式人工智能将推动人工智能技术的应用普及,人工智能逐渐从专业研究等少数领域向社会大众的日常生活延伸,在多方面引发社会的深层次变革;在技术驱动社会形态更迭的过程中,技术发展引发的安全风险与社会进步的阵痛都需要规范的制度化回应[14]:科技、社会与法律俨然成为大数据智能时代三个相互影响又紧密联系的主体,立足三者整体构建“科技—社会—法律”三元综合治理模式正是生成式人工智能安全风险综合治理的题中之义。在逐步构建“科技—社会—法律”三元综合治理模式的过程中,“科技”作为三元主体变化发展的源动力,是治理路径划分的主要依据:在宏观上,“科技”可被分为技术本身与科技发展态势两个维度;技术层面,生成式人工智能的技术基础主要包含大型语言模型、微调模型的内容模型,以及知识重组的运行逻辑;而在科技发展态势方面,算法黑箱的愈发普遍与数据技术的集中化趋势,将深刻重塑社会的形态与格局。遵循先技术后科技发展态势、先科技后社会与法律的思路,依次设计“建设内容模型训练管理体系”“厘清程序运行的知识产权边界”两举措克服技术层面的治理难题,再由“构建第三方算法披露效力评估机制”到“深化综合治理模式”,实现由技术规制向社会治理、法律制度化回应的跨越。
(一)建设内容模型训练管理体系
内容模型本身的缺陷是生成式人工智能生成虚假误导、无意义信息的根源[15],而模型训练的缺乏监督则是“催化剂”。在识别了内容谬误的风险根源后,应当从事前提高内容模型质量、优化深度学习模式,事后加强内容纠偏两个维度出发建设内容模型训练管理体系。ChatGPT 的数据来源较为庞杂,从书籍、期刊、维基百科到网络数据爬取、社交媒体网站,内容质量良莠不齐[16]。无论是处于提高内容模型质量还是加强对内容模型的管理,公安机关乃至其他监管部门都应当介入内容模型的构建:公安机关、网信部门可与类ChatGPT开发企事业单位合作,建立内容模型定期检查机制,由监管部门与研发运营者共同对大型语言模型、微调模型等一系列内容模型实施抽查,检查模型中是否存留有虚假、违法信息,同时关注构建内容模型的过程中是否使用了数据爬虫等可能涉及违法的手段。政府可协调多部门定期对内容模型的合法数据进行评估,考察其中的观点是否符合社会主义核心价值观与公序良俗,以及数据来源中发布者的性别、年龄、民族、受教育程度等特征与比例是否合理。而在优化深度学习模式方面,生成式人工智能研发运营者应当加强对于优化训练的监督,制定具体、清晰、可操作性较强的内部标注规范,并依据该规范对标注人员进行培训;监管部门与企业应当定期检查核验标注内容的正确性,在涉及国计民生的重要领域,监管部门也应当组织专业力量对上文所述的内部标注规范进行评估并备案;研发运营者也应当在实践中根据具体情况及时更新标注规则。
实现对内容模型训练的有效管理,保证生成式人工智能输出内容的真实性,既需要在生成前对技术与数据基础进行优化,同样需要健全生成后的内容纠错机制。面向公众的发布并非生成式人工智能开发的重点,研发运营者往往倾向于利用公众的反馈与语料对人工智能进行进一步的调优。当前适宜采取逐层次发布的做法,即首先向较小范围的公众发布生成式人工智能的早期版本,并加强对人工智能运行的监控,人工与算法双管齐下全方位发现生成虚假误导、无意义信息的情形;利用内容谬误的情形训练算法纠偏模型,将内容纠错的重心由人工逐步转向算法,并逐步提升算法纠错的准确性与时效性。内容纠偏除了需要及时对谬误结果进行修正,还需要总结并反馈内容谬误的原因,即分析内容模型质量、深度学习模式对内容谬误的影响,有针对性地对内容模型质量、深度学习模式进行优化。
(二)厘清程序运行的知识产权边界
人工智能生成内容的过程是否属于“创作”、“创作”作为法律概念的内涵与外延是什么,各国立法尚未有明确的规定,理论研究也缺乏统一的结论[17]。从人工智能创作物的知识产权保护与生成式人工智能运行侵犯知识产权两个角度看,生成式人工智能程序运行的知识产权边界都很不明确:在科技与社会相互影响的格局中,社会利益所受的损害更为急迫,内容界定上更为明确,因此适宜从防范生成式人工智能侵犯知识产权的角度出发,厘清人工智能程序运行的知识产权边界。防范侵权风险、厘清权利边界有两个层次:理顺内容模型中语料数据的知识产权关系与规范人工智能用途。当前急需优化人工智能企业、高等院校、研究机构间的产学研合作模式,多元主体合作开发数字空间语料数据的知识产权识别体系。通过在抓取语料数据的同时分析语料数据的来源、完整程度、转化状况、原始发布者等情况,将上述语料数据分为附带知识产权与不附带知识产权两类,在将附带知识产权的数据纳入内容模型前,先进行取得知识产权人部分或完整授权的尝试。鉴于取得所有知识产权人授权在现实中是一件不可能完成的事情,而仅仅因权利状态的瑕疵就将语料数据排除在外,将会导致内容模型的不完整与构建的极大困难:完整程度较低、经过转化的碎片化数据占数字空间语料数据的多数,即使未取得完整授权,也不应将其排除在内容模型之外。而针对他人较为完整、原始的创作物及创作物片段,纳入内容模型的权利状态标准则要适当提高。
生成式人工智能所依赖的内容模型,尤其是大型语言模型,其中部分语料数据知识产权关系的模糊状态不可避免,由此,应当在强化知识产权状态分级标注的基础上规范生成式人工智能及其创作物的用途。应当在内容模型内部对已过知识产权保护期限、取得知识产权授权的语料数据与知识产权关系不明、未取得授权的语料数据进行分类并标注。在进入任务环节后,如若使用的数据并不涉及知识产权争议,则生成内容可用于任何用途;如果知识重组依据的数据存在较为明显的知识产权争议,人工智能应当提示用户,建议用户仅在为公共利益的目的使用该生成内容,避免将其用于商业用途。生成式人工智能研发运营者应当不断完善上述标注并使人工智能具备提示用户的功能。同时,由于生成式人工智能正逐步由依赖闭源数据集进行知识重组转向在每一次任务进程中直接获取开源数据,而未经筛选的数字空间开源数据知识产权状况更为复杂,宜提示用户相关知识产权风险并建议用户审慎将人工智能创作物用于公共利益以外的用途。
(三)强化算法黑箱与恶意滥用综合治理能力
算法黑箱以及由此加剧的对人工智能工具的滥用并非与生成式人工智能相伴相生的问题,在人工智能技术发展的早期便有算法黑箱隐患以及规制尝试,后者集中体现为算法透明原则[18]。在算法治理领域,追求算法透明有时不利于维护国家安全、社会秩序以及私主体权利,即算法透明并非在所有技术环境下皆可行;而随着算法的复杂化,算法透明原则距离算法可知的预期效果越来越远,并且愈发难以起到有效规制的作用[19];而在生成式人工智能导致算法黑箱情况加剧的当下,属于单向度事前预防的算法透明原则难以应对生成式人工智能技术环境下的算法黑箱与恶意滥用:当前急需从事前预防与事后规制两个维度强化算法黑箱与恶意滥用综合治理能力。在事前预防方面,合理的治理手段要求治理成本显著低于损害成本,而算法的复杂化、披露能力的相对弱化等都提高了算法有效披露的成本。当前需要制定算法分级分类披露标准并构建算法披露效力第三方评估机制:适宜由公安部门、网信部门联合大数据企事业单位对算法进行分类,在分类的基础上为每个类型的算法制定面向不同披露对象的披露标准,例如用于国安领域的算法便不应当披露,而适宜披露的算法在向公众披露时与向公安机关披露时的标准也是不一样的;此外,针对有必要予以披露的生成式人工智能算法,需要在披露主体与披露对象之外寻找第三方,构建算法披露效力第三方评估机制,对算法披露是否符合标准进行监督与评估。在上述两类举措的作用下,横亘于披露主体与披露对象之间,尤其是大数据企业与监管部门之间的算法黑箱将得到削弱,有利于监管部门在算法相对透明的环境下发现恶意滥用行为,并且在熟知算法特征的情况下更为高效地识别恶意滥用行为。
事后规制在治理算法黑箱与恶意滥用方面不可或缺,并且由于已经知晓风险点位,治理所需的信息成本显著降低。当前,鉴于第一批滥用生成式人工智能进行网络犯罪的案件已经出现,公安机关、网信部门、检察机关、审判机关等监管主体应当优化信息交流与协作机制,联合开展针对滥用生成式人工智能违法犯罪行为的类型化梳理;理论界与实务界应当加强治理研究合作,在梳理滥用行为类型的基础上深入把握生成式人工智能对犯罪态势、行为方式、时间空间特征等情况的影响,进一步深化对算法透明层次的研究与探讨,用治理研究成果推动治理实践进步。工具无法避免被滥用,但其易于被滥用的属性则可被淡化,在规制滥用行为的过程中,也应当进一步回溯算法黑箱的风险点位,完善针对生成式人工智能算法治理的格局。
(四)深化“科技—社会—法律”三元综合治理模式
人工智能的通用性需求与发展态势,催生了以ChatGPT为代表的生成式人工智能的快速发展,也在推动人工智能市场走向数据集中与技术垄断:技术进步是社会演进的直接动力,科技发展整体态势则在更深层次重塑社会的样态,法律固然需要对ChatGPT的横空出世快速作出响应,但更需要立足科技、社会、法律间的相互关系与格局,深化针对生成式人工智能乃至通用人工智能的综合治理模式[20]。面对数据集中与技术垄断导致的市场失序与数据安全隐忧,需要由加强数据安全监管到优化开发格局逐步深化“科技—社会—法律”三元综合治理模式。当前,适宜通过立法要求生成式人工智能企业设置专门的数据安全部门,监督《网络安全法》《互联网信息服务深度合成管理规定》以及未来的《生成式人工智能服务管理办法》等法律法规在企业内部的执行,帮助企业内部风险防控标准、管理规范的制定与实施;此外,还需在进一步完善数据安全部门职责、定位的基础上构建企业内部安全监管部门与公共规制机关的联系机制。鉴于生成式人工智能的研发运营难以由个别企业独立承担,企业间已经具备了广泛而深入的合作关系,可以通过对关联企业施加人工智能安全义务,从而加强数据安全监管:关联企业都需要对潜在的数据安全问题承担责任,并且负有对本企业及合作企业的数据安全风险的报告义务。生成式人工智能正全方位融入普通公众的日常生活,监管机关可向社会开放更多的公众监督途径,鼓励公众报告存在的人工智能风险。
法律无法也不应尝试对科技与社会的所有关系作出回应,而在立法尚在探索的情况下,监管部门也不应只顾防范现实风险,而应该综合科技发展、社会形态更迭等因素探索综合治理模式。申言之,监管部门不宜将有限的监管资源分配到人工智能企业的所有事项,而应该集中有限的精力针对企业内部的安全部门开展再监督,定期对上述安全部门的风险控制行为进行评估、反馈与指导。进而言之,政府可以通过投资重要信息网络基础设施、参与构建大型语言模型等方式,降低中小企业研发生成式人工智能的数据、算力等成本,既优化了生成式人工智能的研发格局,又加强了公共规制机关对研发运营全过程的把握。在更宏观的层面,政府、企业、高等院校、科研院所等应当共同探索敏捷治理路径,建立多方实时联动的治理体系[21],帮助公共规制机关及时调整规制手段,在有效防范风险的同时促进我国生成式人工智能的发展。
余论
生成式人工智能的综合治理,既关乎国家安全、社会秩序与人民群众合法权益,又是决定我国能否把握人工智能技术革命的重要契机。生成式人工智能安全风险治理与其他安全风险治理的最大不同在于需要考量治理手段对未来科技发展、社会变革可能产生的重大影响,既不可规制过严,又不可瞻前顾后。在梳理生成式人工智能不同于决策式人工智能的鲜明特征的基础上,归纳多元安全风险,探索并深化“科技—社会—法律”三元综合治理模式,是生成式人工智能乃至通用型人工智能治理的题中应有之义。而在人工智能立法不断发展的未来,可基于立法实践开展元规制模式研究[22],探索分层治理、敏捷治理理论与方法,完善人工智能综合治理模式。