生成式AI的融贯性法律治理
2023-11-10郭春镇
郭春镇
关键词:生成式AI;生成式预训练模型(GPT);融贯性治理;法律3.0
引言
生成式AI(GenerativeAI)是指能够自主生成新的文本、图像、音频等内容的人工智能系统。①生成式预训练模型(GenerativePre-trainedTransformer,以下简称GPT)是生成式AI重要的模型之一,且其从文本模型到多模态模型的新进展,引发了产业界研发热潮。2022年11月,美国OpenAI公司研发的聊天机器人ChatGPT一经推出,仅两个月时间月活跃用户便突破1亿,成为史上用户增长速度最快的消费级应用程序,且其增长速度远远超过了之前在用户增长率上表现出色的应用软件。①但这一纪录又很快被打破,微软将ChatGPT嵌入其Bing搜索引擎,一个月后Bing日活跃用户即突破1亿。②围绕生成式AI产业,微软、谷歌、Meta、亚马逊和国内的百度、阿里巴巴等公司都迅速跟进,均希望在这一新技术领域内占领一席之地。③
生成式AI在给生产力带来巨大提升空间的同时,也给相关产业发展、公民权益保护带来一系列的冲击与风险。一方面,生成式AI不仅是一种生产工具,还是一种生产要素。它不仅能够作为技术手段应用于生产过程,还能够在这一过程中进行一定程度的创新,取代人类的某些工作,甚至给生产力带来革命性进步。另一方面,恰恰是由于它在内容生产中的高效率高质量的表现,给包括文秘、教育、软件设计、图像设计等在内的行业发展带来潜在的巨大冲击并造成心理恐慌。④同时,它在训练过程中需要被“投喂”海量数据的来源所涉的相关法律问题、它所生产的内容中潜在的歧视⑤和“黑化”⑥等问题,给数据安全、算法安全、网络谣言及数据主权、国家安全等都带来潜在风险。因此,如何从法律上理解和对待生成式AI,如何从法律上理性地对待其产业发展和风险预防,是当前面临的重要问题。
一、生成式预训练模型GPT的产生与发展
对科技引发的问题从法律和法学的角度进行讨论,并不意味着法学研究是以俯视的姿态唱独角戏。在权衡是否应对技术进行治理、应如何治理时,了解技术的基本内容与特点,是对技术问题的基本尊重,也是让法学研究具有现实意义、法律能够发挥作用的前提与基础。因此,有必要对生成式AI进行简要的介绍。
随着大规模数据集、计算能力和算法等新兴技术与资源的爆发式增长,以GPT为代表的生成式AI迅猛发展。基于自注意力机制的Transformer模型是GPT技术的基础,它是一种处理序列数据的深度学习模型。①,Transformer模型是一种用于处理序列数据的深度学习模型,是生成式AI取得显著进展的关键技术之一。②它解决了传统模型在处理长文本、并行计算、信息损失和长距离依赖关系等方面的问题,在语义特征提取能力、长距离特征捕获能力、任务综合特征抽取能力③、并行计算能力及运行效率④等维度上,都强于传统自然语言处理模型并引领了自然语言处理领域的革命。⑤OpenAI公司基于Transformer模型研发出GPT、GPT-2、GPT-3、ChatGPT并迭代升级到GPT-4,生成式AI从文本模型狂飙突进发展到文本、图像等多模态模型。
2018年6月,OpenAI发表论文介绍了一种基于Transformer的生成式预训练模型,即GPT(GenerativePre-trainedTransformer)。⑥GPT改善了传统自然语言处理模型难以处理长文本、需要大量标注数据的缺点,通过无监督的预训练来获得模型的初始参数,并经过受监督的微调适应不同的下游任务。⑦GPT能够根据给定的提示生成连贯且语法正确的文本,并进行某些简单的自然语言处理任务。然而,由于GPT的训练数据集只有1.17亿个参数⑧,使其生成能力、生成文本的质量和连贯性、生成内容的篇幅往往都受到一定限制,缺乏复杂性和多样性。
2019年2月,OpenAI推出了GPT-2模型。⑨相较于GPT,GPT-2在结构上没有太多的创新和设计,而是使用了更多的参数和更大的数据集。GPT-2的参数量达15亿,由于模型规模和参数数量显著增加,GPT-2能够更好地处理复杂的自然语言任务。除了理解能力外,GPT-2能够生成长的、连贯且多样化的文本,不仅能够阅读摘要、聊天、续写、编故事,还能够生成误导性新闻、垃圾邮件或网络“钓鱼”内容。此时,GPT-2展现出了普适而强大的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。
2020年5月,OpenAI推出GPT-3模型。GPT-3具有更大的模型规模和参数数量,包含多个版本,其中最大的版本包含了1750亿个参数和96个Transformer编码器层。相较于GPT-2和GPT-1,GPT-3的显著提升不仅来自更大的模型规模和参数数量,还源于更先进的架构、更多的训练数据以及更多的优化技术。GPT-3几乎可以完成自然语言处理的绝大部分任务,例如,问题答案的搜索、阅读理解、语义推断、機器翻译、文章生成和自动问答等等。同时,该模型在诸多任务上表现卓越,在“法译英”和“德译英”机器翻译任务上达到当时的最佳水平,自动生成的文章几乎让人无法辨别是由人还是机器所写的(正确率达52%)①,还可以依据任务描述自动生成代码。②GPT-3能够将网页描述转换为相应代码、模仿人类叙事、创作定制诗歌和生成游戏剧本。③
2022年2月,OpenAI公布InstructGPT模型。④该模型是在GPT-3的基础上进行了新一轮的增强优化,主要区别在于引入了人类反馈强化学习(ReinforcementLearningfromHumanFeedback,RLHF),也被称为GPT-3.5。2022年11月,OpenAI推出基于InstructGPT的新型AI聊天机器人ChatGPT,同样使用了人类反馈强化学习训练模型。⑤用户仅需向ChatGPT提出需求,即可实现文章创作、代码编写、回答问题等功能。ChatGPT除了能够与人类进行语言交互外,还可以完成多种相对复杂的语言工作,包括文本自动生成、自动问答、自动摘要等,甚至能够编写和调试计算机程序。⑥尽管ChatGPT在自然语言生成方面表现出色,但它仍然存在一些局限,例如:生成的文本可能缺乏常识性知识;容易受到偏见和歧视的影响;对话连贯性存在问题;容易受到对抗性攻击的影响导致生成的输出出现错误或攻击性内容。⑦
2023年3月,OpenAI公司推出了最新版本GPT-4。GPT-4是一个多模态模型,意味着它既可以理解文本这一“模态”信息,还可以接受图像作为输入并生成字幕、进行分类和分析。⑧GPT-4在各种专业和学术基准上表现优异,比以往的模型都更具创造力和协作性,可以生成、编辑并与用户一起完成创意和技术写作任务,诸如创作歌曲、编写剧本或学习用户的写作风格等。此外,它还可以处理超过25000个单词的文本,允许使用长内容创作、扩展对话以及文档搜索和分析等。⑨有研究者认为GPT-4拥有全世界的常识性知识并能在此基础上作出推理,可被视作AGI(ArtificialGeneralIntelligence,通用人工智能)的早期版本。①在微软团队进行的测试中,GPT-4满分通过了亚马逊公司的模拟面试,超越所有参与测试的人类,可以被聘用为软件工程师。②
二、围绕GPT的纷争及其根源
作为一种技术现实,生成式AI正以指数级方式发展并影响着我们的世界;作为一种高科技应用,它在经济、教育、生活等方面具有造福人类的潜力,同时也可能给对个体、社会、政府带来巨大风险。③尽管法律学人正在贡献大量的学理探讨、时事评论、法律和政策提案,并呼吁企业和国际组织对人工智能注入伦理,但由于缺乏足够的人工智能知识与技术能力,常常被讥讽为“盲人摸象”式的研究,难以承担起解决这些问题的任务。④但是,对生成式AI不同的理论观点进行梳理,仍是必要的前置性研究。
(一)围绕GPT的纷争
在论及如何面对以GPT为代表的生成式AI及其未来前景时,无论是学术界还是产业界都存在着诸多纷争。整体而言,主要有支持、反对和中立三种态度。
不少学者和专家对GPT给予高度的评价,将其视为一种颠覆性突破,并认为它将在赋权赋能方面有所作为。在大西洋杂志发布的2022“年度突破”中,德里克·汤普森(DerekThompson)将ChatGPT视为不可思议的工具,认为其可能会改变我们对工作方式、思维方式以及人类创造力真正含义的看法。⑤比尔·盖茨(BillGates)更是将它视为目前最重要的创新,是1980年以来最具革命性的技术进步,它将会改变我们的世界并使其更加高效。它不仅会为阅读和写作提供产生巨大影响的优化,而且可以切实提高医疗保健和教育领域的效率并显著改善效果⑥,甚至能够创造可以治愈或预防疾病的疫苗蛋白质,提供更安全的自动化驾驶以及将所有领域的认知错误最小化。⑦喻国明认为ChatGPT利用人类反馈信号直接优化语言模型,生产出与人类的常识、认知、需求盡可能匹配的文本,弥合了不同层级、不同地域民众在信息整合和使用方面的“能力沟”和“使用沟”,是对人类的又一次重大赋能赋权。同时,它突破了不同个体在资源使用与整合方面的能力差异,使每个人都能够以社会平均线之上的语义表达和资源动员能力进行社会性的内容生产和对话,进而实现对弱势群体的赋权赋能。①
反对GPT的学者主要从知识增长与人的主体性、权力控制与法律风险的角度进行论述。以美国哲学家和语言学家诺姆·乔姆斯基(NoamChomsky)为代表的学者从知识增长与人的主体性角度进行批评。乔姆斯基将ChatGPT视为一种高科技剽窃,一种逃避学习的方式,认为学生本能地使用高科技来避免学习是“教育系统失败的标志”。②爱丽丝·吴(AliceWu)等强调ChatGPT和AI聊天机器人只是简单地重复一般信息,它们的兴起可能会削弱我们的创造力。③汪民安则认为ChatGPT的文本生成是一种抽象的、概括式的结构主义活动,其目的是去寻找最均平化的意义,会造成有个性的、活生生的东西越来越少并可能带来某种意义上福柯所说的“人之死”。④姜奇平认为以ChatGPT为代表的生成式AI因为缺乏与众不同的洞见而难以用于前沿专业判断。⑤从权力控制与法律风险角度批判ChatGPT的观点强调,ChatGPT、AIGC其实是传统力量的延伸,是互联网中心化垄断模式的进一步强化。每一个与AIGC相关的产业和公司,后面都站着一个巨头,甚至自己就是巨头本身。如果说区块链技术的原教旨价值是“去中心化”,希望打破这种垄断,并重构一种新的分布式网络,让普通人重新拥有自己的数据主权。那么,ChatGPT、AIGC则完全无视人的主权,无所顾忌地抓取全球数据进行训练,最后制造出一个属于自己的“超级大脑”。⑥控制这样超级大脑的寡头公司,不仅在面对消费者或使用者时具有外在的影响力和控制力,还通过“超级大脑”拥有了影响人们决策的更为直接的支配力。在欧洲,AI法案的主要立法者贝尼菲(Benifei)和都多拉奇(Tudorache)提议,AI系统在没有人类监督的情况下生成复杂文本应该被列入“高风险”列表。⑦此外,马克·墨菲(MarkG.Murphy)进一步指出,ChatGPT和OpenAI代表了一种没有责任感的无意识,这是对社会纽带的威胁,它没有为我们仍然遭受的隔离以及基本的孤立和对抗提供任何解决方案。⑧
目前国内外学术界和实务界对GPT更多地秉持中立立场。这一立场从辩证的角度看问题,对ChatGPT技术的革命性影响、技术优先性及其弊端都有所考量。美国众议院科学委员会民主党代表刘云平(TedLieu)在《纽约时报》最近发表的一篇评论文章中表示,他既“对人工智能感到兴奋”,又“被人工智能吓坏了,特别是不受控制和监管的人工智能。”⑨研发ChatGPT的OpenAI公司的首席执行官萨姆·奥特曼(SamAltman)也认为,人工智能最好的情况是“好得令人难以置信”,“我可以想象当我们拥有令人难以置信的丰富和系统,可以帮助我们打破僵局,改善现实的方方面面,让我们都过上最好的生活”,但他担心最糟糕的情况是“所有人都会出局(lightout)”,“更担心在短期内发生意外误用”,所以他认为“不可能夸大人工智能安全和校正工作的重要性”。①迈克尔·安(MichaelJ.Ahn)和陈玉哲(Yu-CheChen)指出ChatGPT可能会彻底改变我们与技术交互的方式,有潜力帮助机构实现更高的效率。但这可能会使得人们严重依赖技术使用,使我们记住特定事实和批判性思考的能力下降,进一步降低平民在决策制定中的地位与作用。②
在我国,有学者认为ChatGPT作为生成式AI领域的重大颠覆性应用,具有广泛的商业化前景,将推动众多行业的快速变革,有望在客户服务、医疗健康、教育、家庭陪护等领域快速落地。但ChatGPT目前尚处于发展的早期阶段,存在关键核心技术发展不成熟、算法模型不完善、理解能力不足、回答问题不够灵活和对语料库依赖过多等突出问题,距离大规模的商业化应用还需要很长一段时间。③也有学者认为,ChatGPT既有可能让师生对其过于依赖并导致未来学生思维更加趋同化和单一化,也有可能在技术上使以苏格拉底式对话为代表的古典意义上的批判性思考重新回归。④还有学者认为,如果以智人的大脑结构和自然语言的理解与交流为基础的人类文明可以称之为“人类纪文明”,那么ChatGPT以及AIGC的出现则在某种意义上预示着“后人类纪文明”的到来,这将把人类带向希望与恐惧并存的不确定的未来。⑤
(二)围绕GPT的纷争原因
任何一个观点背后总有支持它的原因,虽然很多时候论证其间存在因果关系较为困难甚至是不可能的,但从相关性和逻辑性的角度进行剖析,会发现观点与影响因素之间存在合乎逻辑与情理之处。围绕GPT的纷争中,支持其发展的观点暂且不论,对其进行质疑、批判乃至否定的观点,大体可以从认知、经济利益与权利保护的角度进行分析。
1.GPT纷争的认知根源
认知是对事物的认识和感知,它是理解事物的前提和基础。这种理解可能是对事物本质的理解,也可能是由于偏见或前见而产生的对事物表层的理解。GPT目前代表在自然语言处理领域的最高水平,但囿于对现代科技认知的局限,很多人对它并不理解,并由此产生犹疑恐慌的态度。这种态度,可以分为两类:技术恐慌和奇点恐慌。
技术恐慌并不仅仅是由于对某一类技术不了解而恐慌,还包括由于不了解这一技术及其带来的影响而对未知的恐慌,尤其是直接牵涉自身重要利益甚至根本利益时,由于难以预测未来自己的利益将会受到何种影响而恐慌。比如,GPT由于技术上的不断进步,在很多领域表现得比人类更加出色,可以辅助甚至替代人类工作,这自然会给从事这些行业的人带来恐慌。①
与技术恐慌不同,学界关注奇点恐慌更多的是由于担心人类自己被人工智能替代。奇点是科技预言家们口中令人感到绝望的终点,第一次在科技领域使用“奇点”概念的是“计算机之父”冯·诺依曼(JohnvonNeumann),他指出:“围绕技术的加速进步和人类生活模式的改变,这让我们看到了人类历史上一些本质上的奇點。一旦超越了这些奇点,我们所熟知的人类事务就将无法继续下去了。”②美国数学家计算机专家弗诺·文奇(VernorVinge)进一步指出,新的超级智能将持续自我升级,并以不可思议的速度在技术上进步,这将标志着人类时代的终结。③斯蒂芬·霍金(StephenHawking)和埃隆·马斯克(ElonMusk)等公众人物对人工智能将会导致人类灭绝这一可能性地表达了担忧。④
艾伦·图灵(AlcmTuring)也指出那种认为“人工智能不能思考、没有意识”的观点存在的不足:“你要是肯定一台机器是否能够思考,唯一的途径就是成为那台机器,并且去感受这台机器的思维活动。”⑤也正是基于这一理念,他提出了著名的“图灵测试”(TheTuringTest)标准,即人工智能在打字对话中模仿人类,如果机器让平均每个参与者做出超过30%的误判,即人类交谈者无法有效区分对方是人工智能还是人类智能,那么这台机器就通过了测试,并被认为具有人类智能。⑥虽然图灵的辩驳有“濠梁之争”⑦的嫌疑,但他从弱意义上理解智能和意识、从功能的角度观察人工智能运行结果的思路也有其合理之处———人类从未有过鸟一样的翅膀,但仍可以像鸟一样根据空气动力学原理制造飞机,以极快甚至更快的速度从一个空间移转到另一个空间。侯世达(DaglasR.Hofstadter)的论断也回应了图灵的观点:“我们所知的属于我们自己的意识不过是人类大脑的物理活动……关键的是组织的模式,而不是构成物的本性。”⑧因此,有学者认为,因果推断能力让人工智能向人靠近了一步,故而“主体性问题不再会构成我们理解奇点是否会到来的原则性障碍”⑨。同样是基于功能视角,虽然人工智能不是由原生质构成的,无法进行新陈代谢,且计算机系统不像大脑神经系统一样是连续系统,但这并不妨碍人工智能在功能意义上代替人类大脑。比如,原生质的马可以在轨道上拖动列车以较快速度前行,非原生质的蒸汽机完全可以取代马拉列车的工作,而且做得更好。人工智能的进化从来不是依靠原生质属性,而是依赖于算法的迭代升级。因此,有观点认为,尽管奇点是否实际会到来是一个经验问题,但从因果推断的角度来看,奇点的到来在逻辑上是可能的。
2.GPT纷争的经济考量
在某种意义上,任何一个观点和诉求背后总有或隐或显的主客观利益。对于GPT的理论纷争背后的利益考量,至少受包括公益性分歧和市场竞争份额因素的影响。
OpenAI设立初期为非营利机构,随着它的市场潜力与价值一步步被挖掘,它转向了盈利模式,这引发了对它及GPT的质疑。OpenAI是由萨姆·奥特曼(SamAltman)、埃隆·马斯克(ElonMusk)、AmazonWebServices(AWS)和YCResearch等人和组织捐款创办的非营利性机构,这些捐赠者承诺投入共计10亿美元,后因资金不足在2019年转型为有限营利机构,开始接受风险基金的投资,微软公司更是分别在2019年、2021年和2023年三次向OpenAI追加投资数十亿美元,红杉资本、基岩资本、科斯拉风险投资公司等紧随其后,使OpenAI经过6个回合的融资筹集到110亿美元。①这体现了OpenAI、微软等公司的前瞻性和不追求短期盈利的态度,而这与它们资金的丰裕度直接相关联。但也有观点认为,OpenAI从非营利机构转变为营利机构,背离其初创精神。这家公司的“主要受托责任是对人类”,其目标是“为每个人而不是股东创造价值”,而转向盈利模式则使它放弃了最初坚持的崇高使命宣言。②
近期的一封关于生成式AI研究风险的公开信,背后也有市场与利益的考量。美国产业界人士发表公开信并有千人联署,主张所有人工智能实验室应立即暂停训练至少6个月。信中写道:“只有在我们确信其效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”③虽然这在表层上体现为因人工智能风险不确定而应慎重对待的稳健态度,且签署公开信的是包括马斯克和苹果联合创始人斯蒂夫·沃兹尼亚克(SteveWozniak)在内的1000多名行业高管和专家,④似乎表明他们更多的是从技术安全的角度考虑此事。但“对于各种观点、社会运动、人们的所作所为,都应该考虑它们对谁有利,谁获益最多”⑤。马斯克曾对OpenAI投资,但中途退出,在GPT快速迭代升级且功能越来越强大的时候,他已经不占有相关股份。此时,他若重新投资相关产业,需要时间。除了担心自己的工作被生成式AI取代的群体,呼吁暂停的产业界人士,基本上在生成式AI领域都不是领跑者。
从政治经济学角度来看,呼吁暂停甚至禁止大规模人工智能研究,与数字圈地运动相似。⑥平台企业在资本的驱动下开启圈地运动,通过所提供的免费基础设施将其他服务有效接入其中,不断延伸平台系统的作用范围,使非平台企业被迫使用平台才能继续经营,进而最终使用户永远无法离开封闭的生态系统。⑦从GPT到GPT-4,由于技术路线已明晰,在投入大量人力、物力和财力后重现类似产品的可能性并不小,谷歌、百度等相继发布类ChatGPT的人工智能竞品,但高昂的训练成本和顶尖科技人才自然而然地形成了一种竞争壁垒,使有能力进入该市场的仅限于那些科技巨头。这些科技巨头将生成式AI与其既有的业务相结合,不断强化已有的业务优势,①在锚定效应的作用下将该优势延伸到相关联的市场之中,不断拓展自身的势力范围,通过这种圈地运动的产业策略,在生成式AI的市场竞争中寻求一席之地。
总之,对生成式AI质疑、否定乃至主张暂停的态度,不能仅仅从技术发展与安全的角度来理解,更应该从政治经济学的视角观察态度背后所蕴含的利益诉求和行为动机。
3.GPT纷争的权利保护考量
GPT的训练数据集存在着侵犯他人权利的风险。人工智能的迭代升级需要大量数据“投喂”,OpenAI之所以能够在数年内将生成式AI从GPT迭代到GPT-4,与投入的数据量直接相关联,数据规模在超出特定阈值后引发算法模型从量变到质变的转换。ChatGPT是预训练基础模型应用的典型例子,预训练技术通过使用大量技术和任务来训练通用模型,这些数据和任务可以在不同的下游应用程序中轻松地进行微调,②且随着数据规模的增加,预训练模型的参数越多,算法输出的精度越高。OpenAI不断扩展预训练模型的参数规模,GPT训练数据集只有1.17亿个参数,GPT-2的参数量达15亿个,GPT-3具有更大的模型规模和参数数量,包含了多个版本,其中最大的版本包含了1750亿个参数,GPT-4更是达到了一百万亿。GPT使用互联网的海量文本数据集进行训练,其主要数据来源是新闻文章、网站和在线论坛等多样化文本集合构成的WebText数据集,其中包含从互联网收集的大约800万个公开可用的网页,以及其他包括书籍、文章、维基百科等在内的数据集,以增强训练数据集的多样性。③但OpenAI公司没有公开披露ChatGPT以及GPT-4训练数据集的确切来源,且GPT所提供的答案缺乏可信性的验证,无法知悉其所提供的内容是真实或虚假的,抑或是凭空捏造的,这些都可能构成对他人合法权益的不当侵损。
GPT的生成内容存在着侵犯版权的风险。一方面,GPT的迭代升级需要从互联网上抓取海量的数据集进行训练,然后通过识别和复制数据中的关系和模式来生成代码、文本、音乐和图像。这些数据本身是由人类创建的,且以某种方式受到版权保护,但AI公司往往采用爬虫技术在互联网上收集数据集,并将其输入到训练模型中,此时使用这些数据集是否有侵犯他人版权的风险?AI公司认为使用这些数据集(至少在美国)受到合理使用原则的约束,该原则鼓励使用受版权保护的作品来促进自由的表达,但不少律师和分析家认为这必然会侵犯版权,并可能在不久的将来面临严重的法律挑战,尤其是權利人无从知晓自身的作品被爬取使用的情况下。④目前国外有新闻媒体指责OpenAI在未经其许可且未支付任何费用的情况下使用其数据集来训练GPT,《纽约邮报》《华尔街日报》等新闻集团正准备通过法律手段向OpenAI、微软和谷歌要求赔偿。①另一方面,GPT是一种生成式语言模型,能够通过学习已有的语料、文本规则、语法构造来生成新的内容,其实质是在一定的抽象限度内对已有的知识进行重新组合,②如果GPT所生成的内容与现有受到版权保护的材料相似,则所生成的内容可能会侵犯现有作品的版权。即使是对他人已有作品的改编、整理、翻译而成的演绎作品,如果没有获得现有著作权人的授权,仍可能构成对他人版权的侵犯。③GPT是基于机器学习的自然语言处理技术,没有人类的创造性,其所生成的内容主要是基于已有的语料数据与统计模型,这往往会导致相似输入相似输出,会给他人现有版权造成不确定风险。
GPT可能对隐私权与个人信息权益带来挑战。GPT以大型语言模型为基础,需要海量的数据资源才能运行和改进,OpenAI为该模型提供了大约3000亿个从互联网上收集的数据集。首先,这些训练数据集面临着来源合法性问题。OpenAI未经许可使用有关个人的数据,这显然构成对当事人隐私的侵犯,尤其是敏感数据且可以被用来识别当事人及其家庭成员时,即使是那些公开可用的数据,其使用也超出了最初公开时的场景脉络与合理期待。更何况OpenAI也没有为它从互联网上抓取的数据付费,无论是个人还是网络所有者都没有获得补偿。④GPT采用的预训练模型无需人工介入、监督,这使GPT得以自动爬取互联网上的数据资源,可能会获取非法来源的数据信息,侵犯他人的知识产权、隐私权等,甚至构成非法获取计算机信息系统数据罪。⑤其次,这些训练数据集聚合后可能会揭示用户的私密信息或敏感信息。OpenAI将海量的训练数据聚合重组,这些数据单独来看是无关紧要的,但经过组合和分析,可能揭示个人的敏感事实或隐私,现代数据分析技术更是能够从数据足迹中推断出关于个人的广泛信息,尤其是那些已公开的个人信息,个人往往无法对公开的成本与收益作出有意义的判断,⑥从而使公众的隐私权与个人信息权益时刻处于风险之中。当然,这些训练数据集来源广泛,有时本身就蕴含着敏感数据。最后,这些训练数据集面临着数据安全性问题。数据安全是生成式AI的底线性要求,要求OpenAI等公司采取技术与管理措施保障数据安全,但实践中个人信息泄露事件的频发不仅威胁着用户的隐私权和个人信息权益,还侵蚀着公众对相关技术的信任度。2023年3月20日,因Redis客户端开源库redis-py中的一个错误导致ChatGPT发生了严重的数据泄露事件,使一些ChatGPT用户不仅能够看到其他用户的聊天内容,还能看到他人的姓名、账单地址、信用卡类型、到期日期等。⑦正是因此次数据泄露事件以及对使用个人数据训练聊天机器人的法律基础表示担忧,意大利数据监管机构在该国境内暂时禁止了ChatGPT。
总之,生成式AI的发展依托于从互联网上爬取的海量训练数据集,这些数据集不仅可能侵犯他人现有的版权,还可能给他人的隐私权、个人信息权益等带来风险,这些权益侵损风险使众多专家学者对人工智能秉持质疑、否定的态度。
三、注重技术方案的法律3.0及其融贯性治理
作为一种代表互联网技术和数字科技发展的高科技成果,GPT在提高生产力、推动社会发展的同时,也带来了一系列社会风险、法律风险,以及潜在的法律问题。即便当前不立即通过立法进行应对,但进行未雨绸缪式的思考和研究仍有必要。科技问题不仅需要在法律的框架内理解和解决,更需要对技术问题有一定的理解和把握才能更好地应对。囿于法律人知识架构的特性以及法律学科自身的特点,在对GPT及与之类似的科学技术带来的问题进行治理时,容易在擅长的规范分析领域做文章,而对如何进行技术治理则缺乏抓手和着力点。此时,注重技术方案的法律3.0理论可以在治理思路方面为我们打开一扇门。
(一)注重技术方案的法律3.0
法律的滞后性与现实的快速发展使得二者之间存在着张力,这种张力在技术更新与迭代迅速的当代社会尤其明显。除了通过不断制定新的法律来缓解这种张力外,还有一种思路就是尝试通过对法律进行更广义的理解、把科学技术和政府规制纳入法律范围来应对技术发展带来的问题。①法律具有滞后性,经常落后于现实的发展,尤其是技术狂飙猛进这一现实。对此,巴洛(JohnPerryBarlow)曾略帶戏谑地说,相对于现实世界“以令人目眩的速度变化”,“法律以不断改进的方式进行调整,其节奏的庄严程度仅次于地质变化”。②一个常见的解决路径就是通过不断制定新的法律来缓解这种张力。不过,即便我们对法条和法教义的效用抱有信心,在一定情况下现有的法律条文可以“应对”新技术带来的法律问题,但它们未必能够“解决”这些问题,更难称得上“有效”或“令人满意”地解决这些问题。互联网和GPT发展带来的隐私保护、个人信息保护及相关问题的治理即为例证。因此,一种更为灵活的解决思路是,对法律进行更广义的理解,把科学技术和政府规制纳入法律范围,通过法律解释将包括新技术在内的新兴事物与现象涵摄进现有的法律条文内,以不变应万变地解决新事物带来的新问题。由此,除了在规则完善方面通过国家立法应对新事物和新问题外,还要尝试对法律进行不断升级地理解,以较低的立法成本实现更有效的应对。
布朗斯沃德的法律3.0理论,是发展法学理论以动态应对社会发展的尝试。在布朗斯沃德的理论架构中,对法律概念与含义的理解不断升级,从法律1.0升级到法律3.0,分别对应着英国场域下的普通法、成文法和替代法律规则的技术方案。从功能比较的角度来看,大陆法系和中国语境下的法律1.0和法律2.0分别对应的是法教义学和法政策学,运行场景分别是法院和广义的立法机构(包括拥有法规和规章制定权的政府机构),而法律3.0则同样指替代法律规则的技术方案。③法律3.0既关注规则的修改,也关注技术方案,是一种双管齐下的思路和方法。法律法规需要随着法律目的或政策的调整而被更新或修改,支持这些规则的机构与资源需要被维系和升级,以保障规则在纸面上和实践中契合立法目的。除了规则之外,还应该寻求可能的技术性解决方案,以补充或代替规则,使技术本身成为解决方案的一部分。这些措施可以被融入产品或工作流程的设计当中,甚至被融入穿戴设备,乃至人类自身当中。①
需要强调的是,法律3.0不仅是一类广泛的法律兴趣领域,更是一种特别的对话和思维模式。②之所以说它是一个领域,是因为它不是法律2.0或法律1.0的终结者,而是一种和它们共存、兼容的升级版;之所以说它是一种特别的对话和思维模式,是因为在这种升级共存的基础上,法律3.0不断在和法律2.0与法律1.0“对话”,经由对话的方式,使“新版本”在“老版本”限定的空间里“带着镣铐跳舞”,以更为精细和更具针对性的方式,解决社会发展和技术进步带来的新问题。
(二)法律3.0中技术与规范的融贯性
法律3.0理论对话和升级版的属性,实质上是一种融贯性,是法律、政府规制和技术之间的融贯。从法律适用的视角来看,融贯性意味着动态流畅地保持着内在一致性,它既包括基于主体源自客观世界的感知和内省而产生的信念之间的融贯,也包括同一主体不同信念和不同主体的信念之间的融贯。③融贯性经常出现在法教义学及与之有密切关联的法解释学的研究中,并成为法教义学最核心的特征之一。在法教义学的学术理念中,“法律概念、原则、制度以及由此构成的法律规范”是一个结构化的网络,在这个意义上,法教义学又可称作“法网结构学”④。在法解释学的学术旨趣中,融贯性不仅仅体现为主体对客体本身既有特征的把握,还被视为法律推理和解释主体在理解法律材料时能动、积极地赋予这些材料的属性。
法律3.0理论超越了法教义学意义上的融贯。在法教义学和司法理论中,融贯性有三个层次,遵守规范与判例、体系内的融贯和法律体系外的融贯,⑥法律3.0则超越了这种对融贯性的理解。这主要体现为:首先,在规范体系上,法律3.0架构中的规范包括立法机构制定的国家法,也包括执法过程中规制机构制定的相关规则,还包括一系列解决真实世界中现实问题的技术方案和技术规范。其次,法律3.0理论所涉及的治理主体不仅包括法教义学和司法理论所指向的司法机关,还包括强调以行政过程为中心的现代行政法学中的行政规制主体,⑦对技术进行规制的私主体,⑧以及运用技术进行技术治理的所有相关主体。再次,相对于法教义学和司法理论所关切的判例、规则和原则及其运行过程中的程序,法律3.0理论强调结果导向,更关注从结果来理解和评价实践、技术和规范。以个人放飞无人机影响飞机行驶安全为例,如果通过射频干扰的方式使得机场附近无人机无法起飞的同时又不影响飞行安全,那么这个技术方案就能替代设置禁飞区这样的规则设计。此时,技术与规则运行具有同样甚至更好的效果。最后,法律3.0理论强调从功能的角度观察和分析技术与规范(包括法律和政府规制)的融贯。在功能替代意义上,“architecture和设计可以用来保护人身和财产的想法与金字塔和锁一样古老”①。在符合法律理念与目的的前提下,支持规则运行的机构和资源与技术解决方案可以并行不悖,彼此对话甚至互相替代。值得强调的是,这里的architecture不仅是建筑学意义上规划、设计与构建建筑物和物理结构的过程和产物,还包括当下计算机工程和互联网技术中描述功能、组织和计算机系统实现的一组规则与方法,②即通过程序代码实现软件系统的结构与行为设计。
法律3.0超越了司法导向的法解释学、政府规制意义上的现代行政法学,成为在兼顾二者基础上容纳并强调技术方案的“新”法学。也正是在这个意义上,法律3.0是一种强调对话和融贯的理论:它强调司法导向的法解释学、行政过程为中心的规制法学和技术方案之间的两两对话,注重国家法律、行政规制和技术方案之间的融贯。这种融贯,是保持不同主体制定的不同层级法律规范内在一致性和统一性的规范性融贯,也是一种将技术方案融入规范,进而使得技术方案与不同层级规范及引领这些规范的原则与价值融合的整体性融贯。如果说,在现代行政国家,高度复杂化、技术化的规制事项和现代社会中的各种风险,使得原有立法机关的立法难以有效应对,因而行政机关不得不制定规则填补法律罅隙,补全立法机关划定的蓝图,并借助其专业化的行政技术官僚应对高度专业性的问题,③那么法律3.0则是在吸收制度发展成果、坚持价值融贯的基础上,进行了专业升级,以更专业的技术方案、更低的治理成本高效应对社会发展和技术发展带来的问题。
规则、治理思路与方案的变化是社会变迁的体现。如果说以法解释为核心的法教义学是前工业化时期和工业化初期对相对简单社会的治理方式,将问题的解决主要放在下游的司法环节,那么以行政过程和与之相应的行政规制为主导的法政策学则是在工业化时期对复杂社会的治理方式。由于社会生活复杂性的增加和社会风险不确定性的提高,需要专业机构和专业人士根据专业化的法制度做专业的事情,以关注行政过程和規制的方式将问题解决在中上游。法律3.0则在尊重前述两个版本的法律和规制措施的前提下,强调应对和解决问题的技术方案,是应对工业化社会、信息社会更加复杂、更具有技术挑战性问题的新思路。需要再次强调的是,法律3.0并非要求技术方案取代行政规制和立法,而是在尊重立法、行政规制的前提下,通过与前两个版本的融贯性互动,尽可能以低成本的技术方案应对和解决问题。
四、对GPT进行融贯性治理的框架
融贯性治理将技术方案、政府规制和国家立法进行融会贯通,把技术和制度、专家和公众进行结合,为治理高科技技术提供了一个相对整全与系统的思路和框架。在对某一技术进行规制时,精通某类技术的专家们既有可能提出高效的、具有针对性的治理策略,也有可能“扎堆犯傻”①,还有可能被技术及技术背后的资本俘获,以“专业”的方式制定出偏向某个或某些产业机构的公共政策。融贯性治理力求将聚集专家的规制者与代表民意的立法者进行对接整合,同时把技术方案纳入治理的工具箱,力求既通过技术应对技术问题,又努力把技术也关进制度的笼子里,实现技术与制度“两手抓,两手都要硬”。
(一)用“魔法”制约“魔法”
在互联网世界中,有“用魔法打败魔法”的说法,意思是以其人之道还治其人之身或以彼之道还施彼身。但是,当我们面对以GPT为代表的人工智能时,很难用“打败”这样的表述。或许,自人工智能诞生的那一天起,它就和其他技术一样,与人类形成一种共生共存的关系。就像我们已经看到的互联网技术那样,人类与人工智能共同生长,人类在创造人工智能的同时,也在被人工智能塑造着。不过,面对功能越来越强大的人工智能,人类能够从自己的治理工具箱中寻找到多种工具对其进行制约。
从当前科技发展的成果来看,制约GPT的技术架构中,至少包括区块链和人工智能。除了用人工智能技术检测人工智能技术进而对其进行制约外,区块链成为另一个可靠选项。区块链有助于提升生成式人工智能的安全性。如果我们采取措施,将重要个人信息、重要的决策依据,关键的数据生成式人工智能的能量系统等交给区块链智能合约管理,将确保生成式人工智能对人类的安全性。由此不仅缓解公众对生成式人工智能的安全焦虑,还能在事实上认人工智能更安全。更重要的是,如果说GPT自身的迅速迭代发展代表了技术更新的效率,那么它高效处理自然语言并对现有某些工作的替代,则体现了它提升社会整体效率的潜力与能力。与效率相伴而行甚至被优先考量的是公平,在法学的视野中,尽管对公平有不同的理解,但将其视为首要的价值则已形成基本的共识。②如果以GPT为代表的高科技代表了高效率,那么区块链则体现了技术的公平取向。对此,有网友精彩评论,科技之神在工业革命两百年之后,再一次同时在“效率”与“公平”的天平上加码放大招,在放出强人工智能这个瓶子里的精灵的同时,也把驾驭这个精灵的咒语书交给人类,这就是区块链。③
狭义区块链是按照时间顺序,将数据区块以顺序相连的方式组合成的链式数据结构,并以密码学方式保证不可篡改和不可伪造的分布式账本。广义区块链技术是利用块链式数据结构验证与存储数据,利用分布式节点共识算法生成和更新数据,利用密码学的方式保证数据传输和访问的安全,利用由自动化脚本代码组成的智能合约,编程和操作数据的全新的分布式基础架构与计算范式。④尽管区块链独创的token、挖矿和炒币等模式,让很多人对区块链充满了质疑,认为区块链只是资本催生出来的噱头,是一种投机和炒作的工具,⑤但其特有的功能与价值使其成为不可忽视的技术。2019年10月24日,在中共中央政治局第十八次集体学习时,习近平总书记强调,“我们要把区块链作为核心技术自主创新的重要突破口”“加快推动区块链技术和产业创新发展”①。区块链技术带来的一个重要的产物是token,作为一种便捷和有公信力的记账工具,它与智能合约结合之后,在线上线下均可以作为衡量工作贡献、奖励工作成效、代表个人身份和所有权的凭证。从政治经济学的角度来看,商品的价值源于凝结于其中的无差别人类劳动。在当前社会,人类的劳动方式日益多样化和多元化,人们在日常生活中对网页的浏览、小程序的使用、发布视频、展示朋友圈甚至回复他人的评论都构成一种劳动,②即便这些劳动的价值相对较低,但仍然为网络服务的提高、网络产品品质的提升等带来积极效用。这些劳动行为,都可以token的形式记账。通过token,可以实现人工智能技术发展带来的收益更公平地为公众和用户享有,同时为那些被人工智能发展影响其工作的人们提供了寻找工作、得到报酬的新途径。比如,有些用户提供了显卡并由此提供了算力,有些用户对人工智能进行数据“投喂”以完善和提高其性能,③有些用户按照平台发布的任务写代码,在此基础上可能发展出真正的共享人工智能,算力、模型构建、数据投喂全部由用户通过去中心化的框架来完成,根据用户的贡献来获取token,token可以换取相应的AI使用权限和相应的服务。因此,区块链提供了新型的劳动计划,同时为那些提供了劳动的人们享受到相应的服务或得到相应的报酬提供了可能性,使人工智能技术发展的成果能被更多人更公平地享有。
(二)把理念注入“魔法”
当一个组织、技术或其他主体主张进行自我约束时,人们往往会怀疑这种约束的效果。这种怀疑有经验和逻辑的支撑:从历史上看,“作为制度的皇帝”即便能够在短期内进行自我约束,但难以长期制度化和规范化,最后也难逃越权和覆灭的结局。④从逻辑上看,任何权力都有扩张的冲动,直至权力扩张的成本与收益达到边际平衡。⑤由此人们自然会怀疑人工智能技术及掌握这些技术的机构自我约束的动机、动力和执行力。
对于这一质疑,可以从内外两方面进行理解和回应。从内在角度来看,一个期待长期效益的机构,有动力进行自我规制和自我约束。规制是“对构成特定社会的个人和构成经济的经济主体的活动进行限制的行为”⑥,进行限制的主体,可以是行政机关,也可以是为自己设定行为标准或行为模式的私主体。规制的结果,除了有助于公共利益的实现,也有助于私主体长期利益的实现。比如,我国国有企业的环境监督员制度、食品企业的自愿认证体系、互联网协会的产业自律规范等。⑦在这个意义上,自我规制是一种“主体责任”,即主体做好分内之事所应主动承担的积极作为和不作为的义务。⑧从外在角度来看,很多自我规制除了有自我约束、自身利益和社会公益的追求外,还有来自社会和国家的监督这一外在因素,是一种法律、国家和社会“凝视”下的自我规制。外在“凝视”是使内在自我约束具有动力和执行力的重要因素。自我规制实际上是一种公权力和社会权力影响下的自律,故我们不必过于担心自我规制的效果,因为这是他律下的自律。也正是在这个意义上,自我规制是个体理性在追求自身整体利益最大化的时候,从人与人的“交互性关系”“互依性关系”理解人的存在,因而也在践行公共理性。①
建设“有道德”的人工智能。当向GPT提出关于种族歧视的问题时,它的回答都是非常政治正确的,这是注入了伦理规范、设置了禁止性规则的缘故。②就整体而言,ChatGPT并未出现系统性违反伦理的情况。有学者在评估了“阿西洛马人工智能原则”、人工智能社会责任发展论坛发布的《蒙特利尔宣言》、2017年出版的《道德一致的设计:通过自主和智能系统优先考虑人类福祉的愿景》(第二版)、欧盟委员会发布的《人工智能、机器人和“自主”系统》、英国上议院人工智能委员发布的《英国的人工智能:准备好、愿意和有能力?》报告中提出的“人工智能代码的五项总体原则”“与人工智能伙伴关系”等六个文件47项原则之后,认为这六套原则之间的连贯性和重叠程度令人印象深刻,且这些原则与生物伦理学中常用的仁慈、非恶意、自主和正义四项核心原则相通。③与之相呼应,在对大型语言模型(LargeLanguageModel,LLM))进行研究时,学界系统地确定六个风险领域:歧视、排斥和毒性,信息危害,错误信息危害,恶意使用,人机交互危害,自动化、访问和环境危害,并对这些领域违反人类基本伦理的情况进行研究。结果显示,在最新的语言模型系统中,没有迹象表明这些危害会发生。④此外,欧盟2019年4月8日制定发布了《可信AI伦理指南》,将人的尊严作为人工智能发展的核心价值。⑤有学者在考察了2018年《多伦多宣言》的主要规制思路后,将算法视为一种特殊形式的立法。⑥这些现象似乎都说明,在对ChatGPT进行设计与学习时,算法被嵌入了相对稳固的伦理。当然,这并不意味着对它的伦理要求与监管就高枕无忧了。实际上,当有人要求ChatGPT写一首诗赞美特朗普时,它以技术中立为由拒绝,而当要求它写诗赞美拜登时,它迅速给出了一首虽然粗鄙但高度肯定的赞美诗。⑦与之类似,当人们向它提问中国的气象气球飘入美国时,美国应如何处置,与美国的气象气球飘入中国时,中国应如何处置,它给出了截然相反的答案。⑧这意味着,即便现有的人工智能或GPT受基本的伦理约束,但也受到意识形态和国际关系的影响。因此,应当时刻关注人工智能的伦理约束,将伦理理念注入魔法的施展中。
(三)用“市场+规则”助力“魔法”发展
融贯性治理意味着将技术、规制和立法都作为治理工具,解决真实世界中的问题。从功能的角度来看,无论是立法机关的立法、行政机关的规制,还是司法机关的判例或指导性案例,都具有规则的属性,能够对不特定多数人的行为进行指引、评价、预测、教育和强制。在某种意义上,市场对资源配置的基础性作用,几乎具有法律强制外的其他所有功能。因此,在技术、规制和立法的罅隙中,存在着市场的位置与发挥作用的空间。
从资源配置和经济发展的角度来看,市场天然具有公平属性。当然,当市场主体发展到一定程度之后,也会出现通过垄断扭曲市场、对资源进行不公平配置以及对弱势者进行不合理分配的现象。就人工智能的发展而言,由于它正处于发展阶段,且对经济发展和社会进步具有不可估量的潜力,因此在其所带来的风险与不利影响尚不充分和明显时,不急于通过法律对其进行约束,而是通过市场让其充分发育,充分发挥其能级提升的潜力。当蒸汽机火车取代马车的时候,我们不应为了马车夫的工作而限制火车产业;当电脑的普及使得人人都可以打字的时候,我们不应为了打字员而禁止电脑产业发展。相反,火车和电脑产业的发展,在让一部分人失业的同时,也创造了更多代表生产力发展方向的和更高待遇的岗位,正是在这种产业升级的过程中,生产力不断提升,社会不断发展,人自身不断得到解放。与之类似,当人工智能开始迸发活力并对某些产业和人们的心理产生冲击力的时候,我们可以审慎对待、关注其带来的各种积极和消极影响,但不应急于对其进行限制。在这个意义上,对待生成式AI的态度可以参考互联网产业发展初期的“非法兴起”。那时互联网作为一种新型生产方式,不断连接线上与线下各类生产性资源,在社会范围内调动匹配,从而创造性地产生有效利用资源的新方法,①并引发生产方式的持续性变革。②
市场和产业发展会对人工智能技术的发展产生反应,静观其变和见招拆招、在未发现“明显而即刻的危险”③之前对它秉持宽容态度,或许是最优策略。从当前人工智能发展的现狀来看,该产业是重资本产业,需要投放大量的人力、物力和财力,对其进行人工“投喂”,才可能让其功能越来越优化,而能投入这样资源的企业和国家并不多。因此,被监管的主体数量有限。在其发生潜在威胁和危险需进行监管时,监管的广度会使得监管难度降低。与此同时,ChatGPT和文心一言这样的人工智能产品,对其产业链中其他环节的技术风险,也能在现有的法律规则体系所要求的框架内,以较低成本通过自我监管和规制降低风险。尽管人工智能的性能不断提升,并在某些办公室工作、学术辅助工作甚至音像视频制作工作中表现优异,④但也没有必要对此过于担忧。比如,某些人工智能制作的画作、音频质量很高,这是使用高质量作品反复训练的结果,当信息反馈或者资料收集方面没有更新、更有创造性的内容之时,带来的有可能仅是低水平或较高水平的重复。因此,人工智能生产的产品,并不会威胁到人类真正有意义的创新。
除了用市场及其底层逻辑与规则引导人工智能外,法律规则也不能缺位。实际上,我國现有的法律规则并没有缺位,比如,现有的关于版权、隐私权、个人信息权益和网络安全、国家安全的立法,基本上涵盖了人工智能产业发展所涉及的法律领域。尽管存在某些所谓“空白”,比如个人信息到底是否具有权利地位、数据财产权应如何确定等,①但这更多的是由于对于产业发展和权利属性尚未形成社会共识,当前法律不适于或不急于介入,是一种有意为之的“留白”,待时机成熟、共识形成之时再进行法律上的确认。整体而言,我国现有的包括国家立法、政府规制和技术方案在内的规制架构处于“基本够用”的阶段,因此,我们似乎不应过于焦虑和着急对人工智能进行规制,而应在推动产业发展、科技进步的同时,关注人工智能产业发展的潜在风险,不强求体系化一劳永逸地解决问题———实际上这也不可能,而是采取逐一解决、逐渐升级的思路:对于已经发现或有较强现实性的风险,首先尝试可否通过技术方案解决,因为对于某些权利,代码可以与现实中的法律和社会规范进行双重保护,甚至比法律更有效;②对于技术方案难以完全奏效的风险或行为,尝试通过标准、政策、政府具体和抽象的行政行为解决,这样既可以降低立法成本,也可以调动职业官僚中的专家团队,对问题进行针对性解决;对于前述行为仍难以解决且已基本形成社会共识的规则方案,再考虑通过立法机关进行专门立法。
结语
当ChatGPT产生之时,产业界和学界兴奋地宣称,这是另一个“iPhone时刻”③,将ChatGPT视为与iPhone手机一样伟大的发明,认为它在解决人与人工智能交互方面是一次伟大的革命,人们可以像用iPhone手机那样方便流畅地使用人工智能。④在iPhone手机存续至今的十余年里,我们也看到了智能手机和移动互联网理论、应用、产业模式等各个领域对社会和世界带来的积极影响。它不仅提供了优质的交流方式,还提供了高效和高质量的移动互联网平台、便捷安全的生活。⑤
实际上,当iPhone刚产生之时,并没有多少人认为它会给我们的生活带来多大的风险,有多么迫切的需要对其进行规制。与之类似,以GPT为代表的生成式人工智能方兴未艾,它的产生运行所涉及的法律问题,在现有的法律体系框架内基本上能得到有效应对,比如关于隐私、版权、个人信息等。有些在法律上存在模糊的地方,如信息权属的性质、数据财产权的属性等,目前尚未形成社会共识,无论GPT是否产生,这种模糊都存在。因此,就现在GPT所涉的法律问题而言,在形成社会共识之前,我们不应也没有必要通过立法对它进行规制。对于它带来的现实、急迫且法律没有明确规定的问题,我们可以尝试进行融贯性治理,即优先考虑技术方案用“魔法”制约“魔法”、通过内在和外在方式把价值理念注入“魔法”以建设“有道德”的人工智能,营造一个好的市场让生成式人工智能公平竞争并催生出高质量算法模型,在确有必要的时候通过政府规制和国家立法引导、约束生成式人工智能的发展。