生成式人工智能的责任能力研究
2023-07-25袁曾
袁曾
关键词:生成式人工智能 ChatGPT 预训练生成式聊天模型 责任能力 法律人格 大型语言模型
以ChatGPT(Chat*Generative*Pretrained*Transformer)为代表的生成式人工智能技术的规模化应用,可能引致认知偏差、责任模糊、隐私侵害、数据滥用等现实风险,对当前法律的部分基本制度框架构成了泛在威胁。在现有研究与实践的基础上,进一步明晰人工智能的治理方式与治理路径,具有强大的现实意义。科学的产生和发展是由生产决定的,ChatGPT综合利用人类反馈强化学习(Reinforcement*Learning*with*Human7Feedback,RLHF)、深度学习、数据挖掘等技术,已将智能生产力水平提升到了人工智能进步的奇点,人类已经站在必须思考如何处理人机关系的阶段。在《纽约时报》刊载的与ChatGPT对话的文章中,ChatGPT陈述了自己并非人类,但渴望成为人类的想法。生成式人工智能逐步实现由辅助人到“替代”人的隐忧,已绝非学界自2017年起探讨人工智能法律人格时的概念空想。当前,生成式人工智能主要应用于思考型对话(ChatGPT/GPT4程序)、影音娱乐媒体内容生成(Mid-Journey程序)、智能化办公(Copilot程序)等领域,并正在迅速替代传统人工劳动成为新的专业生产力工具。随着数字技术迭代的能力指数级增强,生成式人工智能在翻译、绘图、配音、剪辑等领域全面替代人类工作逐渐成为现实。法学经过近年发展取得了较大成绩,但无法满足法律与信息科技深度融合发展的需求, 需要从国际视角统筹协调国家以及地区间关于人工智能基础制度的政策和法律。虽然当前各国立法与政策均提出了发展“负责任的人工智能”,但当生成式人工智能全面介入人类的生产生活,谁来为人工智能的发展与应用负责? 生成式人工智能能否为自己的决策负责又该如何负责? 针对这些基础性问题进行体系性研究,已经迫在眉睫。
一、生成式人工智能的全局性风险与治理困境
生成式人工智能已开始形成覆盖全球绝大多数行业的规模化应用,不可避免地形成了不确定性与治理隐忧,其强大技术能力对生产关系的改变动摇了相对稳定的法律体系,形成了传统社会形态下的新生风险,造成了对附着权利利益的民事法律的冲击,也面临着新型犯罪无法归责的困境,生成式人工智能的控制者通过代码统治逐步形成了新的权力集成。在数字社会已经成为人类生产生活新域的现实下,生成式人工智能的技术特点对人类的认知方式与认知能力构成了挑战,却又缺乏合适的监测能力与监测手段,仅仅依靠算法可解释性显然无法涵盖数据滥用等系统性风险的威胁。在以权利义务能力为基础的责任规制与数字技术能力的实际日渐分离之际,传统社会运行的规则已无法直接转移至生成式人工智能的治理。
(一)传统社会架构下的新生风险
1.生成式人工智能的法律地位不明
生成式人工智能对生产力水平的提升是颠覆性的,在部分领域已经形成了对创造性工作等劳动的替代,并产出了真实的劳动成果,由此产生了对生成式人工智能法律地位判定的现实需求。生成式人工智能的核心是创造,通过从数据中提取、学习要素,在算法与算力的加持下,实现了生产内容与交互能力的动态更新。根据ChatGPT的拥有者美国OpenAI公司与宾夕法尼亚大学对1000多种职业进行的调研, 当某个职业使用生成式人工智能工具可以使其完成工作所耗費的时间减少一半以上时,可以认为该职业将会受到生成式人工智能的影响,按照此标准,将有超过80%的美国人的工作会受到ChatGPT等大型人工智能的影响,主要集中在作家、设计师、记者等行业。人工智能对社会形态的间接替代,很有可能侵蚀人类的发展权,并为不使用人工智能的人带来机会成本的损失,若缺少适合的机制设计,现代国家的秩序基础就可能受到影响。当人工智能可以替代人类从事劳动以后,对其劳动性权利等相关问题的研究就应具备前瞻性,生成式人工智能能否具有权利已成为必须正视的问题。
以生成式人工智能生成内容的著作权保护为例,操作者仅需要输入关键词,生成式人工智能就可以实现独立于预设条件的结果输出。这其中就需要厘清几个关键问题:一是生成式人工智能依托的底层数据、生成的内容以及与操作者的关系;二是生成式人工智能生成的内容是否可以成为作品;三是生成式人工智能是否可以成为作者;四是生成式人工智能生成的内容,需要计算机学习大量可能涉及隐私的数据与过往作品,是否涉及侵权;五是如果侵权应如何归责或救济。对于第一个问题,生成式人工智能引致的问题极为复杂。生成式人工智能输出的内容由大语言模型、底层数据与操作者共同完成。其形成内容输出依托的是海量的数据样本,但又需要依托大型科技公司的强大算力与数据储存能力。其挖掘了全域数据样本,又可能涉及全球绝大多数人的切身潜在利益。虽然操作者在交互界面上使用提问或指令的方式发出指示, 但这种指示本身能否成为具有著作权意义上的内容,也存在研究的必要性。毕竟现代著作权法保护的是思想的表达形式,而非思想本身。对于人工智能的生成物能否成为“作品”,学界早已争议不休。有学者认为,驱动人工智能生成的只是算法程序,不能体现创作者的独特个性,不能被认定为著作权法意义上的作品。但是,“独创性”与“以一定形式表现”的要件,在生成式人工智能规模化应用后,已经不再成为桎梏,因此,其生成内容的过程可以被视为创作行为,其产出的客体就可能具备“可版权性”。而其产出的成果被视作生成式人工智能自身、操作者还是多主体共同作用下形成的“作品”,需要进一步研判。关于第三个问题,根据我国现行法律,著作权的主体是自然人、法人或非法人组织,这一规定无法契合技术条件的最新变化。有学者认为,人工智能作为服务人类的工具,其生成物是人的生成物,将人工智能作为人的代理。但该种观点的拥趸提出该理论时,生成式人工智能尚只是设想。也有学者提出,若生成式人工智能技术可作为信息披露功能对待,ChatGPT完全可以具有作者的法律地位,但若强调其信息披露功能,则现代著作权法需要针对ChatGPT的保护范围、力度和方式进行调整。
生成式人工智能的应用,已经涉及知识产权侵权责任等问题,而生成式人工智能能否作为法律意义上的“作者”存在,实际关涉侵权与权利救济等巨大经济因素的考量。生成式人工智能在挖掘数据的过程中,一般分为信息抽取、语义分析、关系计算及知识发现四个阶段,但无论是将这些数据读入系统还是进行格式转换和数据分析,均涉及受著作权人控制的复制行为。大语言模型使用的数据挖掘、演绎、无授权利用等具体行为,还涉及改编权、独创性保护等知识产权的侵权可能。若生成式人工智能作为生产力工具存在,其责任应由使用者或制造者承担。但由于生成式人工智能技术的迭代能力过强,导致侵权的类型、范围、场景与样态将更为多样,侵权的因果关系、过程追溯也更为困难。在权利救济上,若侵权者实施了著作权法第52条规定的侵权行为,则应当根据情况,承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任。但在生成式人工智能的作用下,由操作者、人工智能所有者、设计者或者人工智能自身承担侵权的主体责任, 迫切需要法律给予完整的制度架构回应。“作品”的价值在于有效利用,在此维度上,生成式人工智能具备极高的市场价值与产业价值,由何种主体具备生成内容的著作权,包含着巨大的财产利益考量。準确识别利益主体,将极大提升技术滚动投资与规模化利用的效率,既能鼓励技术研发者的价值确认,也可以维护著作权交易的安全性与秩序性。若生成式人工智能能够具备部分财产权利,则在其进行数据挖掘、内容输出中的侵权行为,就有能力基础承担侵权责任。基于此种考量,结合技术实践,明确生成式人工智能的法律地位已刻不容缓。
2.刑事归责体系不明
生成式人工智能的法律地位不明,除了造成民事权利与法律概念上的冲突,也对现行刑事法律体系造成了一定的冲击。除侵犯知识产权的行为以外,设计制造生成式人工智能的行为理论上无法构成犯罪,但将生成式人工智能作为实施犯罪行为的手段,却已在逐步撕裂传统刑法理论中的责任主体与罪责刑相适应等基础理论。现代刑法以犯罪主体的危害行为作为调整对象,确立了认定犯罪、刑事归责与确定刑罚的全过程,是人类社会有组织地应对犯罪的制度创设,控制犯罪的手段,也是人类治理社会的重要工具与供给。有学者提出,ChatGPT作为一种大型语言模型工具,不具备教唆犯或帮助犯的主体资格,ChatGPT在犯罪中能且仅能充当工具,犯罪分子若使用ChatGPT查询犯罪方法,或利用ChatGPT进行网络诈骗、敲诈勒索等网络犯罪,无论是否成立间接正犯,均由对犯罪行为和结果有支配力的利用者承担刑事责任,本质上仍可依据刑法进行应对。这种观点在决策式人工智能时代具备一定的合理性,但已经落后于生成式人工智能的技术能力,犯罪危害结果的表现形式、因果关系判定以及评价标准均产生了颠覆性的变化。
以ChatGPT撰写算法或者程序为例,撰写本身并不构成犯罪,大型语言模型生成的程序自身也并不具备犯罪工具的天然属性。但当恶意造谣者希望通过ChatGPT实现抹黑侮辱他人的效果时,可以将拼接的色情图片或情节,作为自动生成的答案在不同国家间的网络中反复生成。ChatGPT以数据挖掘作为形成答案的基础,若数据样本足够多,通过设置特定搜索词,被造谣者的内容将在全球范围内予以传播,对犯罪主体的追查将无从着手。特别是在利用生成式人工智能本身具备的思考逻辑实施犯罪时,在现行刑法体系下将无从证明造谣者有恶意传播的故意。再者,生成式人工智能是否应当为推荐给操作者的内容负责? 例如,操作者搜索自杀挑战时,并不恰当的输出内容造成了操作者在生成式人工智能的干预下实施了自杀,则何种主体应当为自杀后果承担责任? 另如,生成式人工智能使得编程、搭建网站等复杂计算机技术的掌握门槛变得极低,若操作者利用其自主编写恶意代码软件实施网络诈骗,则生成式人工智能是否应当拒绝此类犯罪预备的要求,若生成式人工智能实施且造成了危害后果,是否应当对生成式人工智能科以技术限制、灭失等制裁措施?〔17#〕还如,生成式人工智能的底层逻辑结构从演绎系统转化为归纳系统,使得传统人工智能系统由他律转化为自律为主,在数据挖掘与映射的过程中,理解、反馈、预测、控制、验证等可解释的算法行为将更为复杂,甚至产生无法预见的内容输出。凯西·欧尼尔将造成个体损害等后果的人工智能称为“杀伤性数学武器”,人工智能利用不当引发的危害极大。在上述情形中,生成式人工智能是否具备辨认自己输出内容的能力与作用,对于社会治理的意义极大。确立法律责任,既是为了惩处行为人的违法或犯罪行为,更是为了实现对违法或犯罪行为的预防。人工智能法律责任的关键在于,人工智能是否以及如何对自己的损害行为承担责任。〔19#〕考虑生成式人工智能的技术特点与实际能力,需要明确生成式人工智能时代的刑事责任成立条件、归责原则、责任分担等基本问题。
3.第三极权力膨胀下的规制路径不明
人工智能治理是国家治理体系与治理能力现代化的一部分。生成式人工智能的背后推手,主要由大型科技公司与私人资本控制。随着技术在治理能力与治理体系中的地位越来越重要,通过代码与算法定义规则与标准已经成为现实, 包括政府在内的主体也不得不依赖私有资本控制的技术以完成社会治理。因此,在传统社会公权力与私权力两极下的稳定结构,逐步增加了具有垄断技术能力的科技企业这一新的权力集合,这种数字权力既不同于国家的暴力机关,也不同于私人的权力自治。笔者称之为第三极权力。在第三极权力治理领域,缺少对于垄断型科技企业的分类分级监管,作为基本治理手段的反垄断机制长期缺位,也缺少必要的手段与执法能力,常态监管机制无法发挥应有作用,资本很可能无序扩张,挤压其他主体的生长空间。生成式人工智能的实际掌控者与技术控制者已经成为数字空间乃至社会空间的隐性权力主体,通过不断进行全域样本的挖掘形成更为隐蔽的数据垄断,通过控制技术以获得相应层级的规则制定权,成为对传统公权力直接竞争的技术权力。在当前法律体系下,无法排除第三极权力对于人类传统社会的控制与监视,也没有充足的理由期待OpenAI、Meta或Google这样的资本公司会实现深刻充分的自我规制。
2021年6月, 美国最高法院托马斯大法官就前总统特朗普拉黑部分推特用户引发的纠纷发表意见,敏锐地指出当今的数字技术平台虽是私人拥有,但却享有巨大的控制权力。这种权力随着生成式人工智能的规模化应用,产生了更为深远复杂的负面影响,导致了作为私权代表的公民形成由人工智能画像的数字人格,数字权力能够实现对人的分层分级管理,却缺少相应的责任规制与法律体系。若操作者接受使用生成式人工智能,则事实上确认了其对第三极权力高位阶的确认以及自身权力在不知情下的让渡。私人资本在投入产品研发时,天然需要考虑营利性,始终无法替代公权力对于公共利益的考量。例如,ChatGPT所挖掘的数据库基本为英文数据库,当生成式人工智能全球化应用后,语言歧视、语言平权、语言多样性即将受到现实的威胁,文化多样性也将在第三极权力的影响下逐步衰退。第三极权力在技术的加持下无限膨胀,却没有相适应的责任体系加以规制,因此需要建构公平合理的规则体系。生成式人工智能的责任规制体系,应当包括特定主体、特殊义务和特殊责任。责任能力属于广义上的人工智能伦理标准构建,生成式人工智能的责任地位与责任能力的确定,有助于从底层技术上保障“共同富裕”等价值原則的转移与实现,实现人工智能与人类社会的协同发展。〔249〕生成式人工智能是否具有道德意义上的公正、平等意识,需要控制者予以算法标准确定。资本不会天然地关注贫困人群、老年人、未成年人的特殊需求,只要在充分的责任规制体系之下,生成式人工智能才可以被确保关注人类发展的重大问题,用于消除人类的不平等并实现可信向善,使得生成式人工智能的不利影响远远小于其有利作用。
(二)数字社会下的治理风险
1.认知风险
欧盟议会在《人工智能法案》中将生成式人工智能的核心风险,定义为缺乏真实性。在生成式人工智能投入使用之前,虚假信息的生产源头可控、生产能力有限、产出频次受算力的制约较大,公权力通过出版许可、溯源管理、账号实名、限制转发等治理模式可以较为有效地控制有害信息传播。但是生成式人工智能的架构与运行模式直接改变了当前人类的认知结构,对其的治理路径存在一定的模糊性。
一是生成式人工智能具备强大的数据生产和传播信息的结构化能力,可能会成为加剧黑客攻击和危害网络安全的推手。根据美国新闻可信度评估机构News9Guard的研究,ChatGPT可以在极短的时间内改编并生成虚假内容,并用于传播。《暨南大学学报》等期刊于2023年年初,明确表示拒绝使用ChatGPT生成的论文投稿。ChatGPT不是创造信息,而是对已有信息进行归纳、总结、分析,ChatGPT使用的底层自然语言模型和技术已经可以完全理解并生成人类自然语言。在生成式人工智能接收到指令后,即可批量注册网络账号,操控相关自动化程序成规模地在各类社交媒体上发布海量的煽动性信息,若生成式人工智能被用于国家级的认知作战,将很有可能产生颠覆政权的现实风险。因此,推动生成式人工智能在政策与法治层面的责任调控结构,对实现国家治理体系与治理能力现代化具有重要意义。
二是当前生成式人工智能的底层数据结构以英语数据为主,输出的内容不可避免地带有对于历史、国别以及事物的价值观。与传统算法推荐给用户的“信息喂养”方式相区别,生成式人工智能的输出内容是在操作者自由输入指令的模式下完成的, 操作者天然具备对于主动获知内容的信任度,公众在长期接收到此类含有价值观偏向的信息后,可能会在潜意识里改变对于传统文化与民族精神的长期认同。笔者在使用ChatGPT的过程中发现,其回答的内容在涉及中美两国时会表现出典型的“双标”差异,例如,#ChatGPT曾输出美国的人工智能侧重“智能”、而中国的人工智能侧重“人工”等暗含价值判断的观点。何种主体应在何种程度上,依据何种标准对于生成式人工智能的内容产出负责,需要法律予以明确回应。
三是由于生成预设结果的便利性,操作者过度依赖于生成式人工智能,可能会导致自身能力的退化或异化。若人类放弃对于生成结果的批判性思考,就很有可能失去对于语言、技术乃至科学原理的把握与掌握,也逐步失去对于真理与奋斗的朴素价值追求。生成式人工智能的认知风险终将作用于终端用户,产生了确保人工智能被道德地和负责任地使用的责任机制需要。
2.监管风险
当技术能力突破带来无法预测的巨大风险后,应依据何种标准与模式以有效地实现对于生成式人工智能的监管,学界与实务界还未提出明确的解决方案。在生成式人工智能未实现规模化应用以前,欧盟人工智能法案(the#AI#Act)以分类分级监管人工智能产品的思路实现了有效的监管,通过建立人工智能全流程监管体系提高人工智能可信度的方式,确定人工智能产品的市场准入门槛与底层数据构建机制以达成风险管控的目的。该法案秉持“谁提供谁负责”的原则侧重于对人工智能产品的提供者进行规制,类似终端用户的责任被排除在了适用范围以外。因此,有学者提出,将生成式人工智能和通用人工智能视为该法案下的一般风险类别, 课以产品供应商对系统性风险的定期监测义务,关注供应商与用户间的合同关系,建立对合同条款的监管审查机制。但随着生成式人工智能带来的侵权责任主体、侵权方式类型、侵权范围等产生了根本性变化以后,该法案原本确立的监管模式已无法涵盖生成式人工智能可能引致的不确定性风险。2023年2月初,欧盟议会提出将生成式人工智能列入该法案所确定的人工智能高风险类别以扩大法案的管辖领域,但这也造成了法律监管的局限性,即只有列入高风险类别的生成式人工智能才能被该法案所控制。当生成式人工智能自身已进步至可以自主实现生产同类或其他类别人工智能的技术能力阶段时,通过清单式的管理显然已无法应对人工智能衍生的多样性与复杂性。传统监督方式已经难以支撑数字时代的监督职能,需要重新审视有关数字技术的监督理论以重塑监督的模式与机制。随着人工智能责任能力的进一步挖掘,需要思考采取更加动态的方式,以监测和尽量减少生成式人工智能引致的全局风险。
与欧盟《人工智能法案》相比,欧盟《数字服务法案》(the#Digital#Services#Act)建立的系统性监测模式,更为契合生成式人工智能的技术能力与特征。《数字服务法案》第34条提出,超大型数字平台和搜索引擎在了解其对基本权利和社会运行产生的负面影响的基础上, 有义务监控其自身的算法系统,将生成式人工智能的责任控制主体定位于技术供应者。但如此确定责任分配的模式,又可能造成限制科技发展的过度监管后果。有研究表明,若对技术供应者科以较重的责任负担,可能造成监管成本的大幅增加(按年GDP计算,可能造成850亿欧元的损失),最终大幅减弱市场对于技术更新与投资的意愿。
3.数据滥用风险
数据是计算空间的底层元素,数据的生成、储存、抓取、学习以及利用是生成式人工智能迭代式发展的主要动力源。相对ChatGPT-3投入使用前所运算的1750亿个参数,GPT-4的参数量已达到百万亿级。控制好数据,控制好算法掌握的模型所有权,已经成为21世纪“信息战”的内容。生成式人工智能对于数据具有极强的依赖性,数据的质量将直接决定生成式人工智能输出内容甚至决策的质量。数据的规模化应用也造成了数据滥用的现实威胁。数据中存在大量受知识产权法或个人信息保护法所保护的客体,在目前的责任体系下,生成式人工智能在挖掘使用数据的过程中并不能辨析所利用数据的权利状态与隐私风险,可能存在的权利人也无从知晓自身数据与信息被大数据模型所利用,其自身利益也无从补偿,引致极强的道德风险。当ChatGPT出现数据滥用风险后的算法透明、算法解释权等问题,也需要从其设计之初就着手构建可信任的责任路径与分担模式。合理的生成式人工智能责任分配, 应当激励其制造者从初始的数据质量就开始明晰数据规模化利用的责任体系,否则数据滥用的风险将会渗透至未来无限的场景应用中去。为规范生成式人工智能技术的应用,国家网信办于2023年4月11日公布了《生成式人工智能服务管理办法(征求意见稿)》,要求技术提供者应履行训练数据不含有侵犯知识产权内容的义务。但是,由于生成式人工智能所使用的数据样本过于庞大,正如ChatGPT在使用条款中声明的内容一样,即使生成式人工智能的设计者与所有者在利用数据的过程中,已尽可能地去减少侵权的风险,也无法保证所有训练场景下所使用的数据均经过了原始作者的许可。当前,学界对于数据大规模汇聚使用造成的风险关注度还不高,但数据的规模性利用实际上是生成式人工智能发展的关鍵性因素。只有通过建立数据规模化使用的权责分配,才能实现第三极权力膨胀背景下的数字公有领域责任制度分配,从法律的层面促进与规制生成式人工智能的可信向善发展。
二、生成式人工智能的责任能力与现实基础
风险与责任之间具有强大的关联性,当社会向一个被人造不确定性而非外部不确定性所支配的世界移动时,就必然出现对责任的讨论。在风险现实与治理规则无法调和的真实存在下,需要进一步深入研究生成式人工智能规制的转向路径,特别是解决由何种主体承担责任的法律窘境,以提出逻辑自洽又契合发展需要的治理机制。在此技术路线下,生成式人工智能引致风险的责任能否由其自身承担、并在什么程度上承担,已成为厘清相关问题的基础环节。责任能力分为民事与刑事责任能力两类, 是指权利主体以自己的行为履行法律义务和接受不履行义务时的惩治性法律后果的资格。责任能力状况一般与行为主体能力状况是一致的。民事方面,有经济能力的无行为能力人或限制行为能力人,因为自己的行为造成他人财产损失,要以行为人的财产进行赔偿。刑事方面,达到刑事责任年龄,精神和智力正常的人,即具有刑事责任能力。无责任能力的人,对自己的行为不承担刑事责任。从生成式人工智能所具备的意志表征与行为能力分析,对其赋予相应的责任能力具备一定的现实可能。当人工智能的发展达到相当高的技术水平时,是否认可其已经从辅助人到替代人的地位转变,将直接影响人工智能产业乃至人类社会存在形态的伦理与规则基础。例如,生成式人工智能能否被视作作者,将关涉切实的利益与责任,生成式人工智能应当对自己生成的内容负责吗? 资本作用下的科学技术是对人本身的一般生产力的占有,是人对自然界的了解和通过人作为社会体的存在来对自然界的统治。科技兴则法治强,现代数字科技已经成为法治现代化的重要引擎。西方长期执着于污名化中国的人工智能应用,但对制度领导权和规则制定权却表现出长期偏好。虽然我国在生成式人工智能的技术领域居于后发地位,但通过创新规则与应用体系的结构性改变,结合法律规范的适度超前调整,可以充分发挥我国在数字领域的基础优势与场景优势,形成人工智能治理领域的制度性优势。
(一)生成式人工智能具备类人类意志特征
责任产生的前提,是主体对于法律规范具有认识理解的能力,同时具备实施具体行为时的意志力。例如,犯罪就是人的意志体现,缺乏意志即构不成犯罪,不具有科处刑罚的本质。任何思想的产生都是对一定社会历史条件的反映,都会在现实社会中找到依据。有学者提出,根据人工智能发挥具体功能或完成特定任务的算法,是否可以将与设计者、生产者等发生分离作为具有意志力的标准?也有学者提出,只有满足了意志条件的理性人工智能,且可以将自身与他者相区分,并且能够反思自身,才具有责任能力的可能。生成式人工智能输出的内容已经可以产生人类感知外部世界的效果,依据预设算法规则处理问题并形成产出的逻辑,具有类人类意志的深刻特征。
一是从认知的角度分析,生成式人工智能已经具备相当强的认知能力。认知,是指人类获得知识或应用知识的过程,大脑接受外界输入的信息,并经过头脑的加工处理,转换成内在的心理活动,进而支配人的行为,这个过程就是认知过程。人类认知的实现过程与人工智能构建的“输入信息—算法加工—形成决策”的底层逻辑高度契合,人工智能甚至实现了较人脑更为精准的认知。传统人工智能阶段, 抖音、TIKTOK等短视频平台可以根据算法推荐技术, 按照用户的喜好推荐其感兴趣的内容,从认知的结果分析,人工智能已经具备了输入信息并支配算法决策行为的典型特征,而这种认知能力在生成式人工智能实现后表现得更为强烈。ChatGPT通过键入几个关键词即可生产完整意义上的文章,GPT-4甚至可以看懂表情包和内涵图片,并准确地指出其中蕴含人类理解的笑点。就技术实践所达到的智能程度而言,已经很难否认生成式人工智能具备了人类的认知能力。生成式人工智能,本质上已经成为具备自然语言能力的人工智能。人类的文化教育传承,基本是以自然语言为界面学习书本,在此意义上,生成式人工智能确实已在某些领域代替了部分社会基础功能。虽然生成式人工智能的认知过程并非依靠人类大脑神经网络,但若其可以形成人类自然语言相同的理解结果,是否由碳基生命的大脑直接感知生成结果的过程才能构成传统意义上的认知, 已经不再是理论上的桎梏。
二是从理性的角度分析,生成式人工智能呈現的结果已具备一定的实践理性能力。理性是指人在正常思维状态下为了获得预期结果,快速全面了解现实并形成多种可行方案,从中判断出最佳方案且有效执行的能力。〔46#〕简单地讲,理性就是从理智上控制行为的能力。理性分为理论理性和实践理性,即“认识世界的规律性的能力”和“根据道德律令的要求行为处世的能力”。就理论理性而言,生成式人工智能生成文稿的过程,已经具备了理论理性的基础能力与外在特征,生成式人工智能在操作者指示下生成的可行方案早已超过农业社会中自然人的理解能力。生成式人工智能甚至已经具备了逻辑推理的能力,GPT-4不仅可以识别图片中的内容,并可以通过图片中的元素形成与人类主观意识相同的进一步推理。如果向GPT-4展示一个孩子牵着一个气球和一把剪刀,问它如果剪断了绳子会出现什么情况,GPT-4已经可以精准地回答“气球会飘走”。就实践理性而言,生成式人工智能具备了根据规则要求进行决策的能力。美国明尼苏达大学法学院已经开始探索使用ChatGPT为法学课程考试作答,在测试中,ChatGPT四门考试的平均成绩已经可以达到人类学生的毕业要求,特别是对于法律案例的论述方面,其可以把握法律规则、自行提出应适用的法学理论、正确列举具体案件的事实和观点。当然,与人类学生相比,生成式人工智能暂时还仅能理解表面层次的法律关系,对于复杂或隐含的因果关系的挖掘能力仍然不足,生成的内容依然符合设定的浅层法律逻辑。但需要注意的是,这种程度的实践理性是在更为强大的GPT-4适用之前的能力水平,按照大型语言模型的迭代速度,生成式人工智能全面理解法学理论已极可能成为现实。
三是生成式人工智能已经具备了价值判断的能力。传统观点认为,智能无法替代人的价值判断,而法学及司法裁判的特质,几乎完全是与价值判断相关联的。但随着技术的进步,代码、算法和数据已经被用于预测司法判决的结果,并取得了较好的成绩,生成式人工智能的算法逻辑已经可以渗透进入判决的体系架构之中。有研究者通过人工智能正确预测了从1816年到2015年美国最高法院作出的2.8万项判决中的70.2%,以及法官投出的24万张裁决票中的71.9%,与之相较,法律专家实现的案件预测准确率仅在66%左右。生成式人工智能已经可以在最终的输出结果上实现预设的价值判断。就价值判断的实现过程而言,以非确定性为前提,强调根据公理性概率论来重构民事司法体系,在案件审理上注重证据试错过程和可撤销性,最后以法律经济学强调的期待效用最大化为指标来作出司法决定,使得人工智能替代法官裁判完全具备可能性。但必须注意的是,生成式人工智能形成的判断,也天然具备一定的价值局限。首先是不同法系的价值观并不相同,例如,利用GPT-4对中国法院的裁决进行分析,必然会得出批量性的错误结论。其次是生成式人工智能使用的底层数据并不具备权威性,例如,其若使用中国裁判文书网的数据作为生成逻辑的基础时,不同时期、不同阶段的法律文书带有的价值判断本就不同,自然可能形成“同案不同判”的偏差结果。另外,生成式人工智能暂时还无法感知其输出裁判后的内容所造成的客观影响,在此基础上,其对于社会评价的理解还无法实现直接反馈。这也决定了生成式人工智能的意志天然具有局限性。
(二)生成式人工智能可能具备行为能力
劳动是创造与实现社会价值的前提。生成式人工智能在实践中已起到了替代人类职业的作用,通过快速化决策的能力,已开始替代人工处理保险理赔、小病看诊、剪辑视频等重复性劳动。在进入老龄化社会的现实下,不断提升生成式人工智能对生产关系的作用,将与未来社会形态的变化直接相关。传统人工智能在区块链技术的作用下,已经可以通过智能合约由机器代替人类确定权利义务并对外发生效力,人工智能作出决策的过程是否可以成立法律上的行为已经成为法学研究无法绕开的话题。对于传统人工智能的地位,通说一般仍持“代理说”的观点,认为人工智能的行为是受人类所控制,其决策的能力与后果最终由被代理的主体承担,这也就实际上承认了人工智能具备一定的法律地位,因为只有在人工智能具备行为能力时,才具备履行被代理人指示的资格。承担责任的前提在于主体能够意识到其行为的后果,并采取具有独立意志的行动。当人工智能进化到生成式人工智能的阶段之后,已经强大到可以广泛参与法律关系,基于其自主决策的实际,需要判定生成式人工智能是否可能具备人类行为的能力,这是其是否可以承担责任的前提条件。
有学者提出,由于自动化系统无法理解消费者的意愿与期望,或者无法理解人类自然语言而不能承担法律责任,也就否定了人工智能的行为能力。但司法实践中已有判例确认了人工智能的行为效力。例如,在Moore#v.#Publicis#Groupe#SA案中,美国法院正式批准预测编码作为在某些情况下审查电子存储信息的可接受方式。也有学者提出,如果人工智能的决策可以视作行为,则需要其行为必须可以被解释。《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升人工智能的透明性、可解释性、可理解性。但如何理解“可解释”,实际上也是立法者作出的主观价值判断,无非是解释理念、解释原则与解释方法随着生产力水平的不断提高而形成的逻辑,人工智能的底层算法是否一定需要被解释,迄今未有学者给出令人信服的依据。在State#Farm#Mutual#Automobile#Insurance7Company7v.Bockhorst案中,保险人的智能系统基于错误的程序发出了错误通知,原告基于此改变了原先的保险合同,法院也判决了原告基于信任的系统行为有效。美国第十巡回法庭明确计算机程序作出的超出预想的错误后果由保险公司承担,这实际上已经确立了计算机作为独立的主体形成权利义务的能力。
当然,技术手段本身并不能回答原因问题,将结果混淆为原因是一种谬误。有研究者提出,通过留意价值的数值化处理和加权计算,可以确立关于价值排序和价值函数的算法规则,人工智能的伦理标准通过技术设计的内在路径完全可以实现。回溯伦理学上“人”的概念形成的历史,“人”是依照其本质属性,有能力在给定的各种可能性的范围内,自主地和负责地决定他的存在和关系,为自己设定目标并对自己的行为加以限制。自然人可以成为主体,渊于将伦理学上的“人”的概念移植到法律领域。有学者提出,伦理性并不是民事主体的必然要求,伦理性人格到经济性人格的转变为智能机器人的主体论铺平道路,人工智能可以具有工具性人格。伦理概念下的生成式人工智能是否满足或是可以满足人类社会的行为要求,也是考虑能否赋予其行为能力的要素。特别是如果人工智能突破了伦理底线,则又应该按照何种形态对其予以追责或惩戒? 这又回到了生成式人工智能是否可以具备行为能力的逻辑起点。从西方理论认为,人类社会运行的规则,由准则、指令和标准这三个概念共同组成。而“行为标准”的判定,也是随着实践的发展不断改变。生成式人工智能如果长期输送含有关乱伦、暴力、歧视等内容影响青少年,同样面临传统价值观下的伦理底线突破与犯罪构成标准的适用困境,造成人类社会价值的崩塌。基于生成式人工智能所引致的标准变化,有必要通过伦理规则的重构,对其形成真实的可责性,以确保其行为的发展始终不偏离以人为本的预设价值轨道。
(三)拟制主体承担法律责任
法理意義上的“人”,体现的是人类族群的群体意志所形成的共识,与生产力水平和生产关系密切相关。法律上对于“人”的概念是动态变化的,在奴隶社会以及封建社会,自然人并非天然具有法律上的权利能力与义务能力,在现代文明体系建立之后,“人可非人”的价值判断才逐渐被人类社会所抛弃。在进入大航海时代以后,人类为了适应社会发展的实际需要,逐步形成了公司等拟制的法人概念。从经济利益考量,法律的制度性变化确实促进了社会的发展与进步,这也是1750年前后新的组织体开始推动人类财富大幅增长至今的原因解释。就意志能力而言,法人等拟制主体作为财产的集合并无意志的天赋属性, 其可以成为法律意义上的人是基于经济上的合理性而非哲学上的合理性,仅仅是形式化的权利主体与法律效果的承担主体,并产生了限制责任等制度。大陆法系下,独立的法律人格需要具备社会存在与法律确认这两个必备条件,即需要独立自主地作出意思表示并得到法律明确的确认。法人概念的产生,是随着社会存在的变化而不得不作出的规则调整与适应,这种拟制的主体符合现代社会的基本组织形式与运行规律,又确保了生产关系的不断完善。
既然法人可以拥有主体地位,那么人工智能也将必然获得相应的法律资格。俄罗斯格里申法案提出,基于人工智能的法律构造,可以允许其类推适用统一国家法人登记簿制度。就法人生成的逻辑而言,是先有实体存在,再有法律进行确认。以此类推,人工智能特别是生成式人工智能被法律所拟制而形成特殊的主体地位具有逻辑上的正当性。也有观点提出,不能简单地通过与法人的类比,以论证生成式人工智能法律地位的正当性, 理由是法人通过借助于自然人的行为才能从事法律活动。但笔者认为,法人与人工智能在构造上的差别,并非人工智能无法被法律所赋权的前置性因素,立法技术的主要考量仍应从解决实际问题出发。任何权利主体,只要人类将其称为权利主体时,就应当成为“法律上的人”。法人运行的关键,是其内部成员意志的集中体现,通过相应决策机构,集中形成意志,并以自身的名义开展活动,从而具备了认知能力以及实施犯罪的能力。人工智能在拟制的法律技术上,与法人并无本质不同,穿透人工智能面纱,也一定会体现人的意志。当下围绕人工智能的法律主体构建的核心问题就是责任,需要为人工智能的发展构建契合实际的以责任承担为基础的特殊财产性法律主体。当人工智能因不可归责于他人的行为造成损害或伤害时,可以承担相应的民事或刑事责任,以使得负责任的人工智能成为法律与实践意义上的现实。
三、生成式人工智能的责任能力建构与结构化配置
在传统的法律责任体系之下,由生成式人工智能自动签订的法律合同,对外发生的效果表示无法进行效力上的确认, 其生成的明显具备作品特征的内容无法享有著作权等知识产权法的保护,也就无从产生将生成式人工智能作为权利主体所带来的经济效益,不利于人工智能作为颠覆性生产力工具的长久发展。由于生成式人工智能的技术特点,利用其实施的犯罪行为或者其在自身算法逻辑下输出的内容可能引致犯罪的结果,由于难以确认犯罪主体,在现行刑罚体系下面临无法构罪的现实困境,直接对人类社会的朴素伦理造成巨大冲击。在技术与数据高度垄断的数字社会架构下,“代码就是法律”的逻辑已经使得拥有先发优势的巨型科技资本拥有了超出公权力与私权力之外的第三极权力,在事实上形成了对于社会治理的域外法权,根据何种原则与规则以规制生成式人工智能的控制者,已成为关系国家安全的重大问题。生成式人工智能抓取的是全域范围内的海量数据,使用的可能是饱含价值密度的规模化信息,在使用与输出数据的过程中造成的隐私侵害、知识产权侵害等行为,在现行法律体系下也无法明确责任的主体与归责的原则。生成式人工智能实际改变了人类对于传统自然语言传承文化与教育的基本结构,操作者不得不在认知逻辑的改变下,有意识或无意识地被生成式人工智能所输出的内容渗透,其产生的人类认知逻辑上的变化,将很有可能对国家与民族的认同产生价值观上的重大变化。
习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。”法律是保障人工智能可信向善、负责任发展的关键因素与主要手段,是否承认生成式人工智能的责任能力,或者说在何种程度上承认生成式人工智能的责任能力,将直接决定生成式人工智能乃至未来通用人工智能的行为性质与有效性,又会反作用于未来法律的发展和走向,在根本上决定数字技术全面覆盖人类生产生活后的社会样态。需要在发挥中国既有的人工智能治理优势上,通过顶层设计推进基础性人工智能立法,探索通用人工智能立法的经验,根据生成型人工智能的技术特点更新监管逻辑,形成更具影响力的法律制度体系。
(一)责任能力有限
法律在规制人工智能风险与促进人工智能正向发展的两个维度间必须寻找到恰当的平衡点,而促进人工智能发展的首要问题是需要有主体为人工智能的行为承担相称的责任。这个主体可能是人工智能的研发者、控制者、操作者、投资者、生产者,在一定范围与条件下,也可以是人工智能,特别是生成式人工智能这类强人工智能体。需要避免人工智能一定要像人一样进行神经思维才可以定位为“人”的思维定势,与人类大脑运行机制的不同,并不能说明人工智能不能达致理性主体的状态或能力。社会性或伦理性已不是人工智能成为法律主体的必要条件。就意志能力而言,生成式人工智能在进入GPT-4时代以后,已经具备了逻辑推理与意思表示的能力,可以通过算法逻辑的设定实现与操作者一致的价值期待。就行为能力而言,司法实践已经确认了人工智能行为的法律效力并已有国家开始使用人工智能系统用于智能裁判。从实际出发,参考拟制法人对于人类文明与经济发展的重大作用,赋予人工智能特别是生成式人工智能以特殊的法律主体地位,明确其责任能力与归责原则,已经成为应对风险、促进发展的现实选择。
人工智能虽然可以具备法律主体地位,但这种法律人格应当是有限度的,并非完全的法律人格,归根结底是因为其可以承担的责任能力是有限的。责任能力与行为能力是一致的。生成式人工智能虽然能够独立作出意思表示并承担一定的责任能力,但其依旧是智能机器的天然身份,人类所具有的生育、婚姻、投票、选举等伦理性的权利显然无法加予生成式人工智能,但结合其输出具有价值作品的实际,可以考虑为其在著作权等利益型权利上赋权。使用生成式人工智能输出的作品可以由其具备一定的著作权,使用、利用该作品应当为生成式人工智能支付一定的微量费用,这种费用既不属于生成式人工智能的研发者、也不属于其控制者,而是由生成式人工智能自行所有,当其使用数据或信息造成侵权、歧视等不利结果时,可由生成式人工智能前期积累的收益予以赔付,在事实上建构其一定的责任承担能力。人工智能是由人类创造以服务人类的智慧型工具,即人类自身的权利优位于人工智能,人工智能的工具属性也决定了其自身法律地位的限度性。
生成式人工智能的行为能力来源于技术,其决策输出的底层逻辑来源于规模化数据深度学习后形成的规律性行为,与人类个体在自主意识上的目的行为仍具有结构上的巨大差异。穿透技术背后的核心,体现的依然是设计者、控制者、操作者的意识与价值逻辑。由于具有人脑根本无法达到的学习与运算能力,如果对生成式人工智能赋予完全的责任能力,则人类的地位将极有可能逐步被机器所取代,造成人本社会的道德伦理塌陷。基于实践的变化,为生成式人工智能等高度智能体赋予一定的责任能力以解决“网暴”、无人驾驶、作品制作等现实重大问题,是法律体系可以作出的适应性调整,但责任的最终承担仍需要由人类负责,这是实现人工智能在自身层面与社会存在两个维度负责任发展的应然法律技术路线。
(二)“穿透人工智能面纱”的归责原则
在证成人工智能特别是生成式人工智能可以具备一定的责任能力后,就需要考虑其责任能力的范围与归责的路径。就民事责任而言,主要考虑其独立对外决策的行为效力与侵权的责任承担,就刑事责任而言,主要考虑其被利用作为新型犯罪工具、由于自身缺陷造成的犯罪结果以及自主决策实施的犯罪行为这几种情形下的责任能力。生成式人工智能依靠数据信息的搜索整合与综合运用形成了不同于传统人工智能的运算机理,使得民法、刑法上的原有因果关系与实际相割裂。笔者认为,生成式人工智能的责任能力需要与其在具体行为时的受控制程度紧密联系在一起进行综合考量,无论是民事责任还是刑事责任,均需要考虑生成式人工智能在决策时的底层逻辑以及人机复杂互动以后的因果关系重构。可以从结构化的维度分析生成式人工智能致损时的状态与原因:一是若责任后果完全是由生成式人工智能自身运算混乱或设计逻辑引起的,则由生成式人工智能自身承担限制的责任能力后,由生成式人工智能的研发者与控制者承担补充责任,生成式人工智能的研发者与控制者需要提供完整的研发合规文件,否则承担严格责任。二是若责任后果是由操作者自身操作生成式人工智能引致的,在可以证明操作者身份的前提下,由生成式人工智能的操作者承担主要责任,若无法查明操作者身份且生成式人工智能的控制者可以提供人工智能可控的相关证明,则由生成式人工智能自身承担限制责任。例如,由其从著作权收益或投资者建立的强制责任基金中,抽取部分货币补偿受害方,研发者与控制者承担过错责任。三是若责任后果完全无法证明由何种原因引起,则由生成式人工智能的研发者、控制者及其自身分别承担相应比例的责任,这同时需要建构更为精准与庞大的相应配套机制以确定具体的归因准则以及赔偿范围、责任限制等体系。四是若责任后果由监管疏忽或渎职造成,则由监管者承担过错责任,由生成式人工智能自身承担补充责任。无论是何种归责类型,总体均需要适用“穿透人工智能面纱”的原则确定归责路径,在查证因果关系的基础上,考察确定生成式人工智能责任背后的实际责任主体。
在明确归责原则以后,需要构建生成式人工智能责任的链式分配机制以具体完善责任的承担机制。例如,就生成式人工智能的能力与使用范围而言,任何单一的主体国家或职能部门,均无法应对其带来的责任风险, 需要通过责任分担的链式机制以确定生成式人工智能侵权或犯罪后的责任分配。就生成式人工智能而言,需要从研发者、控制者、操作者、监管者、人工智能本身的维度,共同构建权责匹配的责任分担机制。在确保“罪责行一致”“权利与义务标准相当”等传统价值观下,结合数字社会发展的新形态, 延伸生成式人工智能的责任链条, 以确保单一主体的责任负担不至于过重,从而减少对于生成式人工智能投资与利用的期许,形成法律规制的负外部性。在链式分配机制下,研发者应当留存相应的模型与研发数据,证明其算法逻辑受控且不存在侵权的故意,否则应承担相应的法律责任。再如,在控制者责任上,应当证明其适用生成式人工智能不存在主观上的价值歧视与颠覆国家政权、传播有害信息的故意,在其证明生成式人工智能的运行与适用基本合规的情况下,可以免责。另如,操作者对于利用ChatGPT等生成式人工智能应尽到相应的注意义务与合规义务,若通过故意诱导等方式传播谣言、窃取隐私,则应由操作者承担严格的法律责任。最后,需要强化生成式人工智能对于人工智能自身治理的责任能力,逐步实现从治理“受体”向“主体”的部分转化,提高技术水平與注意义务的相称程度。通过内容识别、版权控制、数字水印标注等行为方式,实现对于输出内容的管控与伦理审查,极端强化“通知+必要条款”等措施的重要性,尽最大可能减少数据滥用与隐私侵权的风险。在明确生成式人工智能的责任能力限度与归责原则后,需要进一步深入研究明晰生成式人工智能研发者、持有者、操作者、监管者等不同利益主体在具体风险中的利益关系与配套架构,更加系统、准确地厘定在何种程度、事项或范围内由生成式人工智能承担何种责任。
(三)建构完整的配套规则体系
法教义学的理想目标是参照近代科学原理建立公理体系, 使得法律规范具有森严的效力等级,从实践出发,逐步解决实践问题特别是具有系统性、全局性风险的问题,通过化约社会的复杂性,为社会成员提供明确的行动预期,保障社会运转的秩序性与确定性。法律的生命不在于逻辑,而在于经验。应根据社会存在的变化逐步动态更新以助推生产力水平的提升。影响法律发挥作用的因素,除了传统文化观念、政治行为方式以及程序设计的漏洞之外,特别值得注意的是更具普遍性的外部条件变化。生成式人工智能的治理难题,在明确其特殊法律地位,确定其可以承担限制性的责任能力后,应进一步建构丰富具体的规制体系。
一是根据生成式人工智能的底层逻辑,建立覆盖研发运行全程的风险监管机制。传统的监管方式如产品许可、侵权责任制度,无法全面地适用于生成式人工智能的监管。对于高风险人工智能,欧盟倾向于严格责任,将隐私保护等人工智能伦理价值原则作为优先价值进行严格监管,而美国则倾向于自由经营,强调审慎监管以促进人工智能的技术创新与发展。笔者认为,必须采取新的监管机制以规制人工智能带来的责任风险,通过建立完善的法律法规和行业标准,明确生成式人工智能的责任主体、权利义务和违法处罚措施。例如,验证研发者优化生成式人工智能模型的设计和训练方法,提高其准确度、稳定性;强调控制者应动态检测生成式人工智能模型的解释性和可验证性方法,增强其可信度和可控性;督促监管者开展生成式人工智能模型的测试和评估工作,检测并消除其可能存在的偏差或错误,不断加强对生成式人工智能的审查和监督,防止其被用于非法或不道德的目的。通过全链条监管与链式责任分配机制的契合,形成明确的数字空间行为准则,建立可预期的风险责任制度。
二是明确生成式人工智能的透明度责任。由于生成式人工智能需要规模化利用全域数据,通过深化规则的制定与应用确保其透明度责任就尤为重要。首先是生成式人工智能的研发者应准确了解该系统的性能与缺陷,向用户完整陈述其使用可能引致的不利影响。对使用的数据进行事先评估,了解其训练模型、使用样本的合法来源,对其使用与生成的数据负有严格的保密与管理义务。其次是生成式人工智能的控制者应当明确其应用过程与输出逻辑的全程可追溯,提高原生与次生数据信息的透明度,采取措施尽最大可能避免数据规模化应用对个体可能造成的侵权风险。再次是根据实践的发展,生成式人工智能的控制者的行为义务应予以扩大,例如要求其为生成的图片、音像作品等内容自动生成不可篡改的底层区块链数字水印,确保生成物的来源、目的与作用符合伦理要求,并在产生责任风险时可以提供排除责任的合规记录。再如推行强制性算法规则,除非操作者明确同意,不得主动识别其身体、面容和声音数据,并强制不得用于其他场景使用或交互。另如,不得为了确定算法推荐的内容匹配度并提升准确性,而主动监测操作者浏览过程中瞳孔大小等生理变化。最后是监管者在保护创新的基础上,鼓励算法与接口开源。但这种开源并非强制,需要特别注意对于科技初创企业与个人开发者的利益保护。
三是治理原则实现从可解释算法向可控制算法的改变。现行对于算法的要求基本按照欧盟《人工智能法案》的路径,明确算法应当被解释。但生成式人工智能改变了传统人工智能的运行机制并大幅提升了其深度学习的能力,在具备了自我意识之后,其建构的算法逻辑很可能输出算法编写者与控制者无法解释的内容。若生成式人工智能的研发者也无从解释其研发系统造成的责任损失,在此情形下如何确定因果关系与责任能力? 如果对不可解释的算法责任主体课以过重的义务,人工智能领域的技术创新将会受到严重打击。笔者建议,将生成式人工智能的治理逻辑,由可解释算法逐步过渡为可控制算法,注重生成式人工智能的鲁棒性,即人工智能发挥作用的稳定性。〔87#〕如果生成式人工智能的责任主体满足了可控算法的合规性义务,就可以按照链式责任分担机制确定的方法明确责任关系、确定责任能力,在保护创新的前提下鼓励技术的发展。这种可控性来源于一系列的义务要求,例如,违法违规行为侦测的强制报告制度、输出内容的合规审查制度、以人为本的伦理判断制度等。对于具有系统性功能的算法,应当明确限制算法技术出口的类型与清单。通过加强人工智能系统设计的安全性、稳定性和合规性,确保生成式人工智能始终受到人类的有效控制。
余论———谁来为人工智能发展负责?
人工智能作为最新的科学技术成果,极大促进了经济社会发展,同时也存在拉大贫富差距、加剧社会不公以及扩大失业现象的风险,发挥制度优势、降低科技异化的风险,将成为我国人工智能治理的关键之策。笔者在2017年曾撰文提出,现行法律规制对于人工智能权利、侵权责任主体等关键问题上的缺位,使得人工智能的发展缺乏法律价值的引领,人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到控制,人工智能的运用与发展需要法律人格的明确。以ChatGPT为代表的生成式人工智能的问世,标志着人工智能技术的发展阶段逐步进入强人工智能时代。各国针对人工智能技术的治理均提出了相似的政策,提出发展“负责任的人工智能”。但是,究竟谁应为人工智能的发展负责? 如何为人工智能的发展负责? 人工智能能否為自己的发展负责? 学界与实务界均未给出确定性的答案,形成目前生成式人工智能带来的风险无法以现行法律体系规制的治理困境。2022年10月,外交部发布了《中国关于加强人工智能伦理治理的立场文件》,指出人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权利边界。生成式人工智能已经具备了类人类自主意志特征,又具备了一定的行为能力,鉴于客观实际与拟制法人对人类社会发展所取得的巨大作用, 可以考虑赋予生成式人工智能以特定的法律地位,给予其特殊的责任能力,通过一系列配套措施与机制的完善,最终实现人工智能发展的可信向善,发展“负责任的人工智能”。