生成式人工智能法律治理现代化研究
2024-04-07罗亚海
罗亚海
(临沂大学 法学院, 山东 临沂 276000)
生成式发展可以追溯到1950年的“图灵测试”,测试的主要目的是判断机器是否可以模仿人类并与人类进行交互。人工智能发展大致经历了“利用机器学习进行分析和预测、通过深度学习进行视觉和语言处理、生成式人工智能”三个阶段(1)参见张彦坤、王雪梅、汪卫国:《生成式人工智能对经济社会的影响》,《通信世界》2023年第16期。,进而呈现出计算智能、感知智能、认知智能等人工智能的不同层级。较之传统人工智能,生成式人工智能(AIGC)除了拥有和分析式AI类似的预测功能外,它们还能根据决策独立作出判断、生成内容(2)参见陈永伟:《超越ChatGPT:生成式AI的机遇、风险与挑战》,《山东大学学报》(哲学社会科学版)2023年第3期。,不仅能够提炼信息,还可以通过利用现有的数字内容检查、训练实例,学习其模式和分布(3)参见毕文轩:《生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角》,《比较法研究》2023年第3期。。具言之,以ChatGPT为代表的生成式人工智能大模型,可以根据预设或给定的提示以及上下文语境进行模式创建,从而具有自感知、自决策、自执行、自适应、自学习等特征。生成式人工智能的判断、数据分析和生成能力是除了人类以外的任何智慧主体所未曾呈现过的能力,因此生成式人工智能面临着伦理失控、数据歧视和价值观破坏、知识产权侵权、生成内容违法等问题。当前,“全球人工智能发展步入治理轨道”(4)赵阳:《全球人工智能发展步入法治轨道》,《法治日报》2023年11月20日,第5版。,AIGC法律治理研究是不能绕过的问题,需要从一个交叉法学和跨学科的视角来探讨生成式人工智能的法律治理问题,需要以法治现代化价值为指引,凝聚共识、转换理念,对生成式人工智能的治理架构进行有益探索。
当前,学理上对生成式人工智能的研究主要聚焦于人工智能的应用(5)相关研究见宋保振、秦瑞标:《论生成式人工智能应用风险的法律规制》,《上海政法学院学报(法治论丛)》2023年第6期;苗逢春:《生成式人工智能技术原理及其教育适用性考证》,《现代教育技术》2023年第11期。、人工智能的风险特征(6)相关研究如漆晨航:《生成式人工智能的虚假信息风险特征及其治理路径》,《情报理论与实践》,https://link.cnki.net/urlid/11.1762.G3.20231128.1005.002;鞠宏磊、申欣雨:《生成式人工智能产品的内容安全风险及监督路径》,《经济问题》2023年第12期;陈兵、董思琰:《生成式人工智能的算法风险及治理基点》,《学习与实践》2023年第10期。和生成式人工智能的规制(7)吴育珊、杜昕:《生成式人工智能的安全风险与法律规制》,《岭南学刊》2023年第5期;郑曦、朱溯蓉:《生成式人工智能的法律风险与规制》,《长白学刊》2023年第6期。,基于生成式人工智能治理的研究涉及到治理中的伦理问题,生成内容的风险及其治理对策,生成式人工智能的风险及其包容性法律治理等具体应用(8)李亚玲等:《人工智能生成内容的潜在风险及治理对策》,《智能科学与技术学报》2023年第3期;钭晓东:《论生成式人工智能的数据安全风险及回应型治理》,《东方法学》2023年第5期;郭小东:《生成式人工智能的风险及其包容性法律治理》,《北京理工大学学报》(社会科学版)2023年第6期;董扣艳、张雨晴:《生成式人工智能发展与治理的哲学省思》,《福建师范大学学报》(哲学社会科学版)2023年第4期。。生成式人工智能的治理是现代科技治理需要面对的新问题,也是法治现代化对法律制度、法治精神和价值判断的新需求,也必然是国家治理体系和治理能力现代化的题中之义,因此需要在法治现代化的进程中进行生成式人工智能发展的治理制度构建,以实现科技发展更好服务于人民美好生活需要。
生成式人工智能的法律治理本质属于科技应用治理范畴,虽然和传统的科技治理有共同之处,但更有作为新兴科技的独特的特征呈现。生成式人工智能作为第四次工业革命的代表性技术,当然内蕴科技创新激励和科技风险控制之间的制度性平衡。从现代性的视角来说,当代社会政治国家正在向技术国家演化,一个科技“利维坦”正在形成,“生成式人工智能在国家、社会、私权利三个层面产生的风险,具有损害方式隐蔽、损害结果严重两大特点”(9)商建刚:《生成式人工智能风险治理元规则研究》,《东方法学》2023年第3期。。生成式人工智能基于输入者中心主义的现实,数据选择、强制的算法规则选择可能造成内容的偏见及数据歧视,以要素、算法和算力为基础的生成式人工智能,缺乏透明的算法规则,数据正义的实现无法直接呈现,这就容易造成生成内容可能用于虚假的信息传播等违背公序良俗和社会主义核心价值观的情形出现,同时,生成式人工智能在数据训练和数据使用中,可能事实上造成对借鉴内容侵权的风险和高度模仿的风险,甚至有沦为网站钓鱼和宣传虚假信息等违法犯罪行为工具的可能。
“伴随政治国家中心主义的衰落,以政治国家建构为目的的现代政治应做出必要调整”(10)齐延平:《论人工智能时代法律场景的变迁》,《法律科学(西北政法大学学报)》2018年第4期。。生成式人工智能治理需要法律制度的构建来规导政府和公民之间的合作和一致行动,需要建立有效风险识别的法律制度,实现正确的价值引领,避免重物质轻风险的价值倾向,避免科技“创造性破坏”的尴尬,发展负责任的生成式人工智能。现代性导入了一些先前时代基本或者完全不知道的新的风险参量(11)乔治·瑞泽尔:《后现代社会理论》,谢立中译,北京:华夏出版社,2003年,第208页。,因此生成式人工智能的法律治理需要探求新的制度供给。治理视角下的制度构建需要思考如何通过宪法和部门法的制度安排对“生成式”进行价值锁定,需要审视治理制度依存的价值基础,斟酌治理制度的现实条件,凝练治理的基本理念共识和制度规则,建立有效的风险识别机制,凝聚法律风险理念,构建有效引领人工智能发展的法律规范体系。
一、AIGC法律治理肇始的理论面向
(一)法价值层面:AIGC治理应与人类价值保持一致
人工智能时代的科技治理需要重视主观价值判断的影响,回答“应该”是什么的问题,对生成式人工智能阐释也不能脱离这个问题。“近代以来,人们一般认为宪法应当是规范、控制国家权力、保障公民权利,建立在民主制度基础之上的法”(12)仪喜峰:《宪法之维解读》,《经济研究导刊》2015年第5期。。在此基础上的法律制度是调整国家和公民之间以及公民和公民之间的关系。在现代语境中,人工智能时代科技治理应该妥善处理科技和人的关系(13)参见张弦:《我们需要怎样的全球科技治理》,《学习时报》2020年8月28日,第2版。。从宪法和法律价值的角度而言,人工智能时代科技治理中科技和人的关系问题是科技治理的核心问题,而“将宪法价值与科技价值加以平衡的重要平台就是宪法”(14)韩大元:《科技发展要基于人的尊严和宪法共识》,《北京日报》2018年12月3日,第14版。。自然科学的发展让认知论从神本主义发展到物本主义,从物本主义发展到人本主义(15)参见江国华:《宪法哲学导论》,北京:商务印书馆,2007年,第79-82页。。自然科学的发明和发现让传统崇尚神灵的世界认知模式发展到了物本主义世界观,这时候的科学与人本发生了分立,科学不以人为中心,人有了物化的风险和危机,并有了成为科技附庸的风险,生活领域成为无关重要的角落。以ChatGPT为代表的生成式人工智能较之传统人工智能技术,具有更高精的参数、更强的计算能力和数据训练能力,呈现出鲜明的自我学习和自我迭代的特征,随着“自主性”水平提高,输出数据的准确定风险增加,生成式人工智能带来的这种担忧更为突出。
事实上,人工智能的“潘多拉魔盒”并未单纯地释放美好和善意,同时也包含了可能危害人类利益的一面,存在物本主义的风险和非理性。这一切都在表明,科技特别是当下的智能科技将自己当作了世界的中心,将人类当作了附庸。随着现代人本主义的兴起,人作为主体的研究日益深入,人本主义将人类的生活领域作为研究对象,不再将人与物的二元对立作为理论前提,而是开始以人为主体的社会机构作为事实背景来探索法律与社会之间的内在关系。这就将人们的认知从二元论中解放出来,开始从政治国家和市民社会的和谐融合中来解释社会管理和公民权利之间的关系,并希冀籍此寻找公民和政府的有效合作途径(16)参见黑格尔:《法哲学原理:或自然法和国家学纲要》,范扬、张企泰译,北京:商务印书馆,1996年,第321-322页。。当人们以此判断来阐发法律在生成式人工智能治理中的作用时,是对法律制度的供给需求的一种表达。正如习近平总书记所指出的,“我们要依法保障全体公民享有广泛的权利,保障公民的人身权、财产权、基本政治权利等各项权利不受侵犯……保障人民群众对美好生活的向往和追求”(17)参见习近平:《在首都各界纪念现行宪法公布施行30周年大会上的讲话》,北京:人民出版社,2012年,第10页。,而这必然建立在基于不同的国家基础和时代特征的不同价值判断之上。
人工智能的发展尚缺乏根据人类价值来进行结果控制的能力,尚不能够确保在道德边界内实现“生成”控制。如果说物本主义及早期人本主义的“人”和“物”的关系还是严格从物理形态上来区分的话,生成式人工智能下“人”的界定则面临更为深层次的理论思索,“人”和“物”的关系可能面临全新的规则构建。在传统弱人工智能背景下,“智能”为作为主体的人所控制,人工智能的作用是辅助性的,并严格按照主体的预设进行运行并根据预期实现设定的目标或者行为。但是在AIGC阶段,人工智能所体现的自我更新和学习能力,使其具有独立表达意识的特征,加之算法规则的“黑箱”化,可能会对人类发生反向引导,并事实上通过生成内容的不可控性,对传统意义上的人类主体地位产生冲击,关于人工智能主体资格问题的讨论就是一个最直接的反映。不可否认,人们对法律制度的价值有不同的认知和期待,但是最终必将形成相对一致的观念,并成为法律治理制度价值理念不可或缺的组成部分。坚持人工智能发展中确保人的最终价值就是共识。“人的生存与发展,人的尊严与自由,是人类组织共同体的价值追求与终极关怀”(18)刘茂林等:《宪法是组织共同体的规则》,《法学评论》2007年第5期。。生成式人工智能的法律治理制度要以人的普遍的主体价值为终极关怀,这需要在生成式人工智能背景下凝练法律治理的新秩序,实现AIGC治理的法的价值和规范指引,并据此对治理模式进行现代性重构。
(二)法秩序层面:AIGC治理应与中国法治的现代化相一致
治理理念在20世纪90年代才被引入到政府、非政府组织(NGO)管理中(19)参见吴希金等:《科技治理体系现代化:概念、特征与挑战》,《科学学与科学技术管理》2015年第8期。。当前科技治理有两条线路:其一为美国模式,是政府中立模式,表现为法不禁止则可行,政府不会主动介入科技活动,该模式认为科技伦理是科技发展的桎梏;其二为欧洲模式,欧洲认识到了科技非理性对社会的冲击,采用的是审慎的监管原则,为科技发展制定规则。中国法治发展要实现重点领域和新兴领域立法,对人工智能的法律治理也是如此。以生成式人工智能为代表的科技新治理体系需要在中国式法治现代化基础上谋求一致的行动,国家发挥对人工智能为代表的科技调控功能成为必要的选择。国务院于2017年7月发布的《新一代人工智能发展规划》开启了人工智能法律治理的历程,2023年5月国家互联网信息办公室发布的《生成式人工智能服务管理暂行办法》则直接对标生成式人工智能的治理问题。在当代,治理本身的内涵较之以往已更为丰富,特别是公共权力机关在治理中的传统角色已经逐渐改变(20)郭锐:《人工智能的伦理风险及其治理》,《北京航空航天大学学报》(社会科学版)2020年第6期。。因此人工智能法律治理应该遵循中国现代法治精神来协调政府、个人与社会的关系,需要体现以“人民为中心”的制度面向,突出人工智能发展对保障和促进人民福祉的意义,体现法律治理的中国特色和法治自信。
生成式人工智能的法律治理不仅需要国内法治的一致行为和国家(地区)间的协同一致,而且需要反对以某些国家和地区为主导的局部利益导向的治理制度面向。因此人工智能治理的法律秩序建立需要依赖良好的基于法律共识的治理体系,实现法律对人工智能发展的秩序锁定,体现法律治理现代性特征的治理模式,并达成一致行动,这就是人工智能治理的共同体理念。以生成式人工智能为代表的新一轮科技革命让传统的法律科技治理规范不能解释和解决科技与社会现实之间基于现代科技发展造成的紧张关系。因此生成式人工智能法律治理要与中国法治现代化的价值判断相一致,具备应对人工智能发展风险的能力,并最终表现为生成式人工智能发展的价值向度明确化、规制制度具体化,明确生成式人工智能的伦理准则和道德要求,不得破坏社会公共秩序和危害国家与社会安全,规范和引导生成式人工智能技术的发展和应用。生成式人工智能法律治理需要“坚持在法治轨道上统筹社会力量、平衡社会利益、调节社会关系、规范社会行为,依靠法治解决各种社会矛盾和问题,确保我国社会在深刻变革中既生机勃勃又井然有序”(21)习近平:《在中共十八届四中全会第二次全体会议上的讲话(2014年10月23日)》,中共中央文献研究室编:《习近平关于全面依法治国论述摘编》,北京:中央文献出版社,2015年,第11页。。对现代性的人工智能治理解读要在对社会转型、结构改革等背景的深刻认识下进行,探寻其新的内涵,并据此对法律治理作出新的诠释和新的构想。
(三)法动力层面:AIGC法律治理应与中国法治现实制度需求相一致
在生成式人工智能发展中,传统的主流的法治观念和法治理念发生了不同程度的变化,法律价值和制度背后的价值理念在相互作用中引发社会变迁。就当前AIGC技术的应用来看,其缺乏完善的安全性标准,没有明确AIGC技术服务、内容传播与技术应用方面的法律责任制度。中国法治现代化对生成式人工智能的法律制度供给提出了新的要求,没有完善的AIGC技术相关立法与分级分类的监管手段,AIGC技术的安全性难以得到保障。传统的法治定型化模式下,社会和法律制度的变迁受控于法律实施的结果。人工智能治理的制度需求显然超越了现行法律的制度供给。而科技成果的应用往往会先于法律制度的变迁,一旦科技得到应用,科技带来的直接利益会让人利令智昏,从某种意义上讲,现代社会的风险是被财富这个肇事者制造出来的(22)参见乔治·瑞泽尔:《后现代社会理论》,第209页。。而生成式人工智能带来的便利性和实用性会麻痹人们对风险的认知,但是风险却必然存在。因此在生成式人工智能法律治理问题上必须要有法律伦理上的界限。科技是发展的利器,也可能成为风险的源头。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架(23)习近平:《在中国科学院第二十次院士大会、中国工程院第十五次院士大会、中国科协第十次全国代表大会上的讲话》,《人民日报》2021年5月29日,第2版。。人工智能的法律治理必须根植于中国法治的现实状况,并需要将治理嵌入到我国转型时期的法治发展特有的历史规律中去,以法律制度回应社会发展的需要,且需顺应中国法治现代化发展的规律,据此让人工智能的发展顺应当代法治所反映的社会生活。
法治的功能不限于规范现有的行为,调整现有的关系,也在于要引领科技、经济、社会发展和人们的思想行为(24)张文显:《“未来法治”当为长远发展谋》,《新华日报》2018年12月4日,第15版。。生成式人工智能的法律治理需要重视法律文本和法治观念的价值引领,谋求科技治理中的价值锁定,并据此实现科技治理的法治化。“法治是人类政治文明的重要成果,是现代社会治理的基本手段”(25)习近平:《论坚持全面依法治国》,北京:中央文献出版社,2020年,第183页。。因此以人工智能为代表的科技治理需要法律制度及其价值具有前瞻性的思索和构建,以便应对现代科技带来的可能风险。基于法治中国的现实情境,一方面需要促进法律规范和法律文献更能够有效融合法治对生成式人工智能为代表的科技法律秩序塑造的需求,并据此引导法治的转型,同时又要依赖具有现代内涵的法律制度,以法律制度的耦合机制应对人工智能背景下可能引发的科技风险。这既要反映对应然秩序的坚持,也要体现对成文法治的有效概括。
二、AIGC法律治理的定位型塑
(一)AIGC法律治理要契合法治现代化价值需求
法治现代化要求要发展负责任的生成式人工智能,生成式人工智能法律治理要满足现代法治的价值需求。我们从事法治建设、法治改革,要有未来意识、未来眼光,要把握科技、经济、社会发展的规律和趋势,把握国家治理体系和社会治理体系的现代化方向(26)张文显:《“未来法治”当为长远发展谋》。。在模型、数据、算力等要素高度迭代和演进中,生成式人工智能的治理需要充分认知其科技特性,思索其所引发的社会问题,既要看到其生成式技术对人工智能发展的支撑,也要看到生成式人工智能可能引发的问题。人工智能等现代科技成果的广泛应用,也引发了社会各界对人工智能的法律、伦理和社会影响的持续关注和激烈讨论,呼吁重视AI伦理,加强AI治理,践行科技向善,发展安全可信、负责任的人工智能(27)参见曹建峰:《人工智能治理:从科技中心主义到科技人文协作》,《上海师范大学学报》(哲学社会科学版)2020年第5期。。毫无疑问,生成式人工智能激发了人们对发展通用人工智能的积极性和想象力,当然人工智能本身也能带来良好的经济前景,但是也导致了可能的风险和挑战。生成式人工智能的发展所带动的社会转型必然引发科技制度的变迁,因此生成式人工智能法律治理现代化目标的实现需要法治现代化价值的锁定,并据此实现人工智能治理的价值指引。
在法治现代化语境中,生成式人工智能的法律治理需要保障以全社会的创新收益为基本点,保障治理制度在制度冲突解决、社会问题控制和科技公共管理等方面的作用,需要运用中国智慧,统筹创新和伦理、发展和安全、效益和风险的关系,打造负责任的生成式人工智能治理体系。在生成式人工智能风险的法律控制上,不仅仅要对制度事实进行确认,还要对社会的价值共识和根本规范进行构建。“生成式”风险治理体系的构建需要厘定现代法治如何实现风险治理目的及其科技风险预防义务的法治界限两个根本性问题。需要从单纯的“向后看”确认事实变化逐步发展到“向前看”,为未来提供规范指引(28)参见翟国强:《转型社会宪法修改的模式与功能》,《法学评论》2020年第2期。。
法治现代化是人类文明发展的风向标,基于生成式人工智能的安全发展,需要有全球安全和全球文明意识。生成式人工智能的发展应该符合人类文明发展的方向,比之形式法治,实质法治更加突出个人在社会生活中的自由与权利,更加关注国家所确立的个人合法愿望与尊严可能得以实现的经济的、政治的、社会的与文化的条件,更加注重维护和实现社会公平正义,因而更加能够维护法治的核心价值(29)参见公丕祥:《习近平的法治与国家治理现代化思想》,《法商研究》2021年第2期。。2023世界互联网大会乌镇峰会人工智能赋能产业发展论坛发布了《发展负责任的生成式人工智能研究报告及共识文件》,标志生成式人工智能治理迈出坚实的一步,代表着目前法治现代化对生成式人工智能治理最大的共识。生成式人工智能的治理需要满足人工智能为代表的科技对现代法律制度的功能需求,妥善处理人与社会、人与自然之间的关系,发挥法律对科研的价值引领作用。“人类要牢牢把握科技发展的历史轨迹,避免科技发展改变人的‘主体化’属性”(30)罗亚海:《人工智能“未来法治”语境下财产权创新研究》,《江汉论坛》2020年第4期。。同时,需要充分审视生成式人工智能发展对传统社会结构、社会主流价值理念、人伦关系和社会关系的颠覆性影响,在尚未对人工智能发展的未来风险充分预知的情况下应予以较多限制,甚至应该划定禁止活动的区域,随着认知的成熟而逐渐减少限制或者予以改变。确立以尊重人的存在和人格尊严、保障人的健康和人类整体利益、安全为最终目标的治理原则。
(二)AIGC法律治理要有充分的法律风险应对制度
生成式人工智能被认为正在引发人类社会的知识革命(31)刘艳红:《生成式人工智能的三大安全风险及法律规制——以ChatGPT为例》,《东方法学》2023年第4期。。从风险的角度而言,包括“生成”准备中的数据风险、运算中的算法歧视风险,生成内容呈现中的财产权益风险。具体到法律治理层面可以概括为应用数据对国家安全的风险,应用政务数据面临的行政监管风险,应用个人数据导致的侵害个体权利风险。这必然要回答生成式人工智能风险的法律规制问题。“人类之所以需要法治,就是要思考科技可能带来什么样的非理性的后果,如何通过法治降低科技发展可能带来的风险与非理性,如何通过宪法控制科技对人类文明、尊严与未来的威胁”(32)韩大元:《当代科技发展的宪法界限》,《法制现代化研究》2018年第5期。。从生成式人工智能法律治理的角度而言,法律制度需要实现促进人工智能对社会发展的作用和预防其可能引发的风险两层目的,风险规制成为当前最大的共识。当然人工智能带来的可能风险在不同的发展阶段,其重点问题和风险呈现也是不一样的。在国家转为以经济建设为主要任务的阶段,科技治理体现为对知识传播和吸收以及保障知识转化为经济的可能的引导,在风险社会面向上,科技治理体现为国家通过制度体系系统构建科技创新体系。从制度事实上来看,“中国正在步入风险社会”(33)王旭:《论国家在宪法上的风险预防义务》,《法商研究》2019年第5期。。
面对以人工智能为代表的飞速发展的现代科学技术,人类必须高度关注技术对社会关系和社会观念所带来的巨大冲击,同时充分利用法律的引导、规制和促进功能,实现法律与技术进步的良性互动(34)赵万一:《面对人工智能,法律应该做什么》,《光明日报》2019年5月12日,第7版。。在当下阶段,生成式人工智能发展带来的挑战体现为基于“社会-技术”双重关系下的持续和包容性发展。科技风险治理经历了基础性研究和共识技术支持、注重科技能力创新和推动“社会-技术”一体化三个阶段(35)参见杨洋:《科技创新治理的历史演进与治理难题》,《科技中国》2021年第4期。。对生成式人工智能而言,“既然在大数据人工智能时代,人的生活与行动开始被智能化算法所‘绑架’,‘人’的主体性地位逐渐丧失,并实现人与技术的‘和解’,而‘和解’的前提是人工智能技术中可解释性内容的增加,那么就应该借此机会强化对人工智能技术中可解释性内容的保护,实现技术和监管的相互配合,并为司法实践提供外部助力”(36)刘艳红:《生成式人工智能的三大安全风险及法律规制——以ChatGPT为例》。。这体现在生成式风险应对机制上,既要关注其对社会发展的助益作用,同时要做好必要的风险规制。
工业文明征服了自然,形成了“人化自然”,这种改变带来了风险,从本质上讲,风险规制又需要根植于人类社会。人工智能风险控制与科技治理面向相一致,在人工智能风险治理中,法治需要国家承担起风险预防的义务,需要承担维护国家安全和公民权利的责任,保障人的基本价值和国家治理能力和治理体系现代化目标的实现,在权利保护和风险控制中实现平衡。“强调赋予公民权利也并非是毫无限制的,过度赋权有可能会阻碍生成式人工智能的发展。所以必须寻找公民权利与人工智能发展的一个平衡点”(37)孔祥承:《国家安全视阈下生成式人工智能的法治应对——以ChatGPT为视角》,《法治研究》2023年第5期。。生成式人工智能的风险预防包含“监测—评估—控制”、“反思—协调—学习”、“处置—转移—分散”和“完善—发展—容忍”四种范式(38)参见王旭:《论国家在宪法上的风险预防义务》。。生成式人工智能的风险治理需要在充分审视现代科技的基本特征和表象的变化基础上,实现切实契合科技发展规则的现代性流变。根据通行的风险理论,法律风险理论需要包含可容忍风险、可预防风险和需要规避的风险三个层次。人工智能背景下科技风险治理要体现制度的层次性,构建“科技创新活动中人与社会、人与自然、人与人关系的思想和行为准则,其规定了科技工作者及其共同体应恪守的价值观念、社会责任和行为规范”(39)朱步楼:《加快构建科技伦理治理体系》,《中国社会科学报》2021年3月30日,第4版。。以现实风险为基础的法律赋能本质上体现的是风险转化问题,科技自身的创造力需要遵守法律规范,保证新时代科技的创新治理与社会观念、意识认知相一致。
(三)AIGC法律治理要塑造新的价值秩序
现代法治需要从价值判断入手,构建新的价值秩序,引领生成式人工智能的价值评价体系和风险预防体系。针对人工智能法律治理,“要深度参与全球科技治理,贡献中国智慧,塑造科技向善的文化理念,让科技更好增进人类福祉,让中国科技为推动构建人类命运共同体作出更大贡献”(40)习近平:《在中国科学院第二十次院士大会、中国工程院第十五次院士大会、中国科协第十次全国代表大会上的讲话》。。数字科技发展不平衡、规则不健全、秩序不合理等问题日益凸显,不同国家和地区间的数字鸿沟不断拉大,现有网络空间治理规则难以反映大多数国家的意愿和利益(41)参见张文显:《习近平法治思想的理论体系》,《法制与社会发展》2021年第1期。。营造科技公共安全体系,科技治理中的安全意识和应急机制相较于目前应有“质”和“量”的提升。科学技术的不断发展,日益把全人类联系成命运与共、休戚相关的一个整体(42)王亚军:《习近平关于科学技术重要论述的多维视域》,《中共南宁市委党校学报》2021年第2期。。在生成式人工智能背景下社会呈现出从“需求型团结”到“科技焦虑型团结”转换,安全价值理念将替代平等价值理念成为主流。任何一条宪法规则都应当被当作维护和促进“人类共同生活”的原则(43)江国华:《宪法哲学导论》,第262页。。法治的现代化同样有这样的价值需求。
在科技文明、特别是人工智能等新科技发展的语境中,科技治理规则的构造需要从秩序观向风险观转化,需要实现从“财富—分配”的逻辑向“风险—分配”的逻辑转化,反过来这需要借助新的价值秩序构造来规避生成式人工智能可能的风险。生成式人工智能的法律治理需要充分关注法治现代性的价值诉求,人工智能的法律治理首要的美德是公正而不是效率,这根源于公共权力的公共性特征、人民的基本权利框架和社会的公共理性。
规范的价值表现于国家、社会和人民的利益的维护,这不仅体现了法治共同体规则的意义,也体现了共同体的价值追求,生成式人工智能的法律治理体系要体现法治的历史规律,在表达法治的现实存在的基础上实现法律秩序价值引导。就生成式人工智能而言,人们的生活会因为智能算法而受到绑架,人的主体地位具有逐渐丧失的可能,个人隐私权等权利会因为数据使用而受到侵害,生成式人工智能创造的财产性权益如何得到保护,数据应用中的国家安全等在其治理中需要呈现应有的价值秩序。作为科技治理的生成式人工智能问题要当然地浸润着公共精神,因此公共利益应为生成式人工智能治理的首要的价值目标。“人类社会的共同价值在法律共同体的视野下当然的表现为现代法治文明所具有的精神内涵,即使在不同语境下,也应该坚守法律最低伦理的目标”(44)罗亚海:《法律共同体的中国特色素禀及其宪法构造》,《法学论坛》2018年第6期。。在人工智能发展中的绩效价值、人的基本权利保护和人类价值维护中做出“差序”排列,这种目的的实现需要借助法律机制来实现价值引导,用符合现代性需求的制度引导人工智能发展制度自身具备道德的合理性,从而保证法律规范价值的实现。
三、AIGC法律治理现代化的体系构思
(一)AIGC法律治理中法治现代化理念需要实现制度转化
生成式人工智能发展过程中始终伴随风险性、不确定性、用途多重性及可变性等拷问,因此生成式人工智能发展需要在科技的智慧性和自主性背景下维护人的尊严,增进人类福祉。传统科技立法制度难以满足对当下时代科技发展的涵盖和社会现实的呼应,需要在人工智能发展中的现代性体系中重新思考人工智能发展的新的制度规则,引导法律治理的一致行为和社会公众的广泛参与,借此凝聚社会共识,以此实现国家对人工智能发展的“优良治理”。现代科技发展语境下的科技是服务于人类的,不能超越这个底线,同时要看到在现代科技发展中人的性质的改变,法律制度的构建不能再一味的以传统生物规则为评判的标准,因为“根据现代生物学,最早出现的晚期智人在解剖学上与现代人毫无区别”(45)韩水法:《人工智能时代的人文主义》,《中国社会科学》2019年第6期。。而事实上,“生成式人工智能的智能化、类人化特性逐渐凸显,开始超越算法的工具属性而凸显主体性潜能”(46)张欣:《生成式人工智能的算法治理挑战与治理型监管》,《现代法学》2023年第3期。。人的尊严体现于人的主体性价值,这就要求应该以人的内在价值为基础,避免将人作为“人”的价值外化或者工具化,而生成式人工智能可能会导致这种情形发生。
人工智能的法律治理首先要融入“共治”的理念,既要着眼人工智能的社会意义,又要体现广泛的社会性和人的固有价值,这种共识需要转化为具体的法律制度。学界以往的研究基本局限于科技对法律的作用、法律对科技的反作用这样一种线性思维上,而当科技进步逐渐主导我们的生活、主宰我们的世界的时候,这种思维方式和理论模式显然已经失效,代之而起的是法律和科技共治模式(47)参见张文显:《构建法科共治、法德共治、多元共治的法律秩序》,《北京日报》2020年8月3日,第9版。。“未来生成式人工智能服务应用的治理应当是社会各方共同参与,技术治理行业自律先行,在总结经验凝聚共识的基础上建立有效的治理机制”(48)宋华健:《论生成式人工智能的法律风险与治理路径》,北京理工大学学报(社会科学版),https://doi.org/10.15918/j.jbitss1009-3370.2023.1621。。生成式人工智能治理的现代化必须认识到人的性质的改变可以容纳哪些科技要素,得以让传统维护人的尊严制度体系接受创新,无论是关于人工智能是否要赋予其主体的争论,还是关于人工智能对人类隐私权利侵权的担忧,都是传统制度体系所不能涵盖的,这需要法律规范对人的主体性特征因人工智能而发生的变化作出回应。我们要以人的福祉为首位原则,发展科技的根本目的是增进人的福祉,这与我国“以人民为中心”的发展思想相一致(49)雷瑞鹏:《科技伦理治理的基本原则》,《北京日报》2020年5月11日,第9版。。
生成式人工智能发展中需要尊重、促进人的基本自由及人的尊严,要确保相称性和不损害,保障安全和非歧视,具有可持续性,能够有效保护隐私权和数据,可以实现人类监督和决定,算法规则的透明度和可解释性等问题引发了以人工智能为代表的法律制度背景的变迁。社会变迁之主要内部来源之一,是科技及其在工业和社会技术中的大量运用(50)伯纳德·巴伯:《科学与社会秩序》,顾昕等译,北京:生活·读书·新知三联书店,1991年,第245页。。生成式人工智能治理体系的构建需要在“应然”与“实然”上做出价值判断,在治理上实现伦理制度补给,在斟酌生成式人工智能特殊技术背景的基础上构建风险防范体系,体系的构建需要以不确定法律概念为载体,在风险及损害后果的盖然性上做出判断,在“足够可能”和仅仅构成“可能性”上做出价值斟酌,引入“公共利益”、“人的尊严价值”和“重大风险隐患”等不确定因素。对“剩余风险”做出切实的判断,在促进生成式人工智能对数字社会意义上思索人性尊严的相对化,并以“全民应该承担的社会合理负担”和生成式人工智能的挑战的平衡中实现制度设计。
(二)基于AIGC法律治理的内涵拓展
生成式人工智能的自主性特征必然要需要法律治理体系的增容,因为它的发展事实上推动了法律体系和研究方法的改变,这导致现有法律制度对传统自身体系产生冲击,其引发的社会变迁最终表现为法律治理对法律制度的需求,这种嬗变让现代法治从政治、经济属性拓展到更为关注科技属性。初级工具时代的科技很难和法律制度发生勾连,科技的探索仅仅是初步的延伸人类身体的技能;在机器工业时代,协作劳动承载了团体意识,科技具有了团体属性,客观上引发了不以身份塑造的阶层,导致以公法体系的诞生。这个时期公法制度的主要使命是完成政治权力分配和人的权利保障之间的关系,并延伸出调整以市场为载体的经济关系。工业革命带来的冲击和变化不仅与科学技术的发展紧密相连,也必然要求包括法学在内的社会科学进行不断变革才能与之相匹配(51)刘宪权:《对人工智能法学研究“伪批判”的回应》,《法学》2020年第1期。。以人工智能为代表的科技革命致使科技法治的属性泛化,人的尊严如何维护、科技风险如何控制、甚至法学理论的研究范式和研究方法都面临新的追问。以人工智能法律主体资格等一系列问题将人工智能治理制度创新拉上了日程。当然科技发展的宪法应对在理论界不是一个新的话题(52)早期相关论述有韩大元:《论现代科学技术对宪法学的影响》,《科技与法律》1996年第1期;韩大元:《简论现代科学技术价值与宪法价值的冲突》,《法学家》2000年第3期;何士青、段勇:《论科技异化的立法应对》,《河南财经政法大学学报》2013年第3期。,生成式人工智能法律治理需要一个交叉法学的视野。对公法角度而言,虽然生成式人工智能具有巨大的发展潜力,人工智能发展的今天,“宪法的价值体系面临人权消解、法治系统的权力失衡和民主新可能的问题”(53)杨学科:《人工智能的宪法挑战和宪法弹性回应》,《青岛科技大学学报》(社会科学版)2021年第3期。,需要公法制度作出应对。对部门法而言,在生成式人工智能发展中人格权及财产权权益的认定和保护需要现有法律制度实现增容。
生成式人工智能较之传统科学技术引发的系列问题让治理制度面临前所未有的现实需求性和紧张性。法律解释的方法已经不能够满足科技发展对法治的需求,而是需要进行人工智能的立法补给,以法治现代内涵为基础价值体系来容纳新价值形式,并籍此实现法治对新科技发展的价值意识的凝聚。生成式人工智能的法律治理需要构建科技发展的特定价值体系,“人类中心主义”作为法治的基本价值需要在治理立法中得到体现,这包括人工智能的法律主体资格、生成式人工智能可能的数据歧视问题、人工智能的侵权责任承担、人工智能在法律实践中的应用和风险如何控制等问题。但是从人工智能发展的事实以及对法治需求的角度而言,则需要更为宏观的叙事和更为深邃的视野,需要构建公法和私法叠加的科技治理体系。
生成式人工智能的治理首先要着眼现有法律制度对相关问题的“容纳”关系,充分思索现有的问题有哪些可以涵盖于现有法律制度,唯有现有制度不能够解决或者不能够以法律解释等方式予以解决的情形下方可探讨治理制度的创新。当然人工智能发展中的科技伦理规则和科技风险控制制度的法律构建也是人工智能治理的重要内容,需要法律制度实现有效的拓展。生成式人工智能的发展规则和技术手段对人的基本权利和财产权将会产生连锁的反应,这种反应是两面性的,很多现实案例告诉我们,特别是负面性的挑战是连锁性的。事实上人工智能发展已经具有了可能压制人的风险,其发展的风险需要法治的体系构建和价值体现,人工智能科技治理的法律制度需要确立其发展制度的基本原则,要规范科技研究的手段,禁止侵犯利用成果侵犯公民的基本权利,明确人工智能科研自由的边界,甚至禁止某些数据训练和算法规则和算法领域的应用,以符合服务于人的尊严和人类福祉的目的。
(三)AIGC法律治理中的伦理规则补给(54)党中央、国务院高度重视科技伦理建设,习近平总书记在中国科学院第二十次院士大会、中国工程院第十五次院士大会、中国科协第十次全国代表大会上讲话指出,科技是发展的利器,也可能成为风险的源头,要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架,《关于加强科技伦理治理的指导意见》中也充分强调科技发展带来的风险挑战。
人工智能发展中的非理性尚不能作出最终的判断,因此,寻求伦理规则的重构具有现实意义,要借助人工智能伦理将生成式人工智能打造成伦理的人工智能。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德(55)习近平:《加强领导做好规划明确任务夯实基础推动我国新一代人工智能健康发展》,《人民日报》2018年11月1日,第1版。。既然社会现象中不存在单一的决定因素,因此在社会总体发展上,就不能只考虑物的因素,还要把人的因素考虑进去(56)陈喜贵:《维护政治理性——雷蒙·阿隆的政治哲学》,北京:中央编译出版社,2004年,第234页。。这需要基于生成式人工智能治理中的伦理规则来保障实现。总体上讲,生成式人工智能需要促进人类福祉就是最大的伦理,“人工智能技术应用的伦理边界取决于人这个主体”(57)唐代兴:《从AlphaGo到ChatGPT:人工智能的伦理边界何在?》,《哲学分析》2023年第6期。。对于“人类福祉”的认识应该具有更广阔的视野,需要有人类命运共同体意识,要超越国家、地域和意识形态的约束,并需要将其凝练为人类的一种“普遍权利”,而这种权利的普遍实现,需要借助具体伦理规则制度的构建。
基于中国法治“以人民为中心”的价值基础,增进人工智能发展中的伦理规则嵌入,让以人工智能为代表的科技风险得到合理的安排和控制,法律在风险应对中要对风险作“类型化”的区分,需要避免的风险、需要容忍的风险在法律制度上要作出合理安排,并通过具体的部门法科技法律伦理规则的构建予以变通和实现。“要共同完善数据治理规则,确保数据的安全有序利用;要促进数字经济和实体经济融合发展,加强数字基础设施建设,促进互联互通;要提升数字经济包容性,弥合数字鸿沟”(58)《习近平出席二十国集团领导人第十四次峰会并发表重要讲话》,《人民日报》2019年6月29日,第1版。。对以生成式人工智能为代表的新科技而言,法的伦理规则意味着人工智能发展中的道德前瞻性和道德约束性,而治理的法律规则可以表述为个人主义的道德共同体呈现,法律伦理规则的凝练需要体现法治在维护社会公平和发展中的程序公正。主体在法律价值中居于核心地位,因此,生成式人工智能伦理规则的构建首要的是保障个人主体价值的实现。伦理规则的抽象最终需要借助法律制度安排来实现。以法律制度作为科技共同体的规则方式,需要在该问题上对法律与科技关系进行现代性的思考,立法的历史和科技的历史具有内在的对应性,科技价值需要实现和治理体系价值的平衡,科技的目标要符合法治的价值诉求,并依据具体的部门法规则来保障实现。
伦理规则的抽象最终需要实现其从理念向法律制度的转换,通过治理制度实现转换和制度安排。科技治理规则的发展具有历史的阶段性特征,早期工业革命和现代人工智能时代的科技革命具有明显的不同时代特征,但是根本上讲科技伦理规则是人的道德规则,而不是机器的伦理规则,规则的最终目的是约束人的行为而不是其他。因此伦理规则要从生成式人工智能数据训练和算法监管等方面约束技术生成者的行为入手,来保障和追求每个人的权利和自由,维护每个人的尊严和平等。同时,人工智能的法律伦理要体现道德共同体属性,并以此为媒介改变人们在生成式人工智能技术使用上各自为政的现实,形成共同的道德语言,重新构造人工智能发展服务于人类整体利益的规则。现代的法治文明已经认识和维护了这一原则,但是在以人工智能为代表的科技发展的今天,需要在厘定生成式人工智能伦理规则需求基础上实现制度补给。风险预防义务的背后是人类社会的危险世界观(现代性)向风险世界观(第二现代性)转变的历史过程(59)参见王旭:《论国家在宪法上的风险预防义务》。。基于中国法治现代化“以人民为中心”的价值基础,“可通过调整合理使用制度与强化公共领域保留原则,使得人工智能对公共利益的剥削以人们对人工智能生成物的广泛获得与利用作为补偿,实现公共利益的损益相抵”(60)林秀芹、郭壬癸:《人工智能对知识产权正当性理论的挑战与应对》,《知识产权》2023年第11期。,增进人工智能发展中的伦理规则嵌入,让人工智能发展的风险得到合理的安排和控制,并通过治理中的法律伦理规则实现价值引领,让科技发展能够满足现代法治的需求,体现出应有的数字公平。
(四)AIGC法律治理中的制度耦合
“社会系统与技术现实之间的结构性耦合变得习以为常”(61)参见尼克拉斯·卢曼:《风险社会学》,孙一洲译,南宁:广西人民出版社,2020年,第148页。。生成式人工智能的治理体系应该包括完善的制度规范、健全的治理机制、强化伦理监管、细化法律规则和伦理审查规则以及规范科学研究等几个方面。AIGC的法律治理,首先要构建生成式人工智能的技术应用的相关制度。法治现代化谋求开放的理论体系,注重治理主体的多元化,在科技治理中,法律制度、伦理体系和道德观念都要发挥重要作用。人工智能治理必须协同多元主体,融合多元价值,加强全球合作与对话,构建平衡、包容的人工智能治理体系(62)参见王硕:《人工智能呼唤更好“治理”》,《人民政协报》2021年12月9日,第7版。。AIGC的法律治理需要新的立法来应对生成式所产生的新问题,要基于中国国情,建立规范生成式人工智能技术应用领域的法律法规。要明确生成式人工智能的责任主体和责任方式,凸显数据安全和知识产权保护,保证生成式人工智能的良法治理。因此,“法律创制必须体现和反映人民的根本利益”(63)参见李涛:《国家治理现代化的改革动力与法治路径》,《广东社会科学》2021年第2期。。现代法治文明已经认识和维护了这一原则,在生成式人工智能为代表的新科技时代,针对现代科技发展的新特征,谋求现代化的法律治理应该重新构造人工智能乃至整个科技体系服务于人类整体利益的规则,确立人类优先和安全优先原则。法律的创制要以宪法为依据,其最终目的在于保障人民的福祉,AIGC的法律治理要构建应对生成式人工智能的未知风险制度。法律是控制风险的重要手段,生成式人工智能的治理现代化需要发挥以宪法为基础的科技治理法律体系的完善。通过科技法治和科技伦理规则的构建指引我们以“社会多元共治、动态风险防控为理念,适应当代社会科技发展速度带来的治理需求,形成包含伦理道德、政策、法律、技术在内的多层次伦理和法律治理框架”(64)参见张文显:《习近平法治思想的理论体系》。。生成式人工智能的法律治理要依托《生成式人工智能服务管理办法》,并有效结合《网络安全法》、《数据安全法》、《网络信息内容生态治理规定》、《互联网信息服务算法推荐管理规定》、《个人信息保护法》等新兴领域法律法规,依托《民法典》等保障公民权益,解决突出问题。生成式人工智能风险治理中,法律风险体系既需要有效应对和规避风险,也需要一定程度的风险容忍机制。
AIGC的法律治理需要加强对生成式人工智能生成物的监管。生成式的算法设计、模型构建、数据训练的设定,以及到生成物的使用,都需要法律的监管。以生成式人工智能的训练数据真实性、客观性、准确性、公平性为事前审查内容,实现生成式人工智能的安全性、可见性和可追责性价值引领。以数据纠正、数字正义和歧视规避等为事中监督的主要内容。以生成式人工智能的契约责任设定、行政惩罚、刑事责任追究体现事后监督管理。AIGC法律治理致力谋求生成式人工智能风险的责任制度要体现科技诚信机制、受试者和消费者利益保护机制。这对科技发展中的透明性提出更高的要求,让科技成果的运用切实满足制度建设的根本目的,避免无效科技对人类的无诉性侵害。同时还要构建科研主体的科技道德自律机制,通过科技命运共同体的构建,借助法律治理体系凝练风险治理中的现代性共识,达成因行为协同一致的制度实效。
生成式人工智能的法律治理需要构建公平制度。转型期的中国必须始终高度关注和重视解决社会公平正义问题,这是国家治理现代化和法治发展面临的重大议题(65)参见公丕祥:《中国特色社会主义法治道路的时代进程》,《中国法学》2015年第5期。。立法上需要构建人工智能发展的“均等化”使用机制和公众参与机制。“对由于制度安排不健全造成的有违公平正义的问题要抓紧解决,使我们的制度安排更好体现社会主义公平正义原则,更加有利于实现好、维护好、发展好最广大人民根本利益”(66)习近平:《切实把思想统一到党的十八届三中全会精神上来》,《人民日报》2014年1月1日,第2版。。科技发展不能只体现少数人需要,而是要着眼建立普遍多数人的受益机制,并将其凝练为主要的伦理规则。这需要构建公民自主、社会需要和国家价值中立的机制耦合,需要审视传统科技规则中自我校正机制所不能涵盖的风险。对个人而言,既需要体现公众对科学发展的理解和信任机制,也需要满足个体需要的公众参与机制,对社会而言,既需要充分体现科技共同体、人文共同体和广泛的社会共识回应,也需要国家在坚守科技发展的“价值中立”的基础上,建立科技发展的伦理监督机制,实现法律治理、国家监管和公众监督的有效衔接。