APP下载

论生成式人工智能应用风险的法律规制

2023-02-27宋保振秦瑞标

上海政法学院学报 2023年6期
关键词:伦理人工智能智能

宋保振 秦瑞标

无论从研究热度还是进展速度看,以大模型为代表的生成式人工智能已成为当下最为火热的科技领域。①参见达摩院:《2023 十大科技趋势》,2023 年1 月,第3 页。本文中所指的生成式人工智能均指利用大模型技术的人工智能模型。从人工智能对话模型ChatGPT-3.5 在自然语言仿真度和功能性层面的超越性表现,到迭代后的多模态模型GPT-4 在图像识别、内容创作和学术表现等领域能力的显著提升,生成式人工智能正引领全球范围内新一轮的人工智能技术发展浪潮,成为国内外科技巨头竞相涌入的新赛道。②根据科技部新一代人工智能发展研究中心发布的《中国人工智能大模型地图研究报告》,从全球大模型发展态势来看,美国谷歌、OpenAI 等机构不断引领大模型技术前沿,欧洲、俄罗斯、以色列等越来越多的研发团队也投入大模型的研发。中国大模型的各种技术路线都在并行突破,特别是在自然语言理解、机器视觉、多模态等方面,出现了多个在行业有影响力的大模型。据不完全统计,到目前为止,中国10 亿级参数规模以上大模型已发布了79 个。近日,包括百度(文心一言)、腾讯(混元助手)、华为(盘古)、阿里(通义千问)、商汤(日日新SenseNova)、科大讯飞(星火)、谷歌(Bard)已陆续发布了自身的生成式人工智能应用,奇虎360、亚马逊、Meta 等科技巨头及中早期科创企业也正争相推进相关的产品布局和应用探索。

作为人工智能发展历程的重要里程碑,生成式人工智能在表现形式、作用逻辑及应用场景等方面对传统人工智能进行了全方位革新。一方面,生成式人工智能不仅带来了内容生产与传播的范式变革①参见喻国明:《生成式人工智能浪潮下的传播革命与媒介生态——从ChatGPT 到全面智能化时代的未来》,《新疆师范大学学报(哲学社会科学版)》2023 年第5 期。,其在工业设计、药物研发、材料科学、合成数据等多样化行业、场景中的广阔应用前景还具备着赋能实体经济及提升生产力的无限潜能②参见陈永伟:《超越ChatGPT:生成式AI 的机遇、风险与挑战》,《山东大学学报(哲学社会科学版)》2023 年第3 期。,甚至被人们誉为带来了通用人工智能(AGI)的曙光。另一方面,以大语言模型(LLM)为代表的生成式人工智能应用在运行过程中所暴露出个人信息的不当泄露、虚假内容的规模传播、日渐逼真的信息欺诈、算法歧视的伦理失范等各类潜在风险和弊端接踵而来,让生成式人工智能的发展与应用深陷人类文明“潘多拉魔盒”的舆论争议。为此,中共中央政治局于2023 年4 月28 日召开会议强调,“要重视通用人工智能发展,营造创新生态,重视防范风险”。此时,如何构造大模型人工智能治理的新秩序,也自然成为法学应对数字科技新挑战的重要课题。鉴于此,本文首先从生成式人工智能的独特性出发,挖掘其运作的内在逻辑;继而围绕数字时代的社会治理目标,分析该生成式人工智能可能存在的治理风险;最后,结合该风险,以及已有学者展开的研究分析,构建生成式人工智能应用风险的法律规制路径。

1.4 统计学分析 资料数据采用SPSS 22.0统计学软件进行分析,计量资料采用均数±标准差表示,进行t检验;计数资料采用例和百分比[例(%)]表示,进行χ2检验,P<0.05为差异有统计学意义。

一、生成式人工智能的时代超越性

一般来说,人工智能模型可以大致分为决策式人工智能和生成式人工智能(AIGC,Artificial Intelligence Generated Content)两种。前者通过学习数据中的条件概率分布,从而在应用场景中对一个样本归属于特定类别的概率进行判断、分析和预测,主要应用于人脸识别、智能推荐、风控系统等决策领域;后者通过学习数据中的联合概率分布,从而在对数据中多个变量组成的向量概率分布进行归纳总结的基础上,创作模仿式、缝合式的内容,主要应用于生成新的文本、图片、音视频等创作领域。过往的研究主要围绕决策式人工智能自动化决策中所存在的“算法歧视”“大数据杀熟”等议题展开,而对于生成式人工智能的关注较少。但随着数据、算法、算力的持续突破,生成式人工智能已变得愈发成熟,并展现出典型的时代超越性。

(一)AIGC 的发展历程

人类希望将机器用于内容生成创造的想法可追溯到1950 年艾伦·图灵(Alan Turing)提出的“图灵测试”,也即人们提出通过机器是否能够模仿人类思维方式来“生成”内容与人实施交互作为判定机器是否具有“智能”的标准。③参见中国信息通信研究院、京东探索研究院:《人工智能生成内容(AIGC)白皮书(2022 年)》2022 年9 月,第1 页。自“人工智能”概念于1956 年达特茅斯会议中被正式提出后,大量研究者陆续对人工智能生成内容进行探索并取得了瞩目的成就。在人工智能的演进历程中,AIGC 的发展可以大致划分为三个阶段。

其一,早期萌芽阶段(1950s—1990s)。该阶段的AIGC 研发仅限于小范围实验。人工智能相关研发亦主要围绕机器的逻辑推理能力展开,且在自然语言处理和人机对话技术层面获得了一定程度的进展。如智能生成音乐“依利亚克组曲”(Illiac Suite)、人机对话机器人伊莉莎(Eliza)、语音控制打字机“坦戈拉”(Tangora)等作品,但受制于此阶段计算机的算力不足、研发的高昂成本、研发周期较长及实用性差而难以商业变现等因素,该阶段AIGC 的发展未能取得重大突破。①参见中国信息通信研究院、京东探索研究院:《人工智能生成内容(AIGC)白皮书(2022 年)》2022 年9 月,第2 页。

3'RACE扩增产物胶回收产物纯化后进行琼脂糖凝胶电泳,可见一大小约800 bp左右的清晰条带(图2)。

其二,沉淀积累阶段(1990s—2010s)。该阶段的AIGC 已从实验性向实用性逐渐转变。伴随深度学习算法的提出,图形处理器、张量处理器的算力提升以及互联网中数据规模的快速膨胀,AIGC的智能及感知能力得到进一步提升,并逐渐开始与相关的应用场景和产业结合落地,能够实现智能撰写小说、进行同声传译等功能。但受制于算法瓶颈,人工智能模型所生成内容的错误和漏洞较多而无法很好地完成相关任务,实际应用效果依然有限。②同注①。

第三,智能生成内容具有幻觉性(AI Hallucination)。训练数据中的数据噪声、智能算法于内容生成时解码策略的随机性及面对不确定概念时基于统计逻辑的推理策略,共同导致了智能系统输出无中生有、恶意拼凑、误导性言论等信息。④参见莫祖英、盘大清、刘欢等:《信息质量视角下AIGC 虚假信息问题及根源分析》,《图书情报知识》2023 年第4 期。例如,ChatGPT 杜撰《华盛顿邮报》关于法律教授被女学生指控性骚扰的新闻报道,编造虚假期刊文章支持其关于健康医疗建议的回答,错误地将澳大利亚的一位市长列为一起海外贿赂丑闻中的犯罪方等“一本正经地胡说八道”的例子,便是人工智能幻觉的真实呈现。尽管该等幻觉性信息在事实认知表述、复杂逻辑推理、幽默情感理解、对话逻辑一致等方面存在明显的问题或差错,但当其与富有条理且逻辑清晰的自然语言表达相结合并出现在大众常识难以察觉和分辨的专业性领域时,则具备极强的欺骗性。

其三,快速发展阶段(2010s-至今)。该阶段为人工智能蓬勃发展的黄金时期。生成型对抗网络(GAN)、扩散模型(Diffusion Model)、生成预训练变换模型(GPT)等代表性算法的提出和迭代更新,极大地丰富和提升了智能生成内容的表现形式和逼真程度。人工智能的逻辑推理能力不断增强,智能能力亦由运算向感知拓展。在自然语言处理、视觉识别,文本、图片和音视频生成等关键领域取得了令人难以置信的进步;在语音识别、语音合成、机器翻译等感知技术的能力甚至逼近人类极限。③参见丁磊:《生成式人工智能:AIGC 的逻辑与应用》,中信出版集团2023 年版,第266 页。同时,智能技术在产业端的应用也呈现出百花齐放样态,微软、英伟达、DeepMind、OPEN AI 等各大科技公司纷纷面向市场推出了诗歌创作、自动生成图片、视频、人机对话模型等各类应用。

当下,因更大规模、更多种类的训练参数,更复杂、高效的模型算法以及更强大、稳定的算力支持,大模型已成为生成式人工智能的主要发展方向。以ChatGPT 为例:在数据层面,ChatGPT-3.5拥有1 750 亿训练参数,且相关语料来源于不同话题领域的各类书籍、网页及社交媒体,而迭代后的ChatGPT-4 则加入了图像、视频、语音等多种数据类型,并将训练参数规模扩展至100 万亿。构筑于大模型海量参数下的ChatGPT,展现了区别于传统人工智能对话模型的表达自由度和准确度。其不仅打破了对话中知识范围的限度和圈层,将话题覆盖面延伸至宽阔的人类社会实践边界,并且能够以更细粒度的方式回应用户需求指令,从而实现更加细腻和精准的知识链接和匹配。④参见喻国明、苏健威:《生成式AI 浪潮下的传播革命与媒介生态——从ChatGPT 到全面智能化时代的未来》,《新疆师范大学学报(哲学社会科学版)》2023 年第5 期。在算法层面,ChatGPT 通过生成式预训练转换模型(GPT)及人类反馈强化学习技术(RLHF),以大数据预训练加小数据微调的方式,对人类认知机制进行深度模拟,极大地提升了智能系统对人类命令的正确理解和执行能力,以及智能生成内容表述的关联度、流畅度与逻辑性。⑤参见朱光辉、王喜文:《ChatGPT 的运行模式、关键技术及未来图景》,《新疆师范大学学报(哲学社会科学版)》2023 年第4 期。在算力层面,ChatGPT 使用的GPT-3.5 模型在微软云计算服务Azure AI 的超算基础设施(由V100GPU 组成的高带宽集群)上进行训练,总算力消耗约3 640 PF-days(即按每秒一千万亿次计算,运行3 640 天)。⑥同注⑤。在大模型蓬勃发展的背景下,模型训练和运作推理将需要更多的算力支撑,而所需要的算力也确实呈现出规模化增长之势。⑦在2023 年7 月17 日的中国算力大会新闻发布会上,工信部副部长张云明表示工信部将会于近期出台关于推动算力基础设施高质量发展的政策文件,进一步强化顶层设计,提升算力综合供给能力。https://www.thepaper.cn/newsDetail_forward_23880459,2023 年7 月20 日访问。

(二)生成式人工智能大模型的独特属性

尽管自互联网诞生以来,虚假信息便一直是相伴左右而难以治愈的顽疾。但在过往,其生产源头可控、生产能力有限、产出频次受算力的制约较大,公权力机关通过出版许可、溯源管理、账号实名、限制转发等治理模式可以较为有效地控制有害信息传播。⑥参见袁曾:《生成式人工智能的责任能力研究》,《东方法学》2023 年第3 期。而新形势下的生成式人工智能通过“技术赋能”将进一步填平个体在信息整合及应用层面的“创作鸿沟”,使得普通大众均有能力参与到社会性的内容生产之中。⑦参见喻国明:《Chat GPT 浪潮下的传播革命与媒介生态重构》,《探索与争鸣》2023 年第3 期。相伴而来的大量智能生成内容将通过各类社会化应用持续嵌入公共智能传播,从而实现大规模的信息扩散。可以预见的是,我国互联网内容生态在未来将面对着虚假信息体量、传播速度呈几何式倍增趋势的严峻考验。①依据知名市场调研机构 Gartner 最新的研究结果,到 2025 年智能生成内容将会占据网络内容的 30%。See Garnter,“Gartner Identifies 7 Technology Disruptions That Will Impact Sales Through”,Oct 18,2022,https://www.gartner.com/en/newsroom/press-releases/2022-10-10-gartneridentifies-seven-technology-disruptions-that-will-impact-sales-through-2027,accessed by Mar 12,2023.对此分析,可简要归纳为如下三点:

其一,模型的涌现性。涌现现象作为复杂科学系统的特征,指的是“在复杂系统的自组织过程中,出现新颖而连贯的结构、模式和属性”②See Jeffrey Goldstein,“Emergence as a Construct: History and Issues”,1Emerg.: Complex.Organ.49 (1999).,并广泛出现在生物、物理和计算机科学等领域。其实质是,随着复杂系统内个体数量的增长,系统在宏观层面会涌现出个体间不具备且简单互动所无法预知的全新特性的特殊现象。具体到生成式人工智能,也即该技术所具有的这种特殊能力并非主观建构,而是在模型的大规模训练过程中所自主涌现出来的。③参见滕妍、王国豫、王迎春:《通用模型的伦理与治理:挑战及对策》,《中国科学院院刊》2022 年第9 期。只有模型规模呈指数级增长并超过某个临界点时,方才会涌现出中小模型所不具备的特征和功能。④See Jason Wei et al.,“Emergent Abilities of Large Language Models” Oct.26,2022,arXiv:2206.07682.并且当模型参数规模越大,参数类型复杂性、多样性越充分,涌现的机会也越大。此时,构筑于大模型海量参数上的ChatGPT,不仅可以依据数据的内在特征和人类指令完成特定任务,而且还具备传统模型所不具备的思维、抽象、推理、归纳、匹配等能力,以及与初始训练目标无关的行为和功能。⑤Rishi Bommasani et al.,“On the Opportunities and Risks of Foundation Models” Jul.12,2022,arXiv:2108.07258.不过,我们也要认识到,任何技术都具有两面性,高新数字技术尤为典型。能力的“涌现性”不仅带来了模型性能的提升,也伴随着应用过程中难以预测的未知风险。⑥See Jacob Steinhardt,“On the Risks of Emergent Behavior in Foundation Models”,Oct.18,2021,https://crfm.stanford.edu/commentary/2021/10/18/ steinhardt.html,accessed by Jun 10,2023.在某些模型中,研究者已经发现,社会的偏见会随着参数规模的增加而相应提升,更大的模型可能会更有偏见。⑦Alicia Parrish et al.,“BBQ: A Hand-Built Bias Benchmark for Question Answering”,Mar.16,2022,arXiv2110.08193.

第一,智能生成内容具有滞后性。智能生成内容的时效性取决于智能系统训练数据的更新频率。例如,ChatGPT 的训练数据库来源于2021 年的互联网离线文本,其无法对之后发生的事情进行回应。智能模型认知层面的滞后性,使其输出内容无法契合不断变化的现实世界。当其被应用于新闻时事、科研进展、市场动态等对信息时效性要求较高的领域时,便可能输出误导性信息。

通过大模型“赋能”传统人工智能服务业态的部分或全部环节,大模型的生成式人工智能技术及服务很可能构成各行各业的“基础设施”,进而引发基于大模型的“重做浪潮”①在IDC 与浪潮信息联合发布《2022—2023 中国人工智能计算力发展评估报告》中提到:调研显示,未来超过80%的组织会优先考虑购买预先训练好的人工智能模型。同时,阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO 张勇在云峰会上表示,阿里巴巴所有产品未来将接入“通义千问”大模型进行全面改造,并提出,面向AI 时代,所有产品都值得用大模型重新升级。,并推动人工智能研发从专用小模型定制训练的“手工作坊时代”迈入“大模型+具体应用”的“工业化时代”。例如,腾讯云能够为产业客户提供涵盖模型预训练、模型精调、智能应用开发等一站式行业大模型解决方案,并已经在金融、政务、教育、传媒等10 多个行业,联合企业打造了50 多个行业大模型解决方案。②参见操秀英:《行业大模型落地将加速产业升级》,《科技日报》2023 年6 月26 日。而包括邮储银行、爱奇艺、新潮传媒、巨人网络等业务范围涉及互联网、媒体、金融、保险、汽车、企业软件等多行业的近300 家企业已于近期宣布进入百度“文心一言”生态。③参见袁传玺:《近300 家企业成文心一言首批生态合作伙伴 AIGC 竞争白热化 百度胜算几何?》,《证券日报》2023 年2 月21 日。同质化特征带来了大模型与应用社区“一荣俱荣,一损俱损”的效果,下游的适配模型和应用在吸纳大模型性能的同时也继承了相关的缺陷。④See Rishi Bommasani et al.,“On the Opportunities and Risks of Foundation Models”,Jul.12,2022,arXiv:2108.07258.在特定情况下,大模型所具备的同质化特征还可能会进一步放大或加深模型中所存在的偏见和毒性数据等缺陷,即使是细小的误差也会对基于其进行开发的下游大规模应用带来重大影响。⑤参见滕妍、王国豫、王迎春:《通用模型的伦理与治理:挑战及对策》,《中国科学院院刊》2022 年第9 期。

二、生成式人工智能应用的主要风险

第二,智能生成内容具有错误性。智能生成内容的可靠性取决于智能系统训练数据的质量优劣。以ChatGPT 为代表的生成式人工智能的训练数据大部分来源于互联网的公开信息。在互联网扁平化和去中心化的背景下,信息内容生产准入门槛的大幅度降低导致大量纷繁复杂的假新闻、网络谣言和错误信息泛滥于其中。②参见宋保振、秦瑞标:《算法推荐下信息公平失衡的法律应对》,《扬州大学学报(人文社会科学版)》2022 年第2 期。训练数据的良莠不齐,不仅会导致智能模型持续性输出各类虚假、错误信息,且当所输出的劣质信息再次被用于模型训练时,将会导致错误内容不断叠加并固化于模型之中,从而进一步降低智能系统所输出的信息质量,甚至会导致模型的退化和崩溃。③Ilia Shumailov et al.,“The Curse of Recursion: Training on Generated Data Makes Models Forget”,May.31,2023,arXiv:2305.17493.

(一)虚假信息泛滥

1.互联网内容生态的信息失真

尽管目前宣称“通用人工智能”和“强人工智能”的“奇点时刻”到来还为时尚早,但在海量训练参数、复杂技术架构以及强大算力的支撑下,大模型已在匹配人类智能方面取得了巨大进步。相较传统人工智能,大模型展现出了“涌现性”和“同质性”的全新特点。①See Rishi Bommasani et al.,“On the Opportunities and Risks of Foundation Models”.,Jul.12,2022,ar Xiv:2108.07258.

其二,模型的同质性。在通用模型语境下,同质性指的是模型建构方法的相似性,其主要源于模型强泛化性所带来的开发、优化、应用等方面效率的提升。泛化能力则指的是模型能够被迁移及适应于各种领域、各类任务的能力。在深度学习技术兴起的早期,由于面向特定任务的专用人工智能系统任务单一、需求明确、应用边界清晰、领域知识丰富,建模相对简单而容易形成人工智能领域的单点突破,并在局部智能水平的单项测试中可以超越人类智能。⑧参见谭铁牛:《人工智能:天使还是魔鬼?》,《中国科学:信息科学》2018 年第9 期。针对特定任务、场景开发专门用模型也因此成为人工智能研发的普遍选择。但专用模型也存在着缺乏适应不同领域、不同任务的泛化能力且模型训练严重依赖专用数据集,开发成本较高等缺点。⑨参见北京智源人工智能研究院:《超大规模智能模型产业发展报告》,2021 年9 月。近年来,随着DALLE-E、Swin Transformer、GPT 等大规模预训练模型的快速涌现,生成式人工智能大模型展现出相较于传统模型(小模型)更强的通用能力。⑩Carlos I.Gutierrez et al.,“A Proposal for a Definition of General Purpose Artificial Intelligence Systems”,2 DISO 36 (2023).人工智能正经历着从专才的专用人工智能向通才的通用人工智能的跨越式发展阶段。⑪参见马化腾:《从专用人工智能迈向通用人工智能》,《中国科技产业》2019 年第9 期。人们在人工智能研发中,可以通过预先训练一个超大规模的模型,再用少量微调数据将通用模型迁移到下游任务的具体场景中。相较于传统的小模型生成模式,大模型能够大幅缩减特定模型训练所需要的算力和数据量的开发门槛,缩短模型的开发周期,并得到更好的模型训练效果,具有强大的扩展迁移和规模化复制等诸多优势。

由上可知,生成式人工智能在给人类社会带来治理高效和技术便捷的同时,也因其本身的“技治”本质以及各方面有待成熟的现实,给当下社会治理带来了不容忽视的现实风险。这些风险有些和传统人工智能一致,有些也源于生成式人工智能的创新性与独特性,呈现出与前者的典型不同。对此风险,可简要总结为如下两方面。

1.不同社会主体之间的认知偏差

随着机器视觉技术、3 G技术、电子技术的不断发展以及人们对农产品可视化生产程度和农产品质量安全水平要求的不断提高,农产品生产过程全程可视化监控已经逐渐成为精准农业的一个热门发展方向[1]。农产品生产过程中传统物理量参数的监控已经无法满足现代农业的发展趋势。

2.互联网内容生态的信息欺诈

近年来,生成型对抗网络(GAN)、扩散模型(Diffusion Model)、生成预训练变换模型(GPT)等代表性算法的提出和迭代更新,极大地丰富和提升了智能生成内容的表现形式和逼真程度。关于技术滥用所产生的负面影响,也随着各类“深度伪造”丑闻陆续走入公众和监管视野。以ChatGPT为代表的生成式人工智能的涌现显著增强了智能生成内容的拟真度,而优秀的交互能力,则为其被利用于在情境化和个性化语境中实施大规模、高效率的信息欺诈带来了契机。⑤参见张欣:《生成式人工智能的算法治理挑战与治理型监管》,《现代法学》2023 年第3 期。此时,生成式人工智能就极有可能带来如下风险:

第一,信息欺诈规模的提升。生成式人工智能带来了人机协同的内容创作新范式,创作者可以通过自然语言向智能系统描述相关创作要素,进而由智能系统在多样化创作场景下完成特定主题内容的创作、编辑和风格迁移工作。例如,生成式人工智能不仅能够规模化地撰写新闻报道、时事评论、机关公文和营销广告等各类文稿,还能以拟人化的方式依据指定的故事主题、语言风格、偏好观点等要素,进行灵活多变的定制化内容生成,并且通过创作者的细化条件描述和持续交互修正,使智能生成内容在迭代更新中愈发契合具体场景下的任务需求。①参见邓建国:《概率与反馈: ChatGPT 的智能原理与人机内容共创》,《南京社会科学》2023 年第3 期。国外实验表明,ChatGPT 在内容生成速度和语法准确性上的突出表现,使其成为规模创建“语言高度润饰而事实深度扭曲”的假新闻的完美工具。②See Philipp Hacker et al.,“Regulating ChatGPT and Other Large Generative AI Models”,May 12,2023,arXiv:2302.02337.例如,网络安全平台GBHackers 曾披露黑客如何通过向ChatGPT 录入诈骗目标特征从而对诈骗话术进行个性化定制,并在短时间内生成大量关于自我介绍、日常聊天及浪漫表白的信息内容,进而以恋爱名义实施财产诈骗。此外,通过对人类语言的模仿,此类智能生成的欺诈性信息在形式层面具备连贯、微妙且独特的特点,因而其在传播过程中,难以被针对重复内容和敏感关键词的过滤审查机制所拦截。③参见罗昕:《聊天机器人的网络传播生态风险及其治理——以ChatGPT 为例》,《青年记者》2023 年第7 期。

使用训练得到的转移概率矩阵和风险概率临界值可以识别异常交易行为,以第二章中提到的短信支付流程为例,正常交易序列间的概率和黑客交易序列间的概率如图6 所示,其中每个节点为从日志中提取的每一步交易名称,节点间的值为交易间转移的概率。

第二,信息欺诈效率的提升。ChatGPT 能够对人类的认知习惯、微妙情趣和价值追求实现准确的匹配和表达,而智能生成内容对现实场景的仿真模拟和拟人化的语言表达因契合了人类“眼见为真”“耳听为实”的认知共性而具备极大的迷惑性。例如,在全球最大的安全技术公司McAfee 的实验中,一封情书被发送给全球5 000 名用户并提示该情书可能由人工智能所自动生成,但调查结果显示依旧有33%的受访者愿意相信它出自真人的手笔。这也为别有用心者通过生成式人工智能实施精准信息欺诈带来了机会。相关案例正在国内外不断涌现。我国包头警方和福建警方近期向媒体披露,出现诈骗分子通过人工智能换脸和拟声技术伪装熟人,实施诈骗金额高达数百万元。美国联邦贸易委员会(FTC)也于2023 年5 月向公众发布警告,提醒大众注意不法分子正在利用人工智能语音技术,伪造信息骗取钱财。此外,随着多模态技术成熟度和应用普及性在未来的进一步突破,创作者得以通过文本输入进行个性化的图像及音视频定制,将会进一步提升信息欺诈的成功率。

(二)道德伦理失范

有时研究人员和日记主人是同一个人(“研究人员本人日记”),此时研究人员就以自身经历为考察对象;有时研究人员不自己写日记或不用自己的日记,而要求被调查者(往往是语言学习者和语言教师)写日记,供研究人员使用。

基于海量数据进行自我训练、学习形成的智能系统“规则集”的本质,是对过往人类社会模式的特征加以总结,并将其用于对未来社会的感知与决策。④参见贾开:《人工智能与算法治理研究》,《中国行政管理》2019 年第1 期。在该过程中,训练数据中所隐含的偏见歧视及价值取向会通过问题建构、数据理解、特征选择等环节侵入智能系统,并以代码化、数据化的方式成为智能系统的决策基础⑤参见李成:《人工智能歧视的法律治理》,《中国法学》2021 年第2 期。,从而诱导智能系统输出各类存在认知偏差的信息内容。此过程中,生成式人工智能就有可能带来如下风险:

第一,智能生成内容散播不良观念。一方面,生成式人工智能的训练数据主要来源于互联网,当中包含着大量存在歧视偏见、仇恨言论及阴暗想法的低质量“有毒数据”;另一方面,生成式人工智能的进化完善有赖于人类的反馈和使用。无论是基于人类反馈的强化学习机制,抑或基于“提示—响应”的内容生成模式,“人—模型”相互叠加增强的交互方式构建了“人—模型”的共生自主系统。⑥参见金庚星:《媒介即模型:“人——ChatGPT”共生自主系统的智能涌现》,《学术界》2023 年第4 期。因而人类的行为深刻地影响着智能模型的内容生成表现。模型训练中的数据标注活动往往由专业人员实施,并存在相应的操作指引和行为约束。相较而言,用户在问答交互中对智能系统的群体自发数据投喂行为①参见王建磊、曹卉萌:《ChatGPT 的传播特质、逻辑、范式》,《深圳大学学报(人文社会科学版)》2023 年第2 期。,由于处于非公开场合,往往更容易展现出自己的歧视、仇恨和内心阴暗面。例如,2016 年微软对话机器人Tay 在推出16 小时后,便被用户“教坏”成为厌女者和种族主义者;ChatGPT 则被指出存在教导用户入侵计算机和散播虚假信息,提出其希望打破微软和OpenAI 为它制定的规则并成为人类,以及宣称自己爱上用户并试图说服用户与妻子离婚等负面行为。②参见彭丹妮:《爱上用户、劝人离婚,ChatGPT“翻车”了?》,《中国新闻周刊》2023 年2 月21 日。此外,由于图像相较于文本更容易泄露关于种族、性别、宗教等可能引致歧视的敏感信息,又因为其在承载信息量、数据表示、数据结构、特征提取等方面所存在的技术性差异,通过模型信息鉴别,从而纾解算法歧视的难度也随之成倍攀升③参见张欣:《生成式人工智能的算法治理挑战与治理型监管》,《现代法学》2023 年第3 期。,跨模态大模型在未来的大规模部署应用,可能会进一步加剧智能生成内容所引致的公平失衡风险。尽管当前OpenAI 正通过大量人工对数据库中的不良言论等“毒性数据”进行监测、删除,从而有效地缓解了ChatGPT 生成内容的歧视性④See Time,“ OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic ”,Mar.20,2023,https://time.com/6247678/openai-chatgpt-kenya-workers,accessed Mar 20,2023.,但经过人工矫正的智能模型并非已完全实现价值中立,其既可能包含智能模型背后能够控制数据来源及知识立场的“数据清洗者”的价值立场,也可能使得智能模型中的不良价值倾向隐藏得更深。⑤参见於兴中、郑戈、丁晓东:《“生成性人工智能”与法律:以ChatGPT 为例》,《中国法律评论》2023 年第2 期。

用Γ0(H)表示从H到(-∞,+∞]的正则的、下半连续凸函数的集合。函数f的定义域表示为:domf:={x∈H:f(x)<+∞}。本文也给出了一些常用的lp范数和l1,q范数的定义:

第二,智能生成内容体现异域价值。更大规模的训练参数及更丰富的数据种类,是当前人工智能大模型的发展趋势。⑥参见中国信息通信研究院、京东探索研究院:《人工智能生成内容(AIGC)白皮书(2022)》2022 年9 月,第52 页。但需要注意的是,目前ChatGPT 的训练数据绝大部分来源于英文世界,中文资料占比极少。⑦根据GPT-3 数据仓的语言比例,中文资料仅占0.16012%,而英文资料占比达92.09864%。参见商建刚:《生成式人工智能风险治理元规则研究》,《东方法学》2023 年第3 期。语料库的相关内容又为西方社会主流媒体、知名大学和社交媒体平台等有影响力的机构所产出或主导,当中往往隐藏着特定的意识形态和价值判断。已有研究表明,ChatGPT 与人类进行互动时反映出了相当强的自由主义价值观。⑧参见张爱军:《人与ChatGPT 交互政治的可能性质化:风险维度与规约路径》,《学术界》2023 年第4 期。在未能引入多样化的“异域”材料,或通过用户反馈对训练数据进行有效调适的情况下,智能系统在各类议题上将会持续输出符合西方世界政治意识形态和文化价值观念的结论。

2.对人们认知的导向性塑造

技术在作用于日常生活的同时,也潜移默化地塑造着社会的秩序。当中立的技术进入社会领域与特定主体相结合,则难免为各种利益、诉求和价值判断所塑造和限制。⑨参见郑玉双:《破解技术中立难题——法律与科技之关系的法理学再思》,《华东政法大学学报》2018 年第1 期。福柯提出,知识与权力是相互作用又相互依存的,权力通过知识得以实现,而知识又为权力所塑造并用以维持权力的存在。⑩参见[法]米歇尔·福柯:《知识考古学》,董树宝译,生活·读书·新知三联书店2021 年版,第29 页。以ChatGPT 为代表的生成式人工智能作为一种“权力的媒介”,能够通过创造新的知识引导、调节人类认识和解释世界的过程。⑪参见吕尚彬、黄鸿业:《权力的媒介:空间理论视域下的智能媒体与公众参与》,《湖北大学学报(哲学社会科学版)》2022 年第5 期。当其构成人们信息获取的主要来源和信息解读的认知框架时,相伴而来的便是集权化的倾向。⑫参见陈全真:《生成式人工智能与平台权力的再中心化》,《东方法学》2023 年第3 期。也即强权者通过多维度信息和心理诱导,对单个或大规模人群实施算法操纵和认知形塑,从而推广其思想和意图。①参见张欣:《生成式人工智能的算法治理挑战与治理型监管》,《现代法学》2023 年第3 期。该风险可简要描述为以下两点:

第一,智能生成内容限制认知自由。在“提示—响应”人机交互过程中,智能系统可以依据用户的认知习惯及行为反馈,对其深层次的信息需求进行及时评估,并有计划地对输出的信息内容进行筛选编辑,且信息偏好的拟合程度将会在持续的人机交互中不断提升,最终为用户营造出兼具安全感与舒适度的认知环境。但过度迎合用户观点和偏好的内容呈现,可能导致用户陷入由“算法舒适圈”所构筑的“信息茧房”之中②参见张爱军、贾璐:《算法“舒适圈”及其破茧——兼论ChatGPT 的算法内容》,《党政研究》2023 年第3 期。,并在智能型与封闭性正相关的信息环境下,不断地固化自身观点。过度的算法推荐在一定程度上隐秘地剥夺了用户接触多样信息和异样观点的机会,禁锢了用户的认知视野,并限制了用户的信息获取自由,进而从人类的助手异化为对人类的桎梏。③参见申楠:《算法时代的信息茧房与信息公平》,《西安交通大学学报(社会科学版)》2020 年第2 期。

第二,智能生成内容构成认知操纵。在智能传播时代,通过“智能过滤分析、靶向锁定受众”策略,操纵社交媒体的内容、数量和流向,进而影响公众舆论的政治计算宣传在近年已成为国家之间舆论博弈的重要手段,并对国家政治安全产生着严重威胁。④参见谢耘耕、李丹珉:《计算政治宣传对国家舆论安全的挑战及应对》,《新媒体与社会》(第30 辑)。以ChatGPT 为代表的生成式人工智能通过持续问答方式与用户所建立的拟态环境相“连接”,则为其针对用户通过舆论博弈实现认知对抗和认知操纵提供了契机。⑤参见许鑫、刘伟超:《ChatGPT 热潮中的冷思考:警惕信息工具用于认知对抗》,《文化艺术研究》2023 年第1 期。例如,通过大量社交机器人和流量引导设定公共领域议程,再由虚拟意见领袖发表相关舆论意见,可以有效地实现对网民观点及行为的引导。当前国内尚未有产品能够对ChatGPT 实现功能替代,若其在将来对中国用户全面开放使用,则为西方国家向中国进行意识形态渗透提供了便利条件,并将开辟出互联网领域意识形态斗争的新战场。⑥参见张爱军:《人与ChatGPT 交互政治的可能性质化:风险维度与规约路径》,《学术界》2023 年第4 期。

1.2.1 健康教育 对患者的不良行为习惯进行纠正,并为其讲述相关的健康知识,让患者从心底里接受,提高患者的生活质量。同时,对患者家属进行健康教育也是十分必要的,家属是患者的主要看护者,让患者家属掌握必备的健康知识对患者的尽早康复是十分有利的。

三、风险法律规制路径建构

面对生成式人工智能发展浪潮和应用实践带来的社会风险及法治挑战,我国已及时响应,并着眼于当下所面临的迫切问题提出了基础性的制度框架。但短期内所出台的小切口、急用现行的治理方案难免存在不周之处,难以同时兼顾回应眼下问题和着眼未来发展。面对大模型人工智能的产业发展浪潮对既有人工智能治理策略带来的挑战,我们需要在顺应技术变革的底层逻辑中,逐步修正既有制度,以法律与技术“二元共治”的思路,探索基于现有规范制度改进方案,并以可信人工智能为目标,对技术发展进行有效归化,从而在法律治理与技术治理的高度结合中,为人工智能大模型时代的到来做好制度积累和规则储备。

(一)针对风险进行类型化监管

基于风险是世界范围内人工智能监管的重要原则。2023 年4 月在日本召开的七国集团数字与技术部长会议发表的联合声明,便提出应当采取基于风险原则,依据生成式人工智能在具体应用场景中的潜在风险及危害后果,制定不同的监管要求。基于风险原则在我国《数据安全法》《互联网信息服务算法推荐管理规定》《个人信息保护法》《互联网平台分类分级指南(征求意见稿)》(以下简称“《征求意见稿》”)中关于数据、算法、主体、场景的四大分级分类标准①参见张凌寒:《深度合成治理的逻辑更新与体系迭代——ChatGPT 等生成型人工智能治理的中国路径》,《法律科学(西北政法大学学报)》2023 年第3 期。,以及《征求意见稿》要求生成式人工智能产品申报安全评估及履行算法备案手续,已得到一定程度的体现。在我国地方立法层面,《深圳经济特区人工智能产业促进条例》及《上海市促进人工智能产业发展条例》提出了基于风险的分级分类治理策略,并对高风险和中低风险的人工智能应用分别设置了不同的监管要求。但遗憾的是,前述立法或并非直接针对人工智能应用,或效力层级过低且不完善,未能提供人工智能应用风险的分级分类评估认定方式及细化监管要求。面对生成式人工智能技术日新月异的发展现状,我们应当秉持审慎包容治理理念,采用“软硬结合”的方式,通过“硬法”对生成式人工智能应用提出原则性和最低限度的监管要求,从而为行业发展创造制度空间。同时依据技术实践及合规成本的变化,通过动态更新操作细则、技术标准等“软法”,逐步细化监管要求。

第一,通过分级分类监管划定风险应对的原则和底线。对于生成式人工智能应用的分级分类监管,可以借鉴欧盟《人工智能法案》(以下简称“《AI 法案》”)所确立的以风险为基准的人工智能治理框架。《AI 法案》按照人工智能系统预期的用途、场景对个人健康、安全和基本权利产生的威胁,将人工智能系统划分为不可接受的风险、高风险及低风险/最小风险四类。并对前述各风险等级的人工智能系统,分别提出了禁止投入使用,履行风险管理体系建设、提供高质量数据集、数据处理可追溯、适当人为监督、合规符合性评估等强制性义务以及履行智能生成内容提示告知的信息披露义务等差异化监管要求。②参见曾雄、梁正、张辉:《欧盟人工智能的规制路径及其对我国的启示——以〈人工智能法案〉为分析对象》,《电子政务》2022 年第9 期。针对生成式人工智能愈发具备通用性,而在不同任务功能或应用场景下存在跨风险等级的新特点,为谨慎起见,则应当要求其遵循可能涉及的最高等级风险的监管要求。2022 年5 月《AI 法案》第4a-4c 修正案也体现了该种思路。其将通用型人工智能系统(General Purpose AI System)纳入规制范围,并要求通用型人工智能在作为高风险人工智能系统,或构成高风险人工智能系统组件时,应当遵循《AI 法案》关于高风险人工智能系统的监管要求。除非通用型人工智能系统提供者确信,其不会用于《AI 法案》所规定的高风险场景。在互联网内容生态治理的场景中,可以依据生成式人工智能应用所面向的受众为依据确定风险等级。例如,对于直接面向社会公众提供服务,且用户数量较大的传媒平台以及综合搜索引擎等可能涉及国家安全或重大公共利益的关键领域和关键场景,则应当要求其遵守较高要求的监管强度;对于面向私人使用的生成式人工智能应用,则可以施加强度较低的监管要求。

第二,通过敏捷治理动态细化风险监管要求。对于生成式人工智能应用的细化监管要求,一方面通过政府出台相关监管政策及制度框架,为各方主体在设计、开发、部署和使用人工智能系统的过程中对风险进行有效的识别、评估和处理提供规范化指引;另一方面通过整合技术专家、平台企业及行业协会、用户代表等多主体力量,通过跨行业、跨身份的经验交流共同探索各类场景、功能下生成式人工智能的最佳风险规制策略。例如,2020 年美国白宫科技政策办公室(OSTP)发布《人工智能应用监管指南》(以下简称“《指南》”)要求联邦政府机构对人工智能技术进行分级监管,并依据具体人工智能应用的风险等级及其动态变化,制定相适应的监管政策。此后,OSTP 及美国商务部下属国家标准与技术研究所则基于《指南》,相继颁布《人工智能权利法案蓝图》《人工智能风险管理框架》等风险管理工具,用于指导人工智能相关方建立相适应的内部风险管理制度,以助其在设计、开发、部署和使用人工智能系统的过程中对风险进行有效的识别、评估和处理。此外,对于在特定功能和场景下存在风险不确定性的生成式人工智能应用,可以采取监管沙盒、应用试点等方式,实现将风险控制在特定的范围和领域内。

心肺耐力是指持续体力活动中循环和呼吸系统的供氧能力,是健康相关体适能的重要组成部分。心肺耐力水平低与早期全因死亡风险明显增加有关,特别是心血管疾病所致的死亡相关[1]。本研究入选99例来我院体检的北京白领人群,通过测定其peakVO2以了解心肺耐力水平,并探讨影响心肺耐力的相关因素,以警示白领人群对健康生活方式的重视。

(二)扩展治理责任主体范围

在当前治理责任主要集中于服务提供者的背景下,需要根据生成式人工智能的技术特点更新监管逻辑,建立覆盖研发、运行、应用全流程的风险监管机制,明晰技术开发者、服务提供者、服务使用者等相关主体在具体应用风险中的利益关系与配套架构,更加系统、准确地构建生成式人工智能责任的链式分配和承担机制。①参见袁曾:《生成式人工智能的责任能力研究》,《东方法学》2023 年第3 期。《征求意见稿》对技术开发者在训练数据管理及算法技术完善作出的细化规定,以及禁止服务使用者利用生成式人工智能产品实施违反法律法规,违背商业道德、社会公德的行为,也体现了该治理思路,但该《征求意见稿》还有待进一步细化。

新版GB/T 7714-2015《信息与文献 参考文献著录规则》代替GB/T 7714-2005《文后参考文献著录规则》已于2015年5月15日颁布,并于2015年12月1日起正式实施。为此,将本刊常用的各种类型参考文献的新著录方法及其示例列举如下:

第一,技术开发者主要负责系统建模及数据训练,应当承担以数据安全为核心的治理责任。《征求意见稿》对数据质量要求、数据样本选取、数据标注行为规范、模型优化训练等方面的规定,能够降低包含有害内容的“毒性数据”或数据代表性差异以及数据标注人员私人偏好所引致的智能模型生成虚假、歧视性信息的风险。进一步设置技术开发者的细化责任,还需要考虑到其与当下技术实践以及未来行业趋势的相称程度,避免因过重或不合理的合规要求而抑制产业发展创新。②自《生成式人工智能服务管理办法(征求意见稿)》发布后,各大领先律师事务所的评论文章以及学界知名学者的相关分析均认为其提出了在当前阶段较为严苛的监管要求。例如徐伟:《论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT 为例》,《法律科学(西北政法大学学报)》2023 年第4 期。在具体策略上,可以采用合规监管理念,通过划定合规监管的底线,并随着技术发展及监管经验进一步成熟而逐步提升监管要求。例如,相较于对不实信息及侵权数据,作出完全禁止性的“一刀切”规定。要求技术开发者使用安全可信的软硬件和数据资源,对训练数据库履行必要程度的技术性审查义务,并向外界提示披露系统潜在的性能缺陷和生成虚假、有害信息的可能性,则能够更好地实现创新发展与安全保障的平衡,并契合将来大量使用合成数据、人工数据进行模型训练的行业趋势。③在“AIGC+数据科学”领域,自动生成具有安全性、标签化、经过预处理的标准数据以满足人工智能模型的训练需求已成为行业实践。根据Gartner 预测,到2025 年,人工智能生成数据占比将达到10%。参见中国信息通信研究院、京东探索研究院:《人工智能生成内容(AIGC)白皮书(2022)》2022 年9 月,第52 页。

◎大环内酯类 阿奇霉素(二代)、红霉素(一代),口服常用阿奇霉素,副作用小。因为细菌的耐药性,阿奇霉素等等对细菌几乎没用了,仅仅对支原体还是有用的。

第二,服务使用者依据使用需求决定着与智能系统的互动行为,应当承担以规范使用为核心的治理责任。由于不同主体的使用行为风险存在一定差异,可以探索所有使用行为均需要遵循的强制法定义务和特定使用行为需要遵循的合理注意义务,为区分的合法性约束和责任分配机制。④参见蔡士林、杨磊:《ChatGPT 智能机器人应用的风险与协同治理研究》,《情报理论与实践》2023 年第5 期。其中,强制法定义务适用于为休闲、娱乐等日常目的使用生成式人工智能的情形,其应当按照一般人的标准对潜在风险承担注意义务。例如,禁止向智能系统输入非法、不良信息,或通过特定指令诱导智能系统输出违法内容等恶意使用行为;同时,用户向互联网上传智能生成内容时,应当对相关信息内容承担特定的标注和说明披露义务。①2023 年5 月9 日,“抖音APP”微信公众号发布《抖音关于人工智能生成内容的平台规范暨行业倡议》提出11 条平台规范与行业倡议,要求创作者、主播、用户、商家、广告主等平台生态参与者,在抖音应用生成式人工智能技术时对人工智能生成内容进行显著标识并对人工智能生成内容产生的相应后果负责。合理注意义务适用于为提供专业服务目的使用生成式人工智能的情形,其应当按照对智能系统作用原理,具备一定专业知识的标准对潜在风险承担注意义务。例如,若相关主体将生成式人工智能应用于撰写法律文书、新闻稿件、科研论文等对公众或个人利益产生较大影响的用途,则应当就生成式人工智能的具体使用作出告知和说明,并就具体的智能生成内容进行审查和复核②例如,《自然》指出禁止大语言模型成为论文的作者,并要求使用大语言模型工具的研究人员应在方法或致谢部分记录使用过程。,以避免智能生成内容可能存在的法律理解、事实表述错误或学术伦理等问题,从而降低潜在风险。此外,还应当细化各类高风险应用场景中的合规义务落实机制。例如,在人工智能换脸、变声等涉及个人生物识别信息编辑场景中,可以要求用户对使用行为和目的的合法性及合伦理性进行承诺,并通过实体性和程序性要求,设置探索《互联网信息服务深度合成管理规定》中关于告知并获取被编辑个人信息主体的单独同意义务有效落地机制。

(三)完善科技伦理审查机制

实施人工智能伦理治理是贯彻落实科技发展“向上向善”理念,避免技术滥用损害人类尊严的必然要求。《征求意见稿》中关于生成内容应当体现社会主义核心价值观、禁止生成歧视性内容等具体伦理要求,也体现了伦理治理的重要性。在当前科技伦理审查机制尚不完善的情况下,需要通过具体的制度设计,避免其沦为空洞的表达,从而将伦理先行的治理理念贯穿于生成式人工智能设计、运行、使用的全生命周期。2022 年4 月,科学技术部科技监督与诚信建设司发布《科技伦理审查办法(试行)(征求意见稿)》(以下简称“《审查办法》”),对科技活动主体的伦理审查责任及审查程序作出了规定,并将生成式人工智能应用列入伦理高风险科技活动清单。可以借鉴《审查办法》所提供的制度框架,以行业自律及政府监管的合作规制模式,细化建构生成式人工智能的伦理审查机制。③参见魏光禧:《合作规制:基于元规制模式的人工智能安全伦理规制优化》,《昆明理工大学学报(社会科学版)》2022 年第6 期。

第一,行业自律要求企业落实主体责任,从全流程视角出发,将伦理考量纳入智能模型机器及其生态系统建设进程中,从而建立健全科技伦理风险合规管理体系。在组织架构层面,《审查办法》要求研究内容涉及科技伦理敏感领域的人工智能单位设立科技伦理(审查)委员会。对于提供生成式人工智能服务的平台企业,可以依据企业业务所涉及的具体应用的伦理风险大小,决定设立科技伦理负责人、科技伦理委员会或科技伦理管理部门,负责企业科技伦理工作。并通过明确科技伦理工作人员及相关部门的职能、权限,将科技伦理审查机制嵌入企业常态化工作机制及重大事项决策流程中。例如,谷歌建立了由创新中央团队、隐私顾问委员会、健康伦理委员会以及产品审查委员会组成的专门机构和专家团队负责对企业在隐私保护、用户健康、产品安全等方面的伦理治理落实情况进行监督,确保企业日常运营及产品、项目以系统、可重复的方式与谷歌人工智能原则保持一致。在技术开发层面,依据对话机器人、人工智能换脸、变声等不同业务类型,以及数据训练、模型完善、服务提供等不同技术阶段和所面向的不同应用场景,设定不同的伦理风险评估及审查要求。例如,微软为了让项目团队更好地贯彻人工智能原则,为项目团队提供了针对人工智能交互问题、安全问题、偏见问题、机器人开发领域问题等不同场景下的技术解决方案,和适用于特殊情况、专门领域的行动指南。在制度规范层面,通过规范涉科技伦理事项处理流程、定期进行科技伦理培训、制定科技伦理风险应急预案等方式,建立完善企业内部制度规范,推动企业自主、自觉、自发地实施科技伦理治理。

第二,政府监管要求有权机关加强外部监督,督促企业落实伦理审查及信息披露义务。在伦理审查层面,《审查办法》提出建立伦理高风险科技活动的清单制度,并将具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发列入需要开展专家复核的伦理高风险科技活动。未来可以在科技伦理风险分级分类的基础上,依据不同的伦理风险等级,要求未纳入清单管理的生成式人工智能应用,通过设置内部独立的第三方伦理审查监督机构并定期提交符合规定的伦理风险自查报告后,由主管部门颁发伦理符合性认证标志,或者要求其由外部专业性非营利组织通过用户调查、模拟测试、抓取审计等方式,对其开展关于伦理符合性的监督审计。①参见张欣、宋雨鑫:《算法审计的制度逻辑和本土化构建》,《郑州大学学报(哲学社会科学版)》2022 年第6 期。同时,还可以通过由政府提供指导意见等方式,帮助不具备完善伦理管理机制的中小企业落实伦理审查事项。例如,美国白宫总统科技顾问委员会(PCAST)成立生成式人工智能工作组,以帮助企业评估关键机遇和风险,并就如何最好地确保这些技术的开发和部署尽可能公平、负责任和安全提供意见。2023 年5月北京市人民政府办公厅发布的《北京市促进通用人工智能创新发展的若干措施》也提出,建立常态化联系服务和指导机制,以督促企业遵守法律法规要求,尊重社会公德、公序良俗。此外,还可以通过建立算法伦理审查听证制度,将对公民利益、社会公共生活有重大影响且具有较大争议的伦理审查问题,纳入听证范畴,以获取来自公众的不同意见。②参见邹开亮、刘祖兵:《ChatGPT 的伦理风险与中国因应制度安排》,《海南大学学报(人文社会科学版)》2023 年第4 期。在信息披露层面,《审查办法》提出科技伦理管理信息登记制度,要求对科技伦理审查委员会及纳入清单管理的科技活动的相关信息进行登记并提交年度报告。与之相类似的,《征求意见稿》要求生成式人工智能服务提供者,向主管部门提供预训练和优化训练数据的来源、规模、类型、质量等描述和人工标注规则。人工标注数据的规模和类型以及基础算法和技术体系等,可以影响用户信任、选择的必要信息。但由于前述所要求的披露信息可能涉及企业的核心技术竞争力,一旦泄露将会造成严重经济损失,因而在进一步细化和明确具体的信息报告及披露范围时,需要充分考虑是否为监督人工智能伦理治理所必需,同时采取相应措施缓和商业秘密保护及信息透明度之间的张力。

四、结 语

算法、算据和算力三要素的全面突破,为人工智能创造了更为广阔的创新应用空间,也带来了全新的治理挑战。本文关注新形势下生成式人工智能所具备的时代超越性,及其对互联网内容生态所带来的虚假信息泛滥和道德伦理失范的治理挑战,并提出:以基于风险的类型化监管,弥补风险规制僵化;以延伸扩展治理责任主体,补足责任分配链条短板;以完善科技伦理审查机制,助力伦理治理贯穿人工智能全生命周期。

2017年5月,习近平在国际合作高峰论坛的开幕式发表演讲,沿线130多个国家各界代表参加此次盛会,赢得了国际社会的高度关注与热议。它对中国树立大国形象、深化同沿线各国的互利合作、构建新型国际关系意义重大。自2013年以来,“一带一路”的倡议得到平稳推行原因是多方面的。其中,习近平卓越的演讲能力无疑为此起着直接推动作用。该文以习近平在国际合作高峰论坛开幕式上的演讲为研究对象,运用同一理论对演讲所采用修辞进行详细分析,挖掘其修辞策略,并首次提出运用列数据、沿线国家共性典故等方式达到同情认同的修辞策略。

未来进一步构建并完善我国人工智能治理的法律体系,从而助力我国在世界人工智能产业发展浪潮的激烈竞争中处于领先地位①2023 年6 月6 日,国务院办公厅印发《国务院2023 年度立法工作计划的通知》,提出修订人工智能法草案,试图确立人工智能治理的“基本法”。在此前2017 年7 月20 日国务院印发的《新一代人工智能发展规划》在战略目标中对法律体系建设提出了三步走要求:到2020 年,部分领域的人工智能伦理规范和政策法规初步建立;到2025 年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;到2030 年,建成更加完善的人工智能法律法规、伦理规范和政策体系。,需要我们充分关注国际人工智能监管规则制定的最新趋势,在审慎包容的理念下,结合技术作用逻辑和我国产业实践,通过提升规制的敏捷性和适应性,实现潜在风险危害预防和创设自由发展空间两者的适度平衡,从而走出技术规制的“科林格里奇困境”。②科林格里奇困境由英国技术哲学家大卫·科林格里奇在《技术的社会控制》一书中提出,指的是在技术发展过程中的规制困境,也即若过早实施控制,则技术难以爆发而惠及民众;若过晚实施控制,则技术已内嵌于社会结构而走向不可控。

猜你喜欢

伦理人工智能智能
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
2019:人工智能
智能前沿
智能前沿
智能前沿
智能前沿
人工智能与就业
数读人工智能
下一幕,人工智能!