APP下载

人工智能的伦理困境及其法治化解决路径

2024-10-09魏龙凡

知与行 2024年3期

[摘要]ChatGPT等大语言模型的出现掀起了新一轮的人工智能发展狂潮。人工智能的发展对传统社会秩序和社会道德体系产生了强烈的冲击。在人机关系层面,人工智能在法律、医疗、教育等领域的广泛应用也对人类的“主体性”产生了威胁。这些不同层面的伦理困境阻碍人工智能的进一步发展以及社会进步。现阶段人工智能治理缺乏具有影响力的国际行业规范。与此同时,在技术发展过程中人的价值在一定程度上被迫让位于科技价值。人工智能发展如何走出“科林格里奇”困境仍然充满挑战。因此,我国必须以人本主义的核心立场去审视人机关系,推动构建国际性人工智能行业规范,探索如何用法治化的手段走出人工智能发展的伦理困境,最终达到科技进步与保障人类福祉的平衡。

[关键词]人工智能伦理;人机关系;人工智能法治化

[中图分类号]D90[文献标志码]A[文章编号]2096-1308(2024)03-0066-11

早期的人工智能研究主要集中于创建能够模仿人类解决问题技能的程序,如纽厄尔和西蒙等逻辑理论家。这些基础研究为AI设定了核心目标——创造能够复制人类智能方面的机器。20世纪80年代向机器学习的转变代表了从基于规则到基于数据的方法的范式变化。21世纪初深度学习的出现,将AI带入了应用性时代。而近几年生成式人工智能的出现更是将人工智能的发展推到一个新的顶峰,2022年11月30日,OpenAI发布了ChatGPT,不足两年时间OpenAI推出的生成式视频人工智能模型Sora再次成为全球关注的焦点。Sora能将文字、图像、音频等信息转化为逼真的视频,让人叹为观止。从人工智能技术驱动的自然语言处理工具ChatGPT到如今的Sora,从自动生成文字、图片,再到自动生成视频,短短几年时间人工智能基于大语言模型技术所迸发出的颠覆性的创造力让人惊呼震撼。与此同时,在人工智能高速迭代的背景下,人工智能的伦理问题也层出不穷。例如,新型的违法犯罪案件、人机冲突带来的人类主体性的缺失、人工智能的道德危机等。由此可见,人工智能的伦理困境,成为人们亟须解决的现实问题。

本文将归纳人工智能伦理困境的现实样态,分析人工智能伦理困境出现的成因,探索中国特色法治化人工智能伦理困境解决进路。

一、人工智能的伦理困境

2023年10月,中国发布了《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了中国关于人工智能治理的方案,具体包括在人工智能治理方面坚持伦理先行,建立并完善系统的人工智能治理准则、规范及相应的问责机制。伦理观念影响法律规范所体现的价值和指引的方向,因此在人工智能治理和规制的过程中需要“伦理先行”,在明确伦理困境的基础上再进行具体的法治化探索。人工智能的伦理困境主要包括社会伦理困境和对于人类“主体性”的冲击。

(一)人工智能对社会规则体系的冲击

社会伦理主要是指在社会生活中调节人与人、人与社会之间的道德规范和准则体系。社会规则体系是社会伦理的制度化表达。而人工智能对社会规则体系的冲击主要表现在对社会法律秩序的挑战和重塑以及对于就业的影响。

1.人工智能应用中的法律挑战

在民商法律方面,人工智能的应用目前最突出的问题体现在个人隐私和数据安全方面。在人工智能系统中,海量的数据被用于训练算法模型,以提高人工智能的实践表现。然而,如果那些个人敏感信息被错误处理,则必然损害个人权益。2024年2月,斯坦福大学发布的白皮书《反思人工智能时代的隐私问题——针对“以数据为中心”世界的政策建议》指出隐私和数据保护框架无法扩展,让个人在数百甚至数千个数字关系和渠道中承担管理其数据的主要责任,无法成功保护个人隐私,也无法化解人口或社会层面的隐私风险和危害。

以ChatGPT为代表的新一代生成式人工智能应用于各种艺术创作领域,人工智能生成内容(AIGC)在外观形式上高度趋同于人类作者创作的作品,受限于AIGC创作主体认定的困境,也引发了AIGC“作品”属性的争议。人工智能决策的责任归属也是一个难题。由于人工智能系统的决策往往基于复杂的算法和模型,这些算法的运作方式往往是不透明的,缺乏解释性。[1]

在人工智能产品侵权案件中,责任认定往往出现多种责任竞合。因为人工智能具有智能性的特点,使用者在使用人工智能产品的时候,更多的是选择人工智能运行模式或基本设定。因此,导致人工智能在使用过程中往往无法由使用者作出预先判断,并加以干涉。而使用者在使用人工智能产品的过程中出现侵权行为时,就会产生侵权责任与产品责任的竞合。因为同时涉及使用者与研发者、运营者共同侵权的可能性,两种责任的区分将变得困难。

在刑事法律方面,生成式人工智能因其“类人性”强,极易引起非法侵入计算机信息系统罪、破坏计算机信息系统罪等。例如,“山寨版”ChatGPT会产生恶意链接,用户按照指令点击后,恶意软件会攻击用户电脑设备、入侵用户特定的计算机系统、非法获取用户的个人隐私数据。生成式人工智能凭借自身的海量数据,通过深度学习形成非法对话内容,用户在进行特定主题对话时,更容易获取违法犯罪信息。另外,在刑事司法中,使用人工智能司法工具容易出现“算法黑箱”和“数字鸿沟”,从而影响司法的公平公正,降低司法机关的公信力。

2.人工智能司法工具的价值判断困境

一方面,传统的司法三段论的法学方法论模式是大前提—小前提—结论。法官在作出司法裁判的过程中,自由心证过程是包含价值判断的。人工智能司法裁判在进行价值权衡时是依据海量数据形成的规则模型,但是人工智能如何对这些海量的司法数据进行分析与判断是广泛存在于各国法律人工智能发展过程中的难题。另一方面,从当前人工智能技术发展的现状来看,人工智能司法很容易会被社会政治因素“控制”,从而滑向另一个深渊。

当前人工智能技术在我国司法裁判的价值判断过程中的应用主要存在四个方面的障碍:

第一,司法数据不充分。我国各级法院的大量裁判文书并没有在裁判文书网上予以公布,裁判者在进行案件的审理和裁判活动中所运用的自由心证过程无法体现在已经发布的裁判文书中。

第二,司法数据的真实性存在疑问。在现实中存在公开司法文书中的裁判理由与法官在审判过程中实际的裁判理由存在很大出入的情况。

第三,司法数据存在主观性。不同地区的法官甚至同一地区的不同法官在面对同样的案件时可能有不同的处理结果,这也决定了公开的裁判信息具有主观性。

第四,司法数据缺乏文本上的统一性。全国各地基于现实情况的差异,公开的裁判文书中的司法数据在文本上可能存在很大差异,这种差异性体现在人工智能司法上就会导致人工智能识别困难。[2]这些司法数据方面的问题,成为对人工智能进行正确司法价值判断的阻碍。人工智能系统是在大量数据集上训练的,这些数据集可能会受到历史偏见的影响,而人工智能的机械客观性可能通过“技术清洗” 让这些偏见不易被发现,因此也在某种程度上强化了偏见,影响决策的公正性。[3]事实上,在其他国家,这种数据方面的技术障碍也同样存在。

这种数据的不充分和不“完美”就导致人工智能在进行司法裁判过程中只能进行一些简单的价值判断,但是面对复杂多样的现实案件,仅仅具有简单价值判断的能力是完全不够的。公正的司法裁判要求的显然更多。

人工智能应用于司法很容易使司法成为政治歧视的工具。以美国部分州法院使用的再犯危险性智能评估工具 COMPAS为例,COMPAS曾经对一名黑人女性

Brisha Borden和一名白人男性Vernon Prater进行社会危险性打分,Brisha Borden因为四次青少年时期的违法行为被判定危险系数为7(high risk),而Vernon Prater则以两次武装抢劫既遂,一次武装抢劫未遂,一次携带凶器盗窃被判定危险系数为3(low risk),而后Brisha Borden与Vernon Prater均因犯罪被捕,Brisha Borden因社会危险性系数高被判定为重罪。法院这一判决也使开发COMPAS的公司因种族歧视问题被调查。

这种人种的歧视,其实是美国社会种族歧视问题折射到司法领域的体现。与传统法官裁判不同,人工智能进行司法裁判的速度非常快,在一定程度上稀释了法律程序在司法裁判过程中的作用。如果人工智能被广泛应用于司法的各个环节,那么可以预见的是这种“歧视”将很难被监督,而且很难进行侵害弥补。对于人工智能是否可以追责是一个值得研究的问题,但是就目前人类认知水平来看,人工智能在适用司法过程中产生的侵害,很难通过传统的救济手段进行调整。最终,司法的“歧视”很可能会在人工智能的“掩护”下全身而退。

3.人工智能对现有就业结构和模式的冲击

2024年5月14日,国际货币基金组织总裁表示,未来两年,对于发达经济体而言,人工智能可能会影响60%的工作岗位;而对于全球所有国家而言,人工智能将会冲击40%的工作岗位,以教育和法律行业为例。

基于大语言模型的生成式人工智能教育工具的革命极大地改变着知识传播的途径。学习空间从线下更多地转移到线上,从“有形”逐渐变为“无形”。试想有一个百科全书式的“老师”24小时在你书桌旁守候,你关于所有领域的问题都能得到他的解答,这样的学习模式是不是完全颠覆了以往?事实上ChatGPT技术已经让这种想象成为现实。首批11家国产大语言模型已经通过国家监管部门备案。[4]生成式人工智能的文本生成、语言理解、知识问答、逻辑推理等方面能力对于教育教学具有极大的应用潜力和价值。[5]

在法学教育的培养目标层面,生成式人工智能的加速迭代,也向传统的法律实务工作和法学研究工作提出了新的要求。法学教育所培养的法律人才需要具备应对人工智能冲击的更高层次的技能。

人工智能相比一般律师有以下优点:第一,即时处理海量的数据并给出结论;第二,永不疲倦并且可以随时工作;第三,无非理性因素的影响,更加中立和客观;第四,能够最大限度地避免错误的发生。目前来看,人工智能对一些初级工作和重复性工作具有明显的替代作用,这就意味着未来会有相当多的律师,特别是初级律师会失去工作。高端法律工作者利用人工智能的能力将成为其核心竞争力的重要组成部分。可以预见,精通使用生成式人工智能技术来协助法律研究和分析的“超级律师”可能会更受欢迎,因为他们能够为客户提供更准确和全面的法律建议。[6]

而人工智能对于法律共同体就业的影响只是其具有代表性的“冰山一角”。事实上,除了已经消失的一些传统岗位,所有重复性强、规律性高、标准化的工作在不远的将来都会走向“末路”。

(二)人工智能对社会道德体系的冲击

道德不仅体现在人们社会生活的方式中,而且部分构成人们社会生活的方式[7],人工智能的广泛应用可能导致道德的虚无化以及对人的本质带来挑战。[8]这种道德危机会动摇人类社会原有秩序的情感基础,从而使社会走向不可控。

道德的虚无化是指人工智能使人类脱离实践的人际关系,从而失去道德发生的情感因素来源。道德是一种实践理性,是人与人在社会交往过程中所产生的用于规范人的行为和调节人们之间关系的准则与规范。在人工智能时代,人的传统社会联系减少,人们更多的是通过人工智能工具交流,甚至直接与人工智能工具交流。目前,我们熟知的AI对话工具,百度的文心一言、阿里的通义千问、ChatGPT、微软Copilot、谷歌Gemini等都得到了不错的市场反应。随着生成式人工智能的迅速迭代,其情感沟通能力会更加接近真实的人类对话。而缺乏真实社会人际交往,人类道德也会逐渐发生异化,并且在缺乏监管的“网络世界”,人的道德会更难以受到制约。

与此同时,人工智能时代,人类以“数字人”的形式存在于社会,同时与“机器的智能”共存。人类也会产生对于人的主体性的怀疑。马克思主义哲学认为,劳动是人的本质。通过劳动人得以实现价值,也正是劳动将人与其他生物区分开来。但是,人工智能的大规模运用会造成大量的“无用阶级”[9],也就是说,不远的将来人工智能会代替人类从事大量的工作,社会生产力因此得到极大发展,人类不用付出劳动即可获得体面的生活。这也就是人工智能专家所鼓吹的人工智能积极性的根本立足点。但是,假如这一天真的到来,“无用阶级”势必会成为社会的大多数,到时又如何控制人类因本质迷失所带来的道德的“溃堤”?这是很多人工智能研究者不愿意正面回答的问题。

(三)人工智能对人类主体性的挑战

AI按照功能可以笼统地分为两类:专用人工智能(简称 AXI)和通用人工智能(简称AGI),前者侧重对“智能”行为外在的模拟,后者的技术路径则致力实现机器内在的思维和情感,也就是让机器像人一样“思考”。我们已接触过许多专用人工智能的例子,如AlphaGo和ChatGPT,AXI非常擅长完成特定的任务,但是缺乏在相当狭窄的领域之外应用其资源的能力。而AGI的图景尚未降临,理想中的AGI具备符合人类情感与伦理道德的观念,能做到自主化感知、学习,甚至进行社会协作,这几乎就是对人类的要求。目前,AGI因为数据、泛化、技术方面的瓶颈,在技术上尚且没有被攻克。与此同时,仅从社会需求角度而言,AGI产品产生之后是否会被投入使用,仍然面临许多伦理困境,其中最大的争议就是其是否能够取代人类的“主体性”地位。

马克思主义反对就人的本质进行抽象预设和简化还原,主张将人置于由生产力与生产关系、经济基础与上层建筑构成的社会结构之中进行考察,揭示人的多重本质及动态发展性。[10]随着人工智能在教育、医疗、建筑、法律等行业的广泛使用,人的主体地位在一些脑力和体力劳动中被淡化,而人工智能的使用又不能显著提升社会整体生产力水平,ChatGPT等生成式人工智能的快速发展引起社会各界对相关行业的就业问题的担忧。有学者坦言,在AI时代,社会整体之间的真实的命运共同体可能更难以形成,相反人类可能陷入更大的分裂。

如果说社会层面的问题还不是人工智能的人机关系冲突所亟须面对的问题,那么人工智能的主体性问题则是迫切需要重视的问题。国家网信办联合七部门于2023年7月10日联合公布的《生成式人工智能服务管理暂行办法》,也仅就技术发展与治理、服务规范、监督等环节作出规定。目前,国际社会也并没有就人工智能的主体地位达成共识。

AI 是模拟、延伸和扩展人类智能的机器。[11]人类需要意识到,人工智能只是我们创造出来的工具,它应该为我们服务,而不是成为我们的敌人。

二、人工智能伦理困境多重归因

人工智能之所以在发展过程中产生如上伦理困境,一方面是因为人工智能技术的飞速发展,法律出现了一定程度的滞后性;另一方面,过度的控制也导致人工智能技术发展全球范围内的不平衡。另外,讨论人工智能的伦理问题的前提是人们对人机关系的认知问题,人们对人机关系的认知状况直接决定了其对人工智能社会伦理困境与规制方向的判断。[12]对于人机关系的认知争议,也导致相关国际性准则的缺失。

(一)人工智能技术发展的“科林格里奇”困境

科林格里奇困境,简单来说就是技术发展的双刃剑效应。一方面,我们担心技术的不良后果而过早实施控制,可能会阻碍技术的发展;另一方面,如果对于技术发展的管控迟缓,技术已经深入到社会生活的方方面面,再想解决由技术产生的各种问题就变得困难且成本高昂。

伴随着人工智能的飞速发展,2021年11月,联合国教科文组织发布的《人工智能伦理问题建议书》规定了四项基本价值观,即明确尊重、保护和促进人权和基本自由以及人的尊严。2021年,美国正式颁布《2020年国家人工智能倡议法案》,其目的是保证美国在人工智能领域长期处于世界的引领者地位,强调要进一步强化和协调国防、情报界与民用联邦机构之间的人工智能研发活动,同时美国还设立了国家人工智能倡议办公室,具体推动国家人工智能战略的实施。此外一些联邦机构和地方政府也针对特定领域发布了政策文件和地方性立法。2024年2月,欧盟通过了《人工智能法案》,这是全球第一部对于人工智能进行监管的综合性法律。整体来看,世界各国对于人工智能发展的立法侧重点不同,而人工智能作为各国综合国力竞争的主阵地,关于对于人工智能进行监管的全球性法律出现较晚,导致在人工智能发展早期处于“野蛮生长”的状态。

以舆论讨论最热烈的生成式人工智能ChatGPT为例。第一代GPT模型于2018年产生,已经是一种强大的语言理解模型。虽然它在判断句子语义关系、文本分类、问答和常识推理方面表现出色,但不适合作为对话式AI模型,并且参数数量相对较少。而经过短短五年的更新迭代,最新的GPT-4于2023年3月14日发布,不再大规模增加参数,而是着重提升利用现有数据的能力。它的准确度比前一版本提高了40%,主要用于整理和搜索网络信息,还支持视觉输入和图像识别。这使得GPT-4能够完成更具实践性的任务,如图像故事生成等。人工智能技术的飞速发展让规范的制定陷入两难境地:一方面,如果限制过宽,则很难切实解决人工智能应用过程中所产生的负面影响;另一方面,如果限制过严,则不适应人工智能技术蓬勃发展的现状。

(二)人机交互过程中人机地位的国际性准则缺失

生成式AI是目前人工智能发展的技术前沿,以 ChatGPT 为代表的生成式 AI 的崛起是人工智能领域的一次重大变革,也可能成为由专用性人工智能转向通用性人工智能的关键转折点。[13]针对生成式人工智能人机交互过程中所产生的人机冲突以及道德困境,目前国际社会缺乏统一的共识。

整体来看,大部分国家有关人工智能的立法还是以原则性的规定为主,但是各国立法侧重不同。欧洲立法最为超前,特别关注对高风险人工智能系统的划分和限制;美国立法是在鼓励行业发展和创新的前提下,对特定领域进行规范;印度选择暂缓监管;中国则是在数字社会的整体治理框架下,对产业发展较为成熟的领域进行了规范。国际社会在人机交互过程中人与人工智能产品的关系问题,尚未形成国际共识。

(三)人机交互过程中人的价值遭到忽视

为了保证 ChatGPT 输出信息的正确性 ,OpenAI 在训练过程中采用了“人类反馈强化学习”(reinforcement learning from human feedback,RLHF)的思路[14],这也为生成式人工智能注入了设计者以及开发者的主观意识。而这些技术开发的最终目的必然服务于资本市场。资本必然以盈利为目的,所以人工智能开发的底层逻辑是否有利于人的价值的实现有待考虑。

OpenAI公司首席执行官Sam Altman认为:OpenAI是“人类用的工具”,不是在创造生物;而人类充满偏见却往往不自知。人工智能是人类科技树上的新工具,人类没必要害怕超级智能的人工智能,每个新模型的缺点也是它们持续迭代的动力,与未来的模型相比,每个新模型都被认为能力不足,进而推动了持续的改进。可见,人工智能研发领域也没有足够动力在人工智能产品研发上对人机关系中人的主体性地位做太多努力。

马克思主义认为,人的价值在于对社会的贡献。人工智能时代,人工智能在一些领域剥夺了人类的劳动机会,并且逐渐使人类减少了产生良好道德的社会人际交往场景。人工智能的出现会进一步巩固资本的统治,不断削弱劳动者在劳动中的主动性,使其成为智能网络的“神经末梢”,任何劳动个体不再具备不可替代性,只能以降低自身劳动成本的形式换取劳动机会。[15]而这种对人的价值的忽视会随着生成式人工智能的迅速迭代,更加明显地表现在社会领域。

三、人工智能伦理困境的法治化解决路径

基于对人工智能伦理困境的反思与展望,借鉴欧盟、美国等先进国家及国家组织的治理经验,结合我国国情,提出适应我国人工智能发展现状的法治化解决路径。

(一)加强人工智能风险分类分级立法和监管

2024年3月13日,欧盟议会审议通过《人工智能法案》(EU AI Act),标志着全球人工智能领域监管迈入全新时代。基于人工智能的不透明性、复杂性、对数据的依赖性、自主行为性等特征,《人工智能法案》将人工智能的风险等级区分为“不可接受”、“高”、“中”以及“低”四个风险等级。这一分类决定了相关企业需遵守的义务程度,其中风险级别越高,合规要求越严格。特别是处于高风险类别的人工智能提供商,在对外提供服务之前,必须进行彻底的风险评估,并确保其产品完全符合法规要求。违规企业将面临严厉的经济处罚,罚款范围介于750万~3 500万欧元(相当于820万~3 820万美元),具体罚金额度将基于侵权行为的性质及企业规模决定。

我国于2023年7月10日公布的《生成式人工智能服务管理暂行办法》第四章第六条第二款规定国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。由此可见,目前我国立法并没有对基于生成式人工智能服务可能存在不同等级风险进行详尽的分类分级治理,这种“一刀切”的做法,一方面会导致高风险的生成式人工智能服务产生的大量法律问题不能及时得到解决,另一方面又会阻碍低风险的生成式人工智能服务的正常发展,迟滞技术进步的脚步。[16]

我国可以根据人工智能的算法透明性、数据依赖性、对经济社会的依赖性来划分人工智能风险等级,通过立法落实相应风险等级,为人工智能发展设立方向标。

同时,加强对人工智能发展的监管,严格按照法律法规所划分的风险等级进行“敏捷治理”,加强公众对国产人工智能设备的信任度。

(二)推动国际性人工智能行业规范的形成

构建人工智能伦理风险的全面治理体系,需要多方的参与,其中人工智能行业作为技术的创造者与产品的生产者,承担着重要的伦理责任。推动国际性人工智能行业规范的形成对促进人工智能技术健康发展,保障技术的安全性和可靠性具有深远意义。

生成式人工智能由人研发,亦为人所用。倘若生成式人工智能应用过程中引发了伦理危机,应当依照有关规定追究相关主体的伦理责任,维护生成式人工智能应用的人本主义立场。[17]与此同时,合理地规范人工智能应用的研发也是解决人工智能伦理困境的重要途径。随着世界范围内人工智能技术的快速发展,基于预防风险以及解决人工智能产品危机的需要,制定国际性的人工智能行业规范成为大势所趋。而如今不论是欧洲委员会、经济合作与发展组织(OECD)、欧盟,还是人工智能全球伙伴关系(GPAI),都未能制定出适用范围广、实践性强、具有强约束力的国际性人工智能行业规范。

而国际性人工智能行业规范的形成确实充满阻碍。基于国际间政治、经济、文化、科技发展水平的巨大差异,成立类似于联合国政府间气候变化委员会(IPCC)这样的开放性人工智能治理政府间机构并实际起到作用,显得越来越困难。因此,我国应立足本国人工智能发展现状,加强人工智能行业规范的制定和完善,在促进我国人工智能行业有序健康发展的同时,为国际社会提供可供参考的实践范本。

我国高度重视人工智能行业的发展,针对人工智能行业发展过程中的现实困境,一方面,要继续完善人工智能生产开发责任法律规范,加大对违反国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》的开发行为处罚力度。另一方面,鼓励支持更多的法学专家以及法律实务工作人员参与到人工智能产品的开发和设计中。

(三)落实宪法对人机关系中人的主体性的回应

目前,我国在立法层面对于人机关系中人的主体性地位缺乏明确回应。《生成式人工智能服务管理暂行办法》规定了一系列行为规则,如遵守坚持社会主义核心价值观、采取有效措施防止歧视、依法开展预训练、优化训练数据处理活动、制定技术研发过程中的数据标注规则等。[18]目前,我国已颁布的人工智能法律规范性文件中包含了对于个体主体性的尊重和保护,但都未明确人机关系中人的地位。中央网信办于2023年10月18日发布的《全球人工智能治理倡议》指出:发展人工智能应坚持“以人为本”的理念,以增进人类共同福祉为目标。这体现了我国在人工智能领域始终坚持“以人为本”的理念。

科技领域中的国家干预行为是保障生命健康与科研自由基本权利,落实发展科技事业任务,满足风险防范现实需求的关键。[19]我国《宪法》并没有直接涉及人机关系中人的主体性地位的规定。随着人工智能技术的快速迭代,特别是拥有深度学习能力的生成式人工智能的进一步发展,在《宪法》中明确人机关系中人的主体性地位具有相当程度的紧迫性。

《宪法》作为国家的根本大法,通过《宪法》的形式确认人机关系中人的主体性地位对于人工智能相关立法具有重要的指引作用。人机关系中人的主体性地位被确认将促进相关人工智能立法的完善,提高我国人工智能相关法律法规的强制效力。

四、结语

以人工智能技术为核心驱动力的“第四次工业革命”悄然来临,有关人工智能的伦理困境随着人工智能的加速迭代愈加严峻。只有时刻坚持人机关系中人的主体性地位,把握好人对于人工智能工具的使用意义,人工智能才能为人类发展造福,有关人工智能发展的困境才能得到解决。当然,不能陷入“科林格里奇”式的怪圈,制度制定者应既致力于增进人类福祉,又不能阻碍科技发展的脚步。而这些显然不是某一个国家凭借一己之力就可以完成的任务,人工智能的长远发展还需要国际社会通力合作,共同把握好这一“人类解放”的历史机遇。

[参考文献]

[1]谢明敏.人工智能视角下的民法诸问题研究[J].民商法争鸣,2020(1):23-30.

[2]左卫民.关于法律人工智能在中国运用前景的若干思考[J].清华法学,2018,12(2):108-124.

[3]李容佳.论人工智能在刑事司法决策中的应用[J].网络安全与数据治理,2023,42(8):21-27.

[4]经济观察网.11家AI大模型产品今日起将陆续上线,腾讯华为讯飞等也将开放[EB/OL].(2023-08-31)[2023-09-21].http://www.eeo.com.cn/2023/0831/603409.shtml.

[5]肖君,白庆春,陈沫,等.生成式人工智能赋能在线学习场景与实施路径[J].电化教育研究,2023,44(9):57-63+99.

[6]王禄生.从进化到革命:GhatGPT类技术影响下的法律行业[J].东方法学,2023(4):56-67.

[7]麦金太尔.伦理学简史[M].龚群,译.北京:商务印书馆,2003:23-24.

[8]王锋.人工智能对道德的影响及其风险化解[J].江苏社会科学,2022(4):44-50,242.

[9]赫拉利.未来简史[M].林俊宏,译.北京:中信出版集团,2017:286.

[10]姚伟.人工智能与人的本质发展——兼论社会制度系统的适应性变革[J].学习与探索,2023(10):35-41.

[11]程承坪.人工智能:工具或主体?——兼论人工智能奇点[J].上海师范大学学报(哲学社会科学版),2021,50(6):5-12.

[12]章文光,贾茹.人工智能的社会伦理困境:提升效率、辅助与替代决策[J].东岳论丛,2021,42(8):92-100,192.

[13]陈永伟.超越ChatGPT:生成式AI的机遇、风险与挑战[J].山东大学学报(哲学社会科学版),2023(3):127-143.

[14]OUYANG L,et al.Training Language Models to Follow Instructions with Human Feedback[J].ArXiv Preprint,2022,No.2203.02155.

[15]李楠.人工智能时代劳动价值论再审视[J].马克思主义理论学科研究,2024,10(3):39-46.

[16]吴大奎.基于生成式人工智能服务风险的分级法律规制研究[C].智慧法治,2023第三卷:195-203.

[17]冯子轩.生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例[J].华东政法大学学报,2024,27(1):61-71.

[18]徐继敏.生成式人工智能治理原则与法律策略[J].理论与改革,2023(5):72-83.

[19]石晶.生命科技风险的宪法回应[J].法学,2023(2):47-61.

〔责任编辑:曲丹丹〕