APP下载

从“回应式”治理到“前瞻式”治理:人工智能伦理治理模式的变革

2024-02-29吴兴华

理论导刊 2024年2期
关键词:治理人工智能

摘 要:不确定性是技术的重要特性,源于知识的不确定性。人工智能作为一种新型技术,同样存在理论、运行机制和功能上的不确定性,而这无疑会给人工智能技术的实际应用带来巨大的伦理风险。从技术不确定性角度看,人工智能伦理治理必然是风险防范重于问题解决。然而,传统人工智能伦理治理侧重于问题解决,更多采用的是“回应式”治理模式。尽管该模式对于问题的善后处理起到了一定的修补作用,但因其滞后性而无法进行事前的风险防范。随着新一轮人工智能革命的到来,人工智能伦理风险也将加大,“回应式”治理将无法有效应对风险,必然要走向“前瞻式”治理。有效开展“前瞻式”人工智能伦理治理,保障人工智能健康发展,不仅要加强人工智能风险理论研究,而且要塑造多元的伦理治理主体、开展多方协作的联合治理。

关键词:技术不确定性;人工智能;伦理治理;“回应式”治理;“前瞻式”治理

中图分类号:TP18      文献标志码:A     文章编号:1002-7408(2024)02-0062-07

随着人工智能技术的飞速发展,其在制造业、农业、商业、教育、医疗卫生、社会服务、新闻媒体等诸多领域都得到了广泛应用。人工智能带给人类的改变远远超出计算机和互联网,其“与大数据、云计算、物联网等深度融合,将推动社会数字化、智能化发展,并塑造新的智能经济和社会形态”,成为重塑未来社会的重要力量。也正因如此,人工智能所引发的伦理问题也将不再局限于传统的技术伦理问题范畴。从技术属性来看,人工智能技术区别于传统技术的地方在于其智能性,即智力和能力,人工智能虽是对人的智能模拟,但其一旦拥有了智力和能力就必将给人类社会带来一些前所未有的新问题。不论是人工智能与人之间的新型伦理关系,还是人工智能应用将会带来的不可预测的伦理风险,都使人工智能伦理治理成为当前科技伦理治理工作中的新问题。目前,人工智能在实际应用中已引发了诸如算法伦理、数据伦理、机器人伦理以及自动驾驶伦理等一系列问题,而如何对这些新的伦理问题进行有效治理,是摆在人们面前的重要任务。显然,传统的“有问题,再解决”的“回应式”伦理治理模式,已无法应对人工智能伦理治理需求。不可否认,“回应式”治理模式对于问题的处置具有一定的修补作用,但又因其滞后性和事后性,常常使伦理治理陷入被动甚至无效的困境之中,导致治理效率较低。对于人工智能技术来说,其智能性本身就存在理论、运行机制和功能等方面的不确定性,这些不确定性将导致巨大的伦理风险,对此“回应式”治理模式无法有效防范。因此,为应对新一轮的人工智能革命,必须变革现有的人工智能伦理治理模式,即从“回应式”治理走向“前瞻式”治理。

一、技术不确定性:人工智能伦理研究的必要视角

不确定性揭示的是世界的复杂性和多样性,而技术作为人造的复杂系统更会增强不确定性。随着现代社会技术性知识的不断增加,我们似乎越来越能掌控这个复杂多变的世界,“但矛盾的是,它也会使事情变得更加不可预测”,“‘黑天鹅’的影响因而进一步加强”。其实,不确定性原本就是技术的本性。正如斯蒂格勒所言:“不确定性是现代机器固有的属性,但它也体现了一切技术物体的本质。”技术的不确定性不仅源于知识的不确定性,而且源于技术本身的创造性。正如克尔凯郭尔在《焦虑的概念》中指出的,不确定性是创造的源泉而不是阻碍它的活力,这就像到一个我们不知道或从未去过的地方冒险。毕竟“在一个确定性世界里,我们如何构想人的创造力或行动准则呢?”所以,技术创新性的动力恰恰始于不确定性。

技术的不确定性为何源于知识的不确定性?追根溯源,任何一项技术的诞生都离不开知识。通俗来说,技术是知识成果的物化。而现代技术更是现代科学知识发展的产物,每一次新的科学知识的诞生都会带来技术上的革新。众所周知,尽管知识是人类对世界认识的成果,但这种成果绝非确定的,正如科学哲学家费耶阿本德曾指出的,“知识可以是稳固的,也可以处于流动状态”。毕竟“知识是一个被设计用以满足局域需要和解决局域问题的局域物品”。这不仅道出了知识是被设计的,知识逃脱不了其主观性,而且也揭示了任何知识都有其特定的处境,是具体的、有限的。正是从这种知识相对主义出发,费耶阿本德进而指出,尽管科学被视为客观真理的化身,但作为一种知识形态其也不过是许多风俗中的一个而已,并非拥有绝对的权威性。所以,科学作为知识中的佼佼者也同样是不确定的。耗散结构理论创立者伊利亚·普里戈金也指出:“人类正处于一个转折点上,正处于一种新理性的开端。在这种新理性中,科学不再等同于确定性。”

知識不仅因其主观性而存在不确定性,还因其表达形式而具有不确定性。知识作为一种观念形态需要用语言来表达,从而被人们所认识和理解,因此可以说,语言是知识的承载者。然而,语言本身也具有不确定性。语言既来自于人们的生活,也服务于人们的生活,因而语言与人们的生活息息相关,即语言离不开人们特定的生活环境。正因如此,从语用学的角度来看,不确定性本来就是语言依赖于环境的必然结果。其实,人类生活的社会环境极其复杂和丰富多彩,在复杂的社会环境中,人类使用的自然语言必然呈现出语义的不确定性。正可谓语境决定语义,即特定的意义是在特定的场景中生成的。正因如此,皮尔斯特伦认为:“只是在我们人类的生活形式、我们做各种事情的习惯背景下,在一个共同的环境中将事物放在一起,这意味着意义和学习是可能的。”

人工智能作为一项新型技术,不仅没有消除反而强化了技术的不确定性。从人工智能技术的发展现状来看,其不确定性主要表现在因其不透明性和不可解释性而造成的多种可能性和不可控性。由于人工智能是人类智能的模拟,人类智能的产生和发展依赖于人脑的神经系统,而人的大脑的 “神经系统没有那么精确”,导致“混合计算机也没有那么精确”。其实,人工智能模拟人类智能本来就是通过不确定性推理方法完成的。所谓不确定性推理即是运用不确定性知识,推导出一定程度上不确定性结论的思维过程,尽管这种推导是合理或近似合理的。这种不确定性推理方法在人工智能的研究中具体化为控制方法和模型方法。无论是依赖于控制策略如相关性指导、随机过程控制等的控制方法,还是依赖于大量的数据进行训练和优化的模型方法,实际上都是无法实现确定性的。而人工智能理论上的不确定性,必将直接决定其在运行机制和功能上的不确定性。这些不确定性也必然会因人工智能技术的普及应用而对传统伦理产生挑战。

物联网、云计算、脑机接口和ChatGPT等数字技术的发展及其在社会领域的推广和运用,不仅给我们带来了新型交流和沟通的工具,而且正在逐步“普遍、深刻又无情地创造和重塑着人类的理论基础与现实基础,改变着人类的自我认知,重组着人类与自身以及与他人之间的联系,并升华着人类对这个世界的理解”。正是这种重塑与重组,催生出人与人工智能之间的新型伦理关系。而人工智能技术的不确定性,无疑增强了人工智能伦理的复杂性和多样性。这种复杂性和多样性,不仅在认知上影响了我们对于人工智能伦理的预测和评估,也在实践上影响了我们对于人工智能伦理问题的治理。

正因如此,对于人工智能伦理问题的治理,必须转换视角,走出现代知识论的思维框架。众所周知,现代知识论一直追求一种确定性,即它总是从一种假设的确定性出发,试图去预知未来,进而建立一套坚不可摧的知识秩序或知识系统以应对一切问题。然而,这一解决问题的理念并不适合人工智能伦理问题的研究。一方面,人工智能伦理是一种人与智能机器之间的新型伦理关系。它突破了传统人与人之间的伦理关系,导致传统的伦理规范在人工智能伦理治理中无法发挥其应有的作用。另一方面,通用人工智能普及会导致一些无法预知的伦理风险,使传统伦理治理方法无法应对。其实,人工智能技术起源于心理学,但即便如此,心理学也无法对人工智能作出清晰的说明,“因为人工智能本身已经提示我们:心智内容十分丰富,远远超出了心理学家们先前的猜想”。可见,目前我们还很难对人工智能的本质及其对社会的影响形成明确的认识。既然如此,现代知识论主导下的伦理治理模式就无法有效解决人工智能伦理问题。因此,对于人工智能伦理的研究就需要我们不仅从技术不确定性视角来审视人工智能伦理,了解其不同于传统伦理的特性,而且从不确定性视角研究人工智能伦理治理目标和治理模式。

二、“回应式”治理:当前人工智能伦理治理的困境

21世纪是人工智能技术突飞猛进的时代,如今人工智能逐步成为一个庞大的产业,它不仅蕴藏着巨大商机,也将触角伸向人类社会的方方面面,给人们的生产、工作、学习和生活都带来巨大影响。与此同时,人工智能向人类社会的全面介入促进了一种新型人机关系的形成。这种新型人机关系不仅对传统伦理道德构成威胁,而且还催生出一些过去不曾有的新型伦理如数据伦理、算法伦理等。而数字鸿沟、算法歧视等这些新型伦理中的问题更是层出不穷,传统伦理道德规范面临挑战,传统的“回应式”伦理治理模式失效。

所谓“回应式”治理模式是对已发生事件采取应对措施的方法,实为“事后修补术”。该模式遵循“先发生、后治理”的治理思路,也就是在问题暴露甚至已造成严重后果之后,对问题及其后果进行回应和处置。既然是事后修补,那么“回应式”治理模式必然缺乏对未来的系统性谋划,因而在遇到问题时也只能是凭借过往经验,采取“头痛医头、脚痛医脚”的方法来处理问题。所以,这种事后和局部解决问题的模式,不仅会因缺乏方法的创新而无法应对层出不穷的新问题,而且还会因完全处于被动状态而无法预先化解一些风险。

其实,这种“回应式”治理模式,在伦理治理中体现的是一种典型的认识乐观主义,即在行动前过于信任知识的可靠性,从而低估甚至完全忽视不确定性的存在。这种认识论乐观主义源自近代开始兴起的决定论。我们知道,不同的治理模式取决于不同的思维方式,而“回应式”治理模式就是由决定论的思维模式所决定的。在人们的观念中,决定论与确定性是分不开的,也即“只有确定性,才具有决定性”,只有确定性的东西才是安全的。正因如此,“我们通常习惯于决定论的思维方式,似乎这样才有安全感”。实际上,“对确定性的追求一直是与人类相伴随的,这是因为,确定性是人的行为能够获得预期结果的前提,也是人的安全感的来源”。而近代牛顿机械论自然观的发展,更是在思想观念上强化了人们对决定论的信仰,进而也使人们形成了决定论的思维方式。近代科学家都曾受到决定论思维的影响,“从牛顿到拉普拉斯,再到爱因斯坦,描绘的都是一幅幅完全确定的科学世界图景”。在他们的观念中,只要有一个公式“则它能确定一切,未来与过去尽在它的掌握之中”。“回应式”治理模式正是决定论思维方式的产物,過于相信决策的确定性,而忽视不确定性的存在,从而缺乏对于未来的预判,导致遇到新问题时只能进行低效的漏洞修补。所以,“回应式”治理模式在很多问题的解决上低效甚至无效。

然而,世界并非确定的。正如物理学家玻恩所指出的,世界本来就是概率的。不仅如此,人类的心智对于世界的认识也永远无法达到确定性,因为“我们无法计算风险、冲击和罕见事件的发生概率,无论我们有多么复杂、成熟的模型。如今,我们实行的风险管理仅仅是对未来发生事件的研究,只有一些经济学家和其他狂人才会作出有违经验事实的断言,称能够‘衡量’这些罕见事件未来的发生概率”。如果说在传统技术不发达的社会,我们所遇到的新事物、新情况相对较少,因而人们还能掌控一些事情,那么在现代高科技时代,科技不断变革和重塑着世界,使得“一切固定的僵化的关系以及与之相适应的素被尊崇的观念和见解都被消除了,一切新形成的关系等不到固定下来就陈旧了。一切等级和固定的东西都烟消云散了,一切神圣的东西都被亵渎了”。在这样一个多变的不确定的世界里,“一切皆变、无物常驻”,传统不断被颠覆,新事物不断涌现。正如耶鲁大学计量经济学家伊恩·艾瑞斯在对大数据时代隐私保护问题的论述中提到的,“传统意义上的隐私权指的是保护过去和现在的信息,人们没必要担心要不要保护未来信息的隐私。因为未来的信息还不存在呢,没什么好保护的。但是,有了数据挖掘预测,人们就该担心了”。同样,面对飞速发展的人工智能技术,我们还很难预知下一个未来将是什么。所以,“回应式”治理模式必然会因忽视不确定性,而无法有效应对新型伦理问题。

随着通用人工智能在社会生产、生活等领域的推广,各国政府也纷纷开始呼吁要加强和规范人工智能技术的应用,如2021年欧盟发布关于人工智能技术的监管法规草案、美国提案赋予社交媒体用户禁用算法的权利等。中国基于构建人类命运共同体的立场,发布了一系列关于加强人工智能伦理治理的文件,如2021年发布的《新一代人工智能伦理规范》,强调加强人工智能技术、人工智能伦理和治理研究。尽管如此,目前人工智能伦理治理依然没有跳出“回应式”治理模式。从人工智能伦理治理研究来看,学界已意识到人工智能对传统伦理的挑战,并开始进行一些新的研究和探索,如以荷兰学者维贝克为代表提出的“道德物化伦理学”,温德尔·瓦拉赫、科林·艾伦提出的建构一种功能性道德等。这些探讨都具有重要意义,但也都没能真正走出“回应式”治理模式的困境,同样无法应对一个未知的不确定性的未来,因为无论是道德被物化,还是被嵌入人类道德的道德机器,都无法阻止一个未知的新伦理问题的出现。从人工智能伦理治理的实践来看,目前的人脸识别、自动驾驶、机器学习和算法等运用中引发的伦理问题,其解决方式多是以技术治理技术问题或对技术的应用进行控制或限制。这些方法似乎能减少人工智能伦理问题的发生,但在另一种程度上又会限制人工智能技术的发展和应用,因而也只是一种“修补术”而已。可见,无论在理论上还是实践上,“回应式”治理模式仍然是当前人工智能伦理治理的主要模式。

由于对不确定性的忽视,“回应式”治理模式在人工智能伦理问题的治理上逐步陷入困境。首先,“回应式”治理模式缺乏风险预判机制,无法有效应对人工智能不确定性带来的伦理风险。尽管创造力一直被视为人类智慧的顶峰,人们也常常认为“没有什么有趣的人工智能可以体现创造力。但人工智能技术产生了许多在人类历史上属于新颖的、异乎寻常的以及有价值的想法”。正是人工智能技术的不确定性,才会有创造性,而创造会导致意外产生,因而对于意外带来的伦理问题也必然不在人们的掌控之中。所以,“回应式”治理模式无法有效应对人工智能引发的意外。其次,“回应式”治理模式对于问题的处理立足于过往经验,无法及时解决人工智能带来的伦理新问题。正如前文所言,“回应式”治理模式是由决定论的思维方式决定的,而决定论的逻辑是“过去决定未来”,过往的治理经验能够有效解决未来的问题。然而,人工智能引发的新的伦理问题与传统伦理问题截然不同,“回应式”治理模式无法有效解决人工智能应用所产生的伦理新问题。最后,“回应式”治理模式是一种问题的善后处理术,无法为人工智能健康发展提供先行的伦理规范,因而不能为人工智能健康发展保驾护航。总之,“回应式”治理模式在人工智能伦理治理中所遭遇的困境,不仅大大弱化了人工智能伦理治理能力、降低了伦理治理实效,而且也因无法为人工智能技术研发和应用提供伦理先导,从而阻碍了人工智能的未来发展。

三、“前瞻式”治理:人工智能伦理治理的必由之路

人工智能技术不确定性决定了传统“回应式”治理模式已不合时宜,亟须变革。“回应式”治理模式在一定程度上能起到降低和减小损失的作用,但因其缺乏对不确定性因素的考量而无法有效防范风险。人工智能技术的不确定性决定了人工智能伦理治理中风险防范要先于问题处理,这就要求人工智能伦理治理模式变革必然要从“回應式”治理走向“前瞻式”治理。

何谓“前瞻式”治理?顾名思义,它是指通过“前瞻思考”既考虑未来外界的变化,又考虑事物自身的发展,并将二者结合起来预判未来可能面临的机遇与风险,进而采取各种措施和方法抓住机遇、防范风险,推进事物发展的活动。“前瞻式”治理由前瞻性思维方式决定。所谓前瞻性思维,是指从不确定性视角去思考未来,预测未来可能发生的事。概而言之,前瞻性思维是一种系统性、全局性、战略性、开放性的思维。因而,由前瞻性思维方式所决定的“前瞻式”治理,必然具有整体布局、战略规划、主动承担、开拓创新、动态预判等特点。

正因如此,对于人工智能伦理的治理,“前瞻式”治理必然是对“回应式”治理的超越。首先,人工智能的不确定性必将导致新的伦理风险,这就要求在治理过程中主动出击,强化主体责任意识,将风险扼杀在萌芽状态。“前瞻式”治理具有主体承担性特点,因而在治理上不仅拥有主动权,而且能够增强和培养治理者的主体责任意识。其次,人工智能伦理作为新型伦理形式,在伦理关系、准则和标准等方面都与传统伦理存在很大的差异性,这就要求治理方法不断创新。“前瞻式”治理具有动态预判性特点,能够对未来的风险作出一定程度的预测,其无疑在科技发展和治理过程中遵循了“伦理先行”的原则。最后,人工智能发展规划是一项系统工程,在治理过程中需要整体规划布局。“回应式”治理只是凭借过往经验进行局部修补,无法有效解决人工智能全局性的伦理问题。而“前瞻式”治理具有全局战略性特点,在治理过程中能够避免局部修补术的弊端,从而积极推动人工智能技术健康协调发展。

值得注意的是,在人们的观念中,“前瞻式”治理的核心是预测,而如何预测以及预测的根据何在?这似乎又回到了确定性。如何破解这一悖论需要我们转变对不确定性的认识,也只有解决这一观念问题才能实现人工智能伦理治理模式的变革。其实,不确定性并非是确定性的对立面。耗散结构理论创立者普里戈金虽然解构了确定性世界观,但他同样也反对纯机遇的任意宇宙思想。他认为:“现今正在出现的,是位于确定性世界与纯机遇的变幻无常世界这两个异化图景之间某一处的一个‘中间’描述。”也就是说,我们实际上生活在一个可确定的概率世界之中,生命和物质在这个世界里沿时间方向不断演化,而确定性本身才是一种错觉。既然世界具有可确定性的概率,那么就有了对未来的预测、预判的可能。也正因如此,“前瞻式”治理就是要在不确定性中寻找确定性。那么,如何在不确定性中寻找到确定性,则成为实践“前瞻式”人工智能伦理治理的关键。笔者认为,可以从以下几个方面入手解决这一问题。

首先,加強人工智能风险理论研究。虽然不确定性会引发风险,但风险本身也是不确定性的。“不确定性的存在意味着存在一个客观范畴,从小到大,从风险到无知,然而,我看到风险、不确定性、无知和非决定性彼此交叠。”客观存在的风险,尽管是不确定的,但如果我们能够在认知上识别它,实际上就是从不确定性走向了确定性。我们之所以无法充分认知不确定性的风险,关键就在于缺乏科学的风险理论的指导,特别是对人工智能这一新兴技术而言,关于其风险理论的研究并不多见。因此,人工智能伦理治理模式的变革要求我们加强对人工智能风险理论的研究,从而在加深对风险认识中消除风险的不确定性。其实,早已有学者对风险问题展开了研究,如贝克、吉登斯、卢曼、丹尼尔等思想家都在对现代性进行反思的过程中,从不同视角对风险问题展开过研究。但早期思想家们关于风险理论的研究主要聚焦于对工业文明带来的社会风险的思考。目前对于人工智能技术及其应用引发的风险还缺乏深入研究,惟有在科学的人工智能风险理论指导下,才能对人工智能伦理风险作出正确的预估,从而更好地发挥“前瞻式”人工智能伦理治理模式的优势。

其次,塑造多元化的“前瞻式”人工智能伦理治理主体。在“前瞻式”治理中,科学预判是正确治理的前提。当然科学的预判需要明智的主体,正如司马相如所言:“盖明者远见于未萌而智者避危于无形,祸固多藏于隐微而发于人之所忽者也。”也就是说,只有明智的人才能从不确定性视角审时度势、预判未来,从而做到在危险到来之前采取措施而避开灾祸。所以,在“前瞻式”人工智能伦理治理中需要培养明智的多元治理主体。这种多元主体应该包括政府、科技人员和广大社会公众等。对于政府而言,要站在战略高度为人工智能技术创新发展指明方向,并面向未来制定前瞻性、系统性的风险监管计划和措施。对于广大科技工作者而言,要以前瞻性和专业性的视角对人工智能的研发、应用等风险作出有效的预估。对于社会公众而言,作为人工智能技术的受益者,需要具备防范风险的主体责任意识。正如前文所言,“前瞻式”治理的一个重要特征就是需要治理主体具备主动性和高度的责任意识。因此,在“前瞻式”伦理主体塑造中,不仅要增强社会公众对人工智能伦理风险的敏感性,而且要培养其主体意识和责任意识。简单来说,主体意识就是主体的自我意识。这种自我意识表现为人在同外部世界发生关系时,对于自身的主体地位、能力以及价值的一种自觉意识。而正是有了这种自觉意识,主体才有可能产生勇于承担风险的责任意识。

最后,开展多方协作的联合治理。“前瞻式”治理是一项系统性、全局性、全过程的治理工程,因而需要多元治理主体进行合理的分工和协作。各级科研院所要对人工智能技术进行严格的伦理审查,从而将人工智能技术在研发和运用过程中所可能产生的伦理风险降到最低。近年来,我国政府高度重视科技的伦理审查,并于2023年正式公布了由科技部、教育部、工业和信息化部等部门联合印发的《科技伦理审查办法(试行)》(以下简称《审查办法》)。《审查办法》明确要求:“高等学校、科研机构、医疗卫生机构、企业等是本单位科技伦理审查管理的责任主体。从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。”科技伦理审查旨在从人工智能技术研发的源头减小和降低伦理风险,因而是“前瞻式”治理不可缺少的环节。此外,公众参与也是“前瞻式”人工智能伦理治理的重要组成部分。一项完整的人工智能技术创新活动,应该包括从人工智能产品的研发到人工智能产品投入社会使用的整个过程。在人工智能技术研发阶段,如果说伦理风险预测主要有赖于科技人员的道德想象力,那么在人工智能产品的实际应用阶段则需要广大社会公众发挥重要的监督作用。毕竟人工智能产品最终是面向社会公众的,因而人工智能技术的研究离不开公众。“只要公民觉得难以提出和表达他们的看法,发展的代价和问题就难以估算。”也就是说,公众参与对“前瞻式”人工智能伦理治理尤为重要。所以,社会公众要不断提升自身的伦理道德素养并积极投身到人工智能伦理治理实践中去。惟有这样,才能使人工智能伦理治理贯穿人工智能技术发展的全过程,从而将伦理风险降至最低。

结语

人工智能技术越发达,其所衍生出的伦理问题就越复杂,而为了确保“人工智能必须是一种支持人类智能的技术”,就要加大对人工智能伦理问题的治理。同样,人工智能技术的创新发展,也使人工智能伦理风险不断增大,如何防范人工智能伦理风险,将成为未来人工智能伦理治理的主要任务。就人工智能伦理风险防范而言,传统的“回应式”人工智能伦理治理模式已然不合时宜,人工智能伦理治理模式必须由“回应式”走向“前瞻式”。虽然学界已有部分学者意识到人工智能伦理治理中风险防范的重要性,也提出创新技术的预期治理并对道德想象力展开研究,但目前无论国内还是国外对于人工智能伦理问题进行“前瞻式”治理的研究尚未全面展开。因此,对于“前瞻式”人工智能伦理治理模式实践的可行性路径还需要长期的探索和研究。

参考文献:

[1] 莫宏伟, 徐立芳. 人工智能伦理导论[M]. 西安:西安电子科技大学出版社,2022:1.

[2]纳西姆·尼古拉斯·塔勒布. 反脆弱:从不确定性中获益[M]. 雨珂,译.北京:中信出版社,2023:前言.

[3]贝尔纳·斯蒂格勒. 技术与时间[M]. 裴程,译.南京:译林出版社,2000:83.

[4]KIERKEGAARD S.The concept of anxiety: a simple psychologically orienting deliberation on the dogmatic issue of hereditary sin [M]. THOMTEEDR. (ed.& trans.) Princeton: Princeton University Press,1980:187.

[5]伊利亚·普里戈金. 确定性的终结:时间、混沌与新自然法则[M]. 湛敏,译.上海:上海科技教育出版社,2018.

[6]保罗·费耶阿本德. 告别理性[M]. 陈健,柯哲,陆明,译.南京:江苏人民出版社,2002.

[7]江怡.后期维特根斯坦论确定性与不确定性[J].山西大学学报(哲学社会科学版),2022(3):1-9.

[8]冯·诺伊曼. 计算机与人脑[M]. 甘子玉,译.北京:北京大学出版社,2010:5.

[9]卢西亚诺·弗洛里迪. 第四次革命:人工智能如何重塑人类现实[M].王文革,译.杭州:浙江人民出版社,2016:前言.

[10]玛格丽特·博登. 人工智能的本质与未来[M]. 孙诗惠,译.北京:中国人民大学出版社,2017.

[11]付长珍,成素梅,劉梁剑. 量子论、量子思维与面向未来的科技伦理:钱旭红院士访谈[J]. 华东师范大学学报(哲学社会科学版),2022(2):29-37+174.

[12]张康之, 张乾友. 人类追求确定性的历史足迹[J]. 浙江学刊, 2011(2): 138-145.

[13]李德毅,杜鹢. 不确定性人工智能[M]. 北京:国防工业出版社,2005: 58.

[14]伊萨克·牛顿. 自然哲学之数学原理[M]. 王克迪,译.武汉:武汉出版社,1992: 689.

[15]马克思恩格斯选集:第1卷[M]. 北京:人民出版社,1995:275.

[16]伊恩·艾瑞斯. 大数据思维与决策[M]. 宫相真,译.北京:人民邮电出版社,2014:176.

[17]WYNNE B. Uncertainty and environmental learning: reconceiving science and policy in the preventive paradigm[J]. Global Environmental Change, 1992, 2( 2) : 111-127.

[18]司马迁. 史记[M]. 杨燕起,译注.长沙:岳麓书社,2021: 3552.

[19]科技伦理审查办法:试行[EB/OL].(2023-10-08)[2023-10-16]. https://baijiahaobaiducom/s?id=1779182029627860414&wfr=spider&for=pc.

[20]安德鲁·芬伯格.可选择的现代性[M].陆俊,严耕,译. 北京:中国社会科学出版社,2003:中文版序言.

[21]沃尔夫冈·霍夫基希纳.人工智能的未来:“慈爱的机器”还是“交际的工具”[J].重庆邮电大学学报(社会科学版),2022(4):56-61.

【责任编辑:何妮】

基金项目:安徽省哲学社会科学规划项目“数字技术的隐性意识形态风险与防范研究”(AHSKY2022D228)。

作者简介: 吴兴华( 1970—) ,女,安徽舒城人,安徽师范大学马克思主义学院教授,哲学博士,研究方向:西方马克思主义、科学技术哲学。

猜你喜欢

治理人工智能
我校新增“人工智能”本科专业
2019:人工智能
人工智能与就业
数读人工智能
社会参与美国社区学院治理及对中国应用型本科高校治理的启示
关于治理潮州市区流动摊贩占道经营问题的思考
治理背景下我国少数民族传统体育运动会的发展
浅析网络舆情治理
下一幕,人工智能!
下一幕,人工智能!