APP下载

论文森特·穆勒的人工智能哲学思想

2021-12-07刘宝杰

关键词:认知科学穆勒伦理

刘宝杰,姜 惠

(曲阜师范大学 马克思主义学院,山东 曲阜 273165)

文森特·穆勒(Vincent C.Müller)是埃因霍温理工大学(TU/e)的技术哲学教授,利兹大学的大学研究员和伦敦的Alan Turing 研究所的图灵研究员,以及欧洲认知系统学会和“伦理,法律和社会经济问题”euRobotics 专题组主席。近年来,穆勒发表了40 余篇学术论文,并编辑出版了16 本著作,内容涉及AI 和认知科学哲学、计算哲学、语言哲学、应用伦理学等方面。近年来,其研究聚焦于心灵、语言与计算哲学以及信息与计算伦理。

一、人工智能哲学的新发展

当前,新一轮科技革命正蓄势待发,各国纷纷进行颠覆性技术创新以抢占先机。从国际大环境看,颠覆性技术创新聚焦于一些关键领域,人工智能便是其中之一。当人工智能的研究人员去探索人工智能时,他们认为从哲学角度审视人工智能,是发展人工智能的必要一环,穆勒也表明人工智能哲学将对人工智能的发展发挥指导作用。基于人工智能哲学的发展现状,穆勒指出,人工智能哲学实际上已经发生了一些新变化,并且主要体现在两个方面,即:人工智能与认知科学相分离以及人工智能的长期风险在哲学研究中日益受到关注[1]2。

关于人工智能与认知科学的关系研究。在传统观点中,人工智能与认知科学之间恰似一枚硬币的两面。20 世纪80 年代,约翰·豪格兰德(John Haugeland)提出了“有效的老式人工智能”(GOFAI),认为对符号表征的句法处理足以实现智能。[2]2如果认知是基于符号表征的计算过程,那么计算可以被认知科学发现,然后由人工计算系统中的人工智能实现。[1]2在GOFAI 之后,穆勒指出,现在认知不再必须作为算法符号处理而存在,认知科学涉及“具身化理论”“动态理论”等,并且它趋向于寻找自己的发展道路,而不再附属于人工智能。

关于人工智能长期风险的哲学分析。人工智能作为颠覆性技术,其应用和发展必然会对社会产生多样的颠覆性影响,其中,人工智能所带来的长期风险更是在哲学研究中引起广泛关注。在这里,长期风险主要包含两方面的理解。一方面,人工智能的应用使人类当前正面对着一系列风险挑战,这些现有的风险对人类的影响时间较久,就此而言,人工智能的风险是长期的。另一方面,人工智能的发展使人类未来将面临新的风险挑战。尽管一些人工智能在现实应用中并未完全暴露出其风险,但由于新兴技术尚不完善,随着人工智能的发展,新的风险将接续出现,这也意味着人工智能的风险是长期风险。总之,穆勒认识到人工智能风险的长期性,综合考量人工智能的现有风险与潜在风险。

二、人工智能与认知科学的新关系

穆勒指出,当前人工智能哲学新发展中的一个主要变化就是,由于人工智能和认知科学的发展,人工智能与认知科学的关系呈现新变化。同时,穆勒认为,我们如何看待人工智能的发展前景、如何看待人工智能与认知科学的新关系,这取决于我们如何看待自己制造的技术产品和人类自身,因为这些问题涉及技术功能和人类认知。因此,当我们重新审视二者之间的关系时,这在一定程度上意味着重新审视技术产品与人类之间的关系。[3]68

传统的“计算主义者”认为,认知是对表征的计算,它可以在任何自然的或人工的计算系统中进行。[3]68认知科学通过其理论应用发现了自然的认知系统是如何工作的,而人工智能的工程学科则测试了认知科学的假设并将其用于发展人工认知系统的过程中。[1]2在这种传统观点中,人工智能和认知科学具有共同假设的哲学分析,二者相互联系,这一观点引起了人们对人工智能的哲学和理论探索兴趣。但就目前来看,这一旧共识的大多数观点都受到了强烈的冲击:[3]68计算是数字化的;表征对于计算至关重要;有生命或是无生命主体间的区别已无关紧要;等等。

就人工智能发展历程来说,在经过1967 年至20 世纪70 年代初期的萧条停滞期后,人工智能不断走向蓬勃发展。此外,加上认知科学在当前的新发展,这两方面的因素使穆勒认为“当前的人工智能似乎已经终结了同认知科学间的特殊关系”[4]102,二者不再紧密结合。当前,穆勒指出认知主义找到了撤退和重组的方法,特别是当它涉及人工智能或人工认知系统的论题时,穆勒还特别以人工通用智能进行说明:如果我们一开始就假设智能主体是在给定的环境中通过选择正确行为来实现其目标的主体,那么更智能的主体可以在更多的环境中实现其目标——这一考量提供了智能的一般衡量标准。[5]47因此,可以通过机器学习技法(machine-learning techniques)来实现人工通用智能,机器学习技法实质上就是在给定某些输入集的情况下优化输出。尽管原始模型中有类似于智能主体具有无限计算能力这样的不真实的假设,仍然有大量项目意欲创建智能主体。在这里,穆勒指出了“行动选择”问题(Problems of“Action-Selection”),具体而言,智能主体解决了“行动选择”问题即“接下来我应该做什么”的问题,这是“建模-计划-行动”的结果,也就是基于主体的认知主义的结果。但在穆勒看来,当前许多智能主体根本不进行“行动选择”,例如耦合具身化系统中的被动动态助行器(the passive dynamic walker),它是一种不需要任何电子控制设备就可以行走的微型机器人,其行走取决于行走的路表状况和助行器的机械参数,并不需要助行器做出“行动选择”,这就与认知主义并无关联。而且,在对人工认知系统的探讨中,穆勒对经验论题、实践工程论题和概念论题做出判断:具身认知的经验论题完全为真,实践工程论题基本为真,而概念论题可能为假。[5]48这三个论题在逻辑上是各自独立的,就此而言,人工智能与认知科学是相互独立的。

此外,在对玛格丽特·博登(Margaret Boden)《机器思维:认知科学的历史》(Minds as Machine:A history of cognitive science)一书的书评中,穆勒更是直言:“认知科学死了,认知科学万岁!”[6]124在穆勒看来,认知科学摒弃了原有的发展模式,逐渐开辟出新的发展路径,它以认知心理学为主要形式,并与人工智能分离,而人工智能也已成为一门成功的工程学科,在很大程度上没有任何关于认知的探索[6]124。

三、人工智能的长期风险

穆勒认为当前人工智能哲学的另一个主要新变化就是,人工智能哲学日益重视对人工智能的长期风险研究,并且穆勒也做出大量分析。其中,穆勒分别从就业、隐私和军事等方面指出,人工智能使人类面临着失业风险、隐私风险和安全风险。

人工智能可能激化未来全球范围内的失业问题。人工智能对就业的影响,一方面,人工智能会提供新的就业机会,另一方面,人工智能又会使劳动者失业。在人工智能对失业的影响这一问题上,尽管人们对此持悲观、中立和乐观三种态度,但三方都认为人工智能会造成大批劳动者失业。在穆勒看来,其一,由于人工智能的发展,智能机器人进入生产和生活领域,不断排挤劳动者。例如,在健康护理行业中,护理机器人代替了大量的人类护理人员。其二,由于颠覆性技术是能够破坏和替代现有技术的全新技术,其发展和应用必然需要新的技能,在人工智能领域内,劳动者若不按人工智能的技术新要求提高劳动水平,就将不幸成为失业者。其三,工业自动化取代了人的自然力,数字自动化取代了人的思想或信息处理,由于人工智能使信息技能自动化,目前劳动力市场上出现了“工作两极分化”或就业结构“哑铃状”:高技能的技术性工作需求量大、工资高,低技能的服务性工作需求量大、工资低,但中等技能要求的工作(即绝大多数工作),由于具有相对可预测性且有固定规则,因此最有可能被自动化所取代,从事这些工作的劳动者大多会失业。穆勒总结道:“人工智能最终是否会导致失业,取决于技术发展和社会反应。”[7]10随着人工智能的发展,摆脱时间与空间的局限,人工智能在未来可能会加剧全球范围内的失业问题,因此说,人类面临着失业风险。

人工智能增加了对个人进行数据收集和利用信息操纵行为的可能性。随着新兴技术的发展,人们的生活愈发信息化、数字化。一般来说,目前的数据都以数字化方式进行收集和储存,后经传感技术转化为新的信息和数据。例如,人脸识别系统借助大数据分析和人工智能算法,通过对照片或监控系统中的人脸进行识别,从而实现对个人信息的搜索和分析。因此,从这个角度来说,人工智能极大地增加了数据收集、数据分析和监视的可能性。而当前,越来越多的商业企业开始利用人工智能的这一效应,对顾客的信息进行访问,以实现自己的经济利益。此外,“监视中的人工智能问题不仅涉及对数据的收集和关注的方向,还包括使用信息来操纵行为”[7]6。虽然操纵行为由来已久,但在基于大数据分析的人工智能系统中,操纵行为有了新的发展。由于国家、企业和私人个体对个人信息和数据的掌握,用户很容易受到欺骗,进而阻碍自主理性的行为选择。总之,人工智能及其应用在很大程度上对人类进行监视,个人面临着隐私风险。

人工智能在军事中的应用使得安全风险增加。其一,借用斯派洛(Rob Sparrow)所假设的案例:机载自动武器系统在人工智能的指导下,仍会有意轰炸已表明投降意愿的敌军。[8]304穆勒指出,人工智能应用于战争之中,战争机理随之发生变化,存在各种不确定因素。同时人工智能尚未成熟,存在着较高的误判概率,军事安全得不到保障。其二,自主武器的使用,可能提高战争爆发概率和战争破坏程度。就小范围的影响而言,一架装载爆炸物的小型无人机就能够搜索、识别、追杀一个部队的人类。那么能够自动识别和攻击目标的常规巡航导弹,会在更大范围内造成破坏,特别是在人口稠密的地区,人们的生命安全受到更大的威胁。其三,由于各国政治力量和人工智能发展水平不同,一方可以不受惩罚地攻击另一方的不对称性冲突已经存在。这种不对称性冲突,无论是发生概率抑或是破坏程度都较之以前有所提高,特别是对被攻击一方而言,人民的生命安全受到威胁。“可以说,主要的威胁不是在常规战争中使用此类武器,而是在非对称冲突中或由包括罪犯在内的非国家机构使用。”[7]12

坐在沙发上的周泽赡无聊地换着电视频道。换到播《动物世界》的频道时,周泽赡停下了按键的手指,抱肩看起电视来,眼神却没有聚焦到屏幕上。周泽赡坐到靠近桌子的座机前,熟练地拨着号码。

作为颠覆性技术的人工智能无疑给社会带来新的发展和变革,其中,穆勒着重对人工智能及其发展所带来的风险挑战进行分析。以人工智能对就业、隐私和安全的消极效应分析为例,穆勒揭示了人工智能所带来的社会问题、伦理问题和安全问题。

四、人工智能的政策干预

由于人工智能给人们的日常生活带来许多威胁,不少人都主张禁止使用人工智能,特别是在致命自主武器系统(LAWS)这一领域,人们普遍反对人工智能的应用。不同的是,穆勒提出了“调节规范、而非禁止”[8]321的口号。针对人工智能所带来的问题与挑战,穆勒强调各国政府和国际组织有责任规范人工智能及其应用,通过政策引导推进人工智能的健康发展及合理应用。

尽管已经认识到政策制定的重要性,但穆勒同时指出,政策的实际制定及执行存有一定难度,人工智能政策很有可能与经济政策等相矛盾。在政策制定时,一个重要的现实影响因素就在于政策制定的对象以及主体的构成。例如政府往往倾向于将决策委托给专家,而非更深入地吸收社会相关利益者,[7]4这就可能导致在政策指导后的人工智能仍然可能引起民众反抗。因此,以“负责任创新”(RRI)的研究口号为鉴,像人工智能此类颠覆性技术的政策制定要充分考量社会相关利益者的情绪和建议。此外,穆勒强调,在政策制定时应将法律和伦理分开考量,因为我们通常认为这两方面在逻辑上是独立的:某些特定合法行为仍然可能是不合伦理的,而某些特定合乎伦理的行为仍然可能是非法的。[9]138政策或规则同样如此,如果我们接受了伦理规范,也并不意味着存在或应该存在法律规则,反之亦然。就此而言,在制定人工智能的相关政策时,穆勒建议采取法律和伦理分析两个步骤。例如,基于人工智能在军事领域中的风险分析,穆勒以LAWS 为例,对规范人工智能提出系列政策建议。

基于法律考量的LAWS 政策。一是建立国际LAWS 技术标准机构。LAWS 对国际人道法相称原则的遵守首先应出于道德和政治判断,然后再以技术规范表示。同时,全球技术发展的现实又要求建立国际标准机构来建立和维护这些规范。二是建立国家LAWS 技术标准和许可机构。建立国内技术规范标准,并将国家或超国家监管机构合并,使这些机构负责发放许可证并管理生产商。三是将战争罪行的法律条文扩展到LAWS 的非法使用。在建立国际和国家标准机构后,就需要法律约束来强制遵守。同时,法律应该扩展到LAWS 的非法使用,在这里,非法使用包括:部署不合标准的LAWS、使用不合标准的LAWS、故意不当或严重过失使用LAWS。四是与常规战争相比,LAWS 效应更优时才允许被部署。当LAWS 符合国际人道法的相称原则,且在战争中给人民带来的风险小于常规战争给人民带来的风险时,才可部署LAWS。五是仅在有令人信服的军事理由时才允许使用LAWS 进行杀戮。由四可知,只有符合国际人道法,才可部署LAWS,而要在战争中使用LAWS,则需有令人信服的军事理由。[10]3总之,穆勒基于法律维度的人工智能政策建议,兼顾了国内国际的考量,包含了法律的制定完善与遵守。

基于伦理考量的LAWS 政策。就战争中是否可使用LAWS 这一问题上,大多数人持反对态度,也有基于结果论的人持支持态度。而穆勒基于正义战争理论所假定的权利的非总体结构,在伦理维度表明了LAWS 使用的允许性。[8]302在这里,穆勒引入了“容忍度”(tolerance level)的规范性概念,它实际指的是伦理上要求的技术的可靠性程度。在实践中,容忍度通常与一个系统执行其功能的特定条件相关,[8]307并且设定容忍度需要解决风险伦理的一系列问题。在以上规定之下,穆勒做出论述:在LAWS 中,杀手机器人的可靠性是针对各个任务分别定义的,因此,杀手机器人应当是以充分的可靠性来执行其功能的工程系统。[8]310在设计杀手机器人时,容忍度的要求之一就是需要定义杀手机器人仅在攻击合适的目标时应达到的可靠性程度,而在伦理方面最重要的关注点就在于攻击目标的选择。杀手机器人若在目标选择时出现了偏差,就可能导致严重的后果,即无辜的人在这场战争中受到攻击。因此,穆勒建议,必须首先确定LAWS 的容忍度,并且仅在经过全面的测试和检查之后才能使用LAWS。

总之,穆勒对人工智能的政策建议是针对人工智能的风险而提出,目的是尽可能通过政策引导来减少人工智能所带来的风险。

五、人工智能的未来进展

在穆勒看来,目前关于人工智能未来的讨论主要存在三个方向:[3]68-69一是基于技术进步,人工智能将实现新发展,这一方向与机器超越人类智能的“奇点”概念相关。二是未来人工智能将抛弃传统形象,特别是通过拒绝表征、强调主体的具身化以及对属性的“出现”。三是人工智能在其他领域获取新发展。一种方法是从神经科学开始,着力于动力学系统,并试图在认知系统中比经典认知科学建模更多的基本工程。其他方法则是颠覆“主体”的概念,并在更广泛的系统中发现智能。三个方向的讨论都体现着人工智能不断革新发展的趋势,并且穆勒认为人工智能取得的大部分进步,都可以归因于速度更快的处理器和更大的存储量。

面对未来“超级智能”的风险,应该怎样对待“超级智能”?对此,穆勒又分析了“控制超级智能”的问题[7]17:从狭义上讲,“控制问题”是指一旦人工智能系统变为“超级智能”,那么我们人类应该如何继续控制它。这里涉及,我们应将其限制在各种“盒子”内,还是应对其某些方面做出硬性规定,抑或是防止它忽略人类意图······?从广义上讲,“控制问题”是指我们如何才能确保人工智能系统对人类而言是积极意义上的系统,这时常被称为超级智能的“价值对齐”(value alignment),后来梅内尔(Hadfield Menell)将其正式定义为“协同反向强化学习”(cooperative inverse reinforcement learning)。控制超级智能的难易程度很大程度上取决于从人类控制的系统到超级智能系统的发展速度,这引起了人们对具有自我完善能力的系统的特别关注。穆勒还认识到,未来超级系统极有可能会产生人类无法预料的负面效应,这对“控制超级智能”而言是一个极大挑战。而且更糟的是,当人工智能超过人类的智能水平,“这似乎暗示着,即使我们对它有了丰富的认识,但它仍然是深不可测、不可控制的”[12]300。

六、学术评价

近年来,穆勒将研究视点聚焦于颠覆性技术(尤以人工智能为重点),并取得了丰硕的研究成果。他在人工智能哲学上的贡献主要在于:首先,针对当前人工智能哲学发生的新变化,穆勒对其中两个主要变化进行了分析。其一,随着人工智能与认知科学的发展,穆勒指出二者逐渐分离,不再是一枚硬币的两面。其二,人工智能的风险在哲学研究中日益受到关注,对于此问题,穆勒主要分析了人工智能给人类带来的失业风险、隐私风险和安全风险。继而,穆勒基于对人工智能风险的分析,主张对人工智能进行政策干预以实现人工智能的健康发展。其中,穆勒强调政策规范应充分考虑社会相关利益者的情绪和建议并将法律维度和伦理维度分开考量。其后,穆勒对人工智能的未来发展进行展望,指出人工智能在发展的同时也将给人类带来风险,穆勒对此的态度为“控制超级智能”。但同时他也认识到,实际上,“控制超级智能”对人类来说也是一项挑战。总之,穆勒对人工智能哲学的研究已经呈现出清晰的逻辑进路。

然而,纵观穆勒对人工智能的哲学研究,穆勒尚未从价值维度对人工智能的发展目标做出规范,如穆勒的研究并未涉及人工智能是否可发展成为具有人性化、公平性、安全性等价值的人工智能。在人工智能给人类带来巨大风险挑战的情况下,建构什么样的人工智能实际上是人工智能哲学中的必要一问,在一定意义上也是人工智能研究的出发点和落脚点。对待这一问题,除了基于人工智能技术本身,更应该从公众、政府、国际社会等角度去探索人工智能的建构方向,使人工智能造福人类。此外,在穆勒的现有研究成果中,也存在可待商榷之处。

在人工智能的政策规范问题中,穆勒强调在政策制定时应将法律和伦理分开考量。诚然,人们通常认为法律和伦理各自具有独立性,但这样的政策在引导人工智能的发展时,法律和伦理间的矛盾冲突并未得到根本解决,因为当一项人工智能技术在基于法律考量的政策引导下进行应用时,它仍有违背伦理的可能性,反之亦然。因此,无论是在人工智能的哲学研究中,还是在人工智能的实际应用中,我们需要去探索如何尽可能地使人工智能政策实现法律与伦理的有机结合。

关于人工智能的未来发展,根据穆勒的调查问卷结果,被调查者基本上对人工智能的发展持乐观态度。这主要体现在,一是人们基本认为人工智能未来会发展为“超级智能”,只不过在实现时间上存在着不同看法,二是仅有30%左右的被调查者认为人工智能的未来发展对人类将产生“坏”或“极坏”的影响。针对这一调查问卷及结果,需要认识到的是,穆勒设置的调查对象是550 位人工智能及相关领域的专家,这使得该调查具有一定的专业性,但同时也使得基于该调查的研究缺乏一定的完整性,特别是忽视了群众、决策者等人的多样化态度。从这一角度讲,穆勒基于该调查所做的研究具有较强的人工智能专业性,但同时也具有一定的狭隘性。此外,穆勒提出要“控制超级智能”,并强调这对人类而言也是一种挑战,而在当前穆勒还未进一步说明如何“控制超级智能”的问题。因此,在笔者看来,穆勒未来可就“控制超级智能”做出进一步研究,以完善当前论题。

猜你喜欢

认知科学穆勒伦理
《心之死》的趣味与伦理焦虑
脱不下的穆勒鞋
平衡之美
护生眼中的伦理修养
美特别检查官穆勒宣布退休
贵州民族大学“认知科学与技术”实验班
绅士都为她着迷
脑与认知科学贵阳宣言
意识的自然化之后——评《神经现象学:整合脑与意识经验的认知科学哲学进路》
浅谈梵藏翻译过程及认知科学与佛教间的关系