人工智能发展中道德问题辨析
2019-12-25赵志远
赵志远
(北京交通大学马克思主义学院,北京 100044)
人工智能技术作为未来科技领域的指南针,对人类社会的发展具有重要的意义,人工智能的发展在带来可喜成就的同时同样也产生了一些难以回避的问题。比如,随着未来强人工智能时代的到来,人工智能是否会像人类一样面临着“伦理道德问题”。人工智能前景如潮,不能因为畏惧风险就抛弃未来,社会发展事关全体,面对人工智能的发展我们必须建立起全社会一体的行动者网络。
1 不断前行的人工智能
1.1 人工智能发展历程回顾
从1956年开始,人工智能一词开始正式使用,进入理论研究阶段。20世纪80年代中后期,神经元网络相关的研究技术取得巨大突破,对人工智能领域的建设有里程碑式的意义。20世纪90年代期间,反向算法横空出世,致使多层的人工型神经元网络学习问题的解决成为可能,使人工智能研究更上一层楼。2019年,人工智能技术已经63 周岁,人工智能科学取得重大进展。迄今为止,人工智能的应用领域非常广泛,为交通、能源、医疗等社会各行各业的发展做出了巨大贡献。
1.2 人工智能的阶段性发展探析
根据目前普遍适用的划分阶段,人工智能可以划分为“弱人工智能”“强人工智能”以及“超人工智能”。“弱人工智能”只专注于机械的指令执行,如语翻译等工作,他们虽然高效快捷,但无法真正理解信息。而“强人工智能”系统包括了学习、语言、推理,实现非人类操纵下的独立处理能力,这标志着人工智能达到或者接近了人类的思维状态。“所谓超人工智能,是指在强人工智能的基础上,通过海量的数据整合和高度的学习与自我进化能力,具有的远远超越人类智慧水平的人工智能。”[1]“2014年牛津大学人工智能领域专家尼克·博斯特伦,将超级智能定义为在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”[2]就当下的人工智能发展层次来讲,“强人工智能”阶段还未实现,但随着“强人工智能”甚至“超人工智能”越来越逼近的脚步,我们首先想到的可能就是未来的人工智能与人类的区别在哪里? 而这一焦点的关注显然首先要被放到人工智是能否产生意识的问题上。
从马克思唯物主义角度上我们认识到,意识首先是自然界长期发展的产物。意识的产生首先历经3 次时间极其漫长的生物性演变。而且意识是社会的产物,人的类本质是劳动,在劳动实践和交往的过程中大脑不断被刺激最终产生了意识。因此,基于上述的理论分析以及基于目前的科学进程,患者认为未来很长一段是时间内人工智能仍不具备产生意识的基础。但是从意识产生的过程性来看,随着人类认识能力的发展,科技的进步,情况将会发生变化。在《奇点临近》书里Ray Kurzweil 讨论了3 种非生物智能方案,全方位地展示生物人显现出来的情感丰富的行为。其中第三个方案是使人类自身从生物过渡到非生物,纳米机器人进入我们体内与身体“重新组合”。
2 关于未来人工智能的伦理问题分析
2.1 人工智能发展中可能存在的问题
人工智能可能出现的消极影响也同样不容忽视。首先,人工智能可能导致社会的贫富差距的进一步扩大。对人工智能技术的掌握将创造更大的财富,反之,没有掌握人工智能技术的行业会逐渐离轨,导致贫者越贫,富者越富。其次,技术失控的风险,在网络信息时代,任何人都无法完全隐藏自己,私人信息很有可能尽被他人掌握。一旦被滥用,将会使个人的财产安全、信息安全甚至是生命安全都受到严重的威胁。最后,人工智能可能导致人—机关系的去主体化危机。人类对人工智能领域探索的出发点是为了摆脱自然的束缚寻求自由的发展,但未来的情况可能会超出人类预期,人—机关系可能在某一时期出现逆转,威胁人类的主体地位。
2.2 未来人工智能道德地位分析
随着人工智能“人化”程度越来越高的客观现实,一系列伦理问题也紧随其后。如人工智能是否具有“道德地位”。
马克思主义认为,道德是由一定社会经济关系决定的社会意识形态的一个组成部分。作为一种意识形态,道德依靠社会舆论、传统习俗和人们内心信念来维系的,表现为社会特定规范下精神和行为活动的总和。显然意识是作为人类拥有道德的首要因素,那么,我们进一步追问将来可能具备意识的人工智能是否可以作为道德圈的一员。
对于机器人是否具有道德地位,我们可以把动物的生存状态作为参照。美国生学家利奥波德认为,整个生态系统都应该具有道德地位,具有生存和发展的机会。人类对待人类之外的生物需要尊重和关怀。人类站在食物链的顶端,对其他生物具有绝对的支配力。从“丛林法则”来看,弱肉强食似乎并没有太大分歧,但是,关键是度的问题。那么,对非人物种的支配地位及其支配方式的伦理约束在什么地方?彼得·辛格其在动物解放论中强调,动物也能感受痛苦,因此他们具有道德地位,他把感受痛苦作为拥有道德标准。随着人类文明的发展以及认识水平的不断提高, 这一理念得到相当范围的支持。如“小草也有生命”“没有买卖就没有杀害”的声浪都凸显了动物的“道德地位”不断加强。虽然目前可能还没有建立十分完备的制度体系,但是,这也体现了人类意识的能动性、实践的反思性与未来发展的无限可能性。当人工智能越来越接近人的时候,甚至在一定程度上拥有人的情感,能够感知幸福和痛苦,我们必须采取手段为他们争取更高的地位。当然这必须有一个前提,不能凌驾于人之上。也可以说应该符合阿西莫夫的“机器人三定律”。总结起来就是,机器人必须完全听从人类的指挥,不能伤害人类,在此基础上可以保证机器人自身的安全,也就是说,作为仆人的人工智能可以被纳入“道德圈”但是其道德地位应该低于人类而存在,人工智能作为人类认识实践活动的产物,为人所创造,理应受到人的管理。所以牢牢把握住人类的“最主体”地位是我们研究一切科技问题的出发点。
3 构建关系互联条件下的行动者网络
行动者网络理论是20世纪80年代中期由巴黎学派提出的理论。行动者网络主张科学技术活动应该组建“不同质的”行动者网络,这个网络由自然、社会、技术、人共同编制的一张无缝之网,行动者通过“问题化”“引起兴趣”“招募成员”“动员”4 个部分使网络中行动者的利益趋于一致,逐渐构建一个包括人和非人的强大的动态行动者网络,使异质的行动者不断交互作用,使网络不断更新和构建。行动者网络理论的基本规则是“追随行动者”,即在“不同质”的行动者中选择一个,以此为中心搭建行动者网络。在人工智能伦理道德问题中,“用户”“人工智能技术”“技术开发者”“政府”“伦理学家”等都是作为行动者而存在。
3.1 坚持伦理学家理论指引
坚持马克思科技观的基本原则,坚持人的主体性地位不动摇。我们要相信人工智能技术无论如何发展,终究只是技术而已,终究要为人而服务,在技术发展的过程中如果混淆了主体和客体地位是非常危险的,即使是到了人工智能阶段,人工智能拥有了人类意识乃至人类情感的部分功能,我们仍然必须坚持以人为主体。在坚持马克思主义伦理观的原则下,需要有系统、有方法、有目的、有规律地用伦理去约束,即建立一套行之有效的伦理制度。
3.2 增强技术开发者社会责任感
爱因斯坦曾经说过:“前几代的人给我们高度发展的科学技术,这是一份宝贵的礼物,它使我们有可能生活得比以前无论哪一代人都要自由和美好。但是这份礼物也带来了从未有过的巨大危险,它威胁着我们的生存。”[3]科学无国界但是科学家有祖国,科学家的任务不仅是科学研究,更要对国家负责,对社会负责、对人类负责。首先,当前的智能技术主要是通过计算机技术去实现,编程技术中的各种漏洞都是人工智能的未来安全隐患。所以科学家们应该认清楚自己所做的每一项科学研究、科技发明背后隐藏的潜在影响,时刻清楚自己身上承担的责任,加强自身的思想道德素质、增强人文道德情操与民族国家意识。
3.3 提高民众知识素养
对于人工智能未来最大的受用者,社会大众,是行动者网络中极为重要的一环。人工智能技术需要健康发展就必须建立在人民大众充分了解的基础上,人工智能技术的出发点是善,落脚点也应该是为了社会的发展、人民的幸福。那么对于人工智能技术的发展状况的认识人们有理由充分享有。当然这需要政府、科研人员以及民众广泛配合。只有这样,即使是在人工智能出现问题的时候,全社会才能从容应对。
3.4 加强政府监督管理
政府为人民服务,在人工智能的监督中负有主导作用。人工智能发展具体走向仍不明确,人工智能在发展过程中可能会因为特定环境、利益状况的影响下发生一定状况的“越轨”现象,政府对人工智能的走向具有根本性的控制力。在政府监督中,首先要规定人工智能的发展方向和发展原则等问题,制定相关政策法规,对人工智能技术和产品的各个方面的行为都要做到有法可依,有章可循。比如,责任问责条例。这不仅需要对科研人员,设计企业制定具体的规章制度把控其制造和销售行为,同时还需对使用者进行明确行为规范。对待人工智能可能出现的问题,全社会不仅要做好事前防御机制,更要做好事后反思研究。让每一个步骤,涉及的每一个个体都能权责明晰,让人工智能技术越走越远,越走越稳。让科学技术惠及每一个人。
我们想要达到的一个方向是自然科技与社会的结合,真理与价值的统一。在“社会善”的总领下,从知识、交往、利益等多角度出发,在实践中构建动态的多元主体的行动者网络,社会发展事关每个个体的现在和未来,因此行动者网络的构建是最好的选择。