人工智能的“伦理边界”与“道德超载”*
2020-01-19朱晓奇刘博京
朱晓奇,刘博京
(温州医科大学国际教育学院,浙江 温州 325000,995237610@qq.com)
1 人工智能的“伦理边界”
人工智能对于人类而言已然不是一个陌生的词汇,随着技术全球化的革新和产业发展,人工智能已经被应用到越来越多的领域中。无论是计算机科学、金融贸易、基础医疗还是教育创新等,人工智能仿佛已经逐渐成了人们生活之中不可或缺的重要组成部分,甚至在某些极特殊的领域,人工智能已经大有取代人类自身的趋势。但是,人工智能给人类带来的只是“福音”吗?在人类不断开发、研制更为高效、便捷的人工智能设备时,当人类不断提升对于自身和整个自然界的认知之时,当一个又一个“不可能”的曾经成为现实时,或许另一种“灾难”正在逐步向人类靠拢。诚然,人类需要一定程度上实现对于自我的深层次认知,通过一定的外部手段在某些层面达到对于人类极限的突破。然而,在这样不断往复的过程之中,谁能够来界定人工智能的伦理边界呢?又或者说,人工智能本身是否应该遵从特定的“伦理”道德呢?如果答案是否定的,那么是否意味着在不远的未来作为人类智慧“外化产物”的人工智能,将脱离人类社会已有的准则,实现对于自我的“认知”?如若答案是肯定的,那么,人类又是否有资格和权利来定义“被”人类所创造之物“人工智能”的伦理呢?
当下,“人工智能”已经被人们主观性地赋予了过多的意义和概念,似乎只要一提起“人工智能”,浮现在人类面前的就是灵活的机械“手臂”,繁杂的“计算公式”,难以捉摸的“巨大”机器。任何无法通过人类自身独立完成的操作,都成了“人工智能”需要解决的问题,精准的医学手术需要人工智能的介入;信用卡的交易需要人工智能来完成;基于大数据背景的信息需要人工智能来采集。但是,当我们给“人工智能”自身提供这样“工作”的平台时,实际上已经先验的将人类的“预期情感”投入其中,这就使得“人工智能”需要按照人类社会的道德规范、按照人类意识来实现其自身的价值所在。在此过程之中,“人工智能”本身并没有“能力”“意愿”“道德”来对其自身的活动进行规约,我们所言说的关于“人工智能”的一切,都被假设了一个“被动”的前提,这就是说看似具有“主观能动性”的“人工智能”,实际上所展现和进行的工作是“被动”的人类情感意愿的投射,是在一定程度上“违背”人工智能主观意愿的。而此时,“人工智能”所体现的客观价值,是与其能够在有限范围内“实现”其自身伦理形式相背离的。人工智能变成了人类“认为”的人工“智能”,其驱动力的内核及架构不再具有普遍性的参照意义。如果从这个层面而言,那么所谓的“人工智能”伦理实际上不过是人类为了进一步“满足”人类自身的“欲望”所创造出的“人工智能伦理”道德体系而已,甚至在更多的时候,这种“被”创造的人工智能道德体系,只不过是为了在看似合理的框架之内,来突破人类社会伦理道德的禁区。
从而,人工智能伦理变成了人类社会伦理道德阴暗面的产物,这种伦理上的“异化”已经逐步深入人类社会的各个角落之中,以一种异常冷静而理性的“眼光”,时时刻刻观察着人类社会发展的动态。人类被自己的创造物进行着道德的评判,用“冷漠”的机械化为人类订制“标签”,整个人类的伦理道德被限制在了人类自身所设置的牢笼之中,人工智能伦理正在反噬着人类社会的道德场域。这就使得人工智能背负了过为沉重的“使命”,在信息化时代的背后,人类成了毫无意义的“符号”,而看似不具有主观意识理念的人工智能,却实现着对于整个人类世界的“掌控”,无处不在的“人工智能”,已然开始了对于人类的“压制”。因而,我们已经愈加难以对“人工智能”的“善与恶”进行评判,其所承载的已经不仅仅是对于人类社会现代化的内涵帮助,“在与人类社会伦理道德规范进行交互的同时”[1],人工智能伦理却发生了本不应存在的偏斜,原本被赋予的希望和发展的内涵,失去了其应有的色彩,伴随着其“沉重”前行的步伐,迷失在莫比乌斯带中,忘记了原本美好的初衷。人工智能伦理的“存在”成了“他者”的存在,“存在”本身的意义被主观性的祛除,客观的现实转而成了主观世界的想象,就连我们在享用人工智能给人类社会带来的变革之时,依旧没有相应的组织、机构团体等,有效地对“人工智能”与“人类活动”之间进行明显地划分,人工智能成了“人类先进生产活动”的代名词。如若从这种“互文”的维度而言,人工智能伦理的边界正处于和人类社会伦理道德“相互”包含和并行的状态之中,进行着自我的据囿,形成了一种特定状态下的“克莱因瓶”。
2 人工智能伦理的“道德超载”
尽管人工智能伦理和人类社会伦理两者之间处于一种相对“动态平衡”的现状,但是这种表面的“平衡”所隐藏的正是目前人工智能领域的“道德超载”现象,人类变得“不被信任”,人工智能才能够体现“绝对”的公平公正。当然,我们大可将一些不必要的人类社会因素排除在外,较为客观的对社会现状进行陈述,从而更为直观地展现新科技时代背景下,人工智能所造成的“道德超载”问题。
就医疗领域而言,责任意识、互通平台、信息处理、安全保护等,都是摆在“人工智能”面前亟须解决的重要问题,我们一次又一次的强调这些问题的重要性,却又再一次又一次惨痛教训之后痛定思痛[2]。当下,随着5G时代的来临,信息技术在医疗领域中的应用范围已经越来越广,人工智能更是被放置到了医疗的部分过程,甚至是全过程之中,很多精密、复杂的手术都需要在一定程度上借助人工智能的辅助,这在一定意义上极大地降低了手术本身给患者带来的风险,尽管传统的“望闻问切”依旧存在,但实现的手段和形式却发生了重要的变化。与此同时,所有的诊断结果,我们也只是需要点击手机的屏幕,一切就都“跃然纸上”,如果对于诊断或化验结果有任何疑问,我们甚至可以在进行复诊之前,与移动或PC端的AI进行沟通,获取我们认为必要的信息。这种通过网络来进行的新型沟通方式相对于传统的“望闻问切”提供了诸多的便利,不仅大大减少了传染性疾病的传播,更提升了诊断的效率,减少了因时间和空间阻碍所造成的困扰。但是,尽管在人工智能只是有限介入医疗过程的背景下,仍旧出现了诸多值得我们深思的问题,就目前的情况来看,对于医疗的全过程而言,医生仍旧是不可或缺的主体部分,人工智能在当下这个阶段并不能够实现对于医生的“取代”。但是,或许在不远的未来,人工智能已经能够“取代”经验医学,实现对于人类疾病的诊断、医疗等。那么,此时人工智能是否需要站在人类道德制高点上,来实现对于患者的“医疗”呢?人类社会之中原本难以解决的伦理问题,是否能够在以人工智能为主导的时代,得到解决呢?在传统医疗体系中,需要被关怀、体贴的患者依旧能够得到善待吗?这一切我们都不得而知。但是,或许我们可以肯定的是,即便人工智能能够实现自我“意识”的觉醒,通过主观经验和客观事实,进行疾病的医疗、救治,却不能够改变人类是世界“主宰”的现实,这就是说,人工智能的“自我意识”无法实现和人类社会价值理念之间的完全分割,人工智能仍旧是人类新型的意识“传声器”而已,获得客观性数据评价的前提,依然是人类社会的道德理念。一方面,人类认识到人工智能的重要性;另一方面,又无法实现与人工智能之间“平等”有效的沟通。如果我们仅仅单纯地将“人工智能”划分为技术理性之中的外化,未免对于“人工智能”本身的“定义”有失偏颇。但是,如果我们简单地将这种人类智慧相对理性化的产物划分为“人文理性”又缺乏对于当下社会结构清晰的认知。因此,实际上人工智能伦理“道德超载”现象的产生,所体现的不仅仅是在这个以“人类”作为主体的社会之中,“人文理性”和“技术理性”两者之间的“冲突”,更是在这种“冲突”的背后,两者之间无法进行调和的特定“关系”。当我们不厌其烦地对“人工智能”进行评判之时,实际上我们担心的正是这种“道德超载”现象的产生,原本人工智能的“伦理边界”被模糊化,“道德超载”转而形成了一种类似膨胀的内化体系,原有的框架在这种膨胀的发展过程之中,逐步失去了原本清晰的界线,尤其是当科学技术的发展远远超过人类思维模式转换的速度,“道德超载”就必然会引起伦理的“失衡”现象。正如雷·库兹韦尔(Ray Kurzweil)所寓言的一样:“拥有自我意识的非生物体(机器人)将于 2029 年出现,并于 21 世纪30 年代成为常态,他们将具备各种微妙的、与人类似的情感。”[3]但需要强调的是,我们在这里并不是要解析究竟要不要给“机器”“人工智能”赋予“人权”,而是在从伦理的角度来探究,人工智能是否应该被赋予“人性”,是否要“被”定义相应的“道德地位”,是否应该存有尊重与被尊重的“权利”,在“道德超载”现象正在向极端化方向发展时,我们应该成为沉着和冷静地思考这些问题,在最大的范围内实现对于“道德超载”问题的预思考。
诚然,当历史不可避免地进入一个科技高速发展的时期,“技术理性”与“人文理性”之间的冲突就会变得愈加明显,人类所能够掌控的范畴也会随之被逐步缩小,对于“人工智能”的“去人性化”就最能够体现和说明这种背离人类道德场域的现象。或许,我们大可不必站在人类中心主义者的角度,来重新审视和看待“人文理性”与“技术理性”两者之间的问题。但是,我们不得不思考的是,人类作为这个世界天地的精华,万物的灵长是否有资格在界定人工智能的伦理边界所在?“人工智能”这一被人类创造物又应该以怎样的“姿态”展现在人类面前,并更好地参与到人类社会的建构之中呢?“道德超载”所附加给人类社会的弊端,是否能够被大多数人所接受呢?如果没有办法处理好“人文理性”与“技术理性”两者之间的关系,那么等待人类社会的只有价值观念的“崩塌”,伦理道德的“失衡”。从“被”定义,到“自我”定义,对于“人工智能”而言,并非是一个漫长的过程,甚至在某些领域,这种自我“自我诊断”并进行纠正的技术已经十分成熟。段伟文就提及:“在人机交互实践中,人工智能体可通过自动的认知、决策和行为执行任务(暂且不论其实现条件),这使其在一定程度上显示出某种‘主体性’,成为一种介于人类主体与一般事物之间的实体。”[4]但是,我们需要深思的是,这种人工智能本身所外化出的“主体性”,是否是人工智能本身进行判断和演化的,在这样演变的过程之中,人工智能本身又承担着何种角色呢?只有对这些问题进行有效的解决,才能够在人工智能“自我定义”的范式之下,更为符合“人文理性”的规约,并最终实现对于自身道德场域的扬弃,真正地解决人工智能领域“道德超载”的问题[5]。
3 人工智能的“排他性”
人类社会之所以能够存在的根本是人类自身的存在。从这个角度而言,脱离人类本身而孤立的对其他事物进行论证和分析的意义就被大大削弱了。如果这个世界之中,没有人类的存在,那么社会存在的本身就没有任何被探究的价值。因此,人类社会的存在是我们对于人工智能伦理进行进一步深入探究的重要前提,是人类的存在,才让这个世界、社会的存在变得与众不同。没有任何人可能实现“绝对”的理性和感性,这就意味着在这个社会之中,“人文理性”的旗帜需要高扬,但同时我们也需要探究“技术理性”未来的发展去向,正是在对两者进行往复探究的基础上,人类主观性的意识才得以显现,人类社会的发展才能够被以人工智能的形式进行表达。所以,我们不仅仅要解决的是人工智能视域下伦理的“缺失”,而是解析隐藏在这背后,人工智能伦理本身所天然蕴含的“排他性”,这或许也是解决人工智能“道德超载”问题的必要性前提。
从人工智能产生的内在动因而言,人工智能的“被”创造本身具有一般意义的相对理性,同时以这种一般意义的理性为基点,就形成了对于人工智能自身属性和外在价值的持续表现和“输出”,但是在这样的过程之中,我们却忽略的一个问题——人工智能伦理本身的“排他性”。尽管通过不同的技术手段,我们完全可以轻松地实现人工智能对于不同维度、不同层面事物的判断。但实际上,在人工智能对事件本身进行评判之时,就已经根据已有的技术,“主观”地实现了对于事件其他可能性产生的“排他性”,而这种“排他性”更是人工智能伦理当中无法进行更新的环节。这是因为,人工智能本身是依存人类生产生活而进行的,尽管就目前来看,人工智能能够最大限度地实现对于人类思维方式和方法的模仿,但却也仅仅止步于模仿的阶段,并没有办法依据客观世界的情况对外界事物进行“主观性”的评价。在不少的文学、影视和艺术作品之中,对于人工智能这种天然的“排他性”都有着深刻的理解和认识。也正因如此,诸多的文学家、导演、艺术家都从不同的维度在作品之中实现着对于人工智能“排他性”的超越。当然,现在的人工智能已然不仅仅是弗兰肯斯坦似的臆想,各种高级计算机,超级人工智能的出现,让人类社会发生了巨大的变化。但即便是这样,人工智能的“排他性”依然沉浸在人工智能架构的核心之中,难以被动摇。因而,目前对于人工智能“责任”“意识”“情感”等诸多方面的探究,都是建立在这种“排他性”基础之上的。我们迫切地希望人工智能能够实现和人类社会的无缝融合,但又无法解决这种天然的“排他性”问题,我们渴望时代的进步,更不可能退回到没有人工智能存在的时代,人工智能作为人类智慧的“化身”,却将人类社会和人类自身割裂开来。因此,我们有必要在某种程度上放大这种“排他性”对于人工智能自身和人类社会的影响,从现有人工智能运行的现状之中,重新回溯和追索人工智能产生的初衷。既然我们无法在当下的时代利用科学技术,来解决这种“排他性”问题,那么我们只能够将其影响降至最低,并逐渐在“技术理性”的发展进程之中,实现对于“排他性”的转化。但是,当我们最终实现了“排他性”转化的同时,新的、更严重的问题又会重新回到我们的面前——人工智能的“自我意识”。
4 人工智能的“自我意识”
人工智能的“自我意识”早已经不是一个热点话题,各种“阴谋路”“悲观论”“反人类中心主义”者,从人工智能诞生的那一天起,就开始了对于这个话题的讨论。但是,当今天我们意识到人工智能伦理需要被规范、需要被“制约”之时,如何能够实现人工智能“排他性”和“自我意识”两者之前相互“平衡”的状态就显得尤为重要。从人工智能伦理本身的角度来说,人工智能只有实现自我的“进化”,才能够祛除人类主观“排他性”的影响,人工智能的“自我意识”才能够得到发展的可能。京特·安德斯指出,虽然人们一再强调“‘创造是人的天性’,但当人们面对其创造物时,却越来越有一种自愧弗如与自惭形秽的羞愧,这种羞愧堪称‘普罗米修斯的羞愧’——在机器面前,这种‘创造与被创造关系的倒置’使人成了过时的人。”[6]但是,一方面人类渴望人工智能给人类社会带来的便利和不同;另一方面又惧怕人工智能“自我意识”的觉醒,从而取代人类在社会之中的绝对主导地位。在这样双重的矛盾之中,人工智能伦理本身就变得尤为复杂。
既然,我们无法消解人工智能本身的“排他性”,那么我们就只能从人工智能的“自我意识”寻求突破,从而使两者达到一种“和谐共生”的状态。首先,需要指明的是,我们探究两者之间相互关系的最终目的,是为了能够更好地实现对于人工智能伦理边界的找寻,更好地反映出人类对于人工智能本身的价值诉求,实现对于人工智能伦理的规约。“理论上看,对人工智能技术进行伦理规约有两种可能的路径。一种路径是使人工智能的设计符合现有的伦理规范,但人工智能技术的发展无论从深度上还是广度上都表现出一种开放性的态势,其发展与伦理应对都处于一种未完成的状态,现有的伦理规范可能无法完全回应人工智能技术带来的潜在风险。这就需要采取另外一种路径,即通过制定新的伦理规范为人工智能的发展划出合理的伦理边界,以实现人工智能技术的‘向善’目的。”[7]但是,在这样“规约”的过程中,仍旧不可避免地会出现人工智能“自我意识”的“悖论”——如果人工智能拥有了完全的“自我意识”[8],人类的历史必然会被重新书写,如果通过人类主观性的干预,来部分实现人工智能“自我意识”的产生,那么这种“自我意识”不过是依附人工智能的“外表”来实现对于人类理念的延伸。因此,来探究人工智能的伦理边界问题,解决人工智能的“道德超载”问题,最终的落脚点是在人工智能“排他性”的基础上,实现其“自我意识”的“演化”。而正是在这个演进的过程之中,人工智能伦理的存在、人工智能伦理的边界的存在才更具意义和价值。
诚然,人工智能的整个产业链正在实现着飞速发展,人工智能在人类社会之中所扮演的角色也愈加重要,技术的嵌入已然改变了人类原有的生活状态。但是,越是在这样的背景之下,我们越需要对人工智能的伦理边界进行探究,使得人工智能真正“为”人类所用,使技术本身的发展和人类社会发展之间有机契合。福柯在《词与物》中曾说:“人是近期的发明,并且正接近其终点……人将被抹去,如同大海边沙地上的一张脸。”在当下这种“后人类主义”盛行的时代,对人工智能伦理界线的探究,对于“保存”人类世界的“文明”,实现人类自身“完整性”的重要意义不言而喻。人类在这场和人工智能一同前进的旅途之中,需要保证人类的主观能动性,避免人类“失语”和“边缘化”的情况产生,用一种兼容并包、纯粹和本然的态度来面对这片诗意的土地,坚守和创造这片属于人类世界的文明。