APP下载

科幻文学中人工智能与人类智能的关系

2016-04-13贺欣晔

关键词:伦理道德科幻伦理

贺欣晔

(辽宁大学 文学院,辽宁 沈阳 110036)

科幻文学中人工智能与人类智能的关系

贺欣晔

(辽宁大学 文学院,辽宁 沈阳 110036)

随着现代社会中人工智能科技的飞速发展,人们对人工智能与人类智能之间的关系产生了诸多新的思考。面对这样一个问题重重的新兴科学需要及时进行跨学科研究反思,以从不同视域范围更加全面地掌握对于人工智能理解的广度和深度。从科幻文学角度分析人工智能与人类智能并对两者关系进行归类,通过智能层面的对比发展前景、伦理道德层面的立场较量以及追求自由发展方面的综合思考推论。科幻文学中有关人工智能与人类智能的描述大致可分三种关系类型,即人工智能无法达到、基本接近以及大幅超越人类智能的基本认知。两者不断变换的关系发展中蕴含科幻文学对于人工智能描写的发展方向。

人工智能;人类智能;伦理道德;人类自由

人工智能通常是指人类通过计算机研究、开发用于模拟、延伸和扩展人的智能的理论和应用等,在科幻文学中一般指具有拟人性质的智能机器人。按照戴维·多伊奇的观点,人工智能是具有人类心智属性的计算机程序,它具有智能、意识、自由意志、情感等,但它是运行在硬件上,而不是运行在人脑中的[1]。在马克思主义哲学看来,人工智能就是人类智能在实践中分化的产物,帮助、代替人类执行、完成智力或体力的劳动工作。

随着现代社会的科技发展,人工智能前进的脚步也是日新月异。在科幻文学中,人工智能已经大大超越现阶段科技可实现的能力,批量匹配人工智能的机器人逐渐成为一种与人类或和平共处、或反目为敌的“异质力量”。在此发展前提下,科幻文学作为包含“尚未意识”的文学,预先估计尚未发生的事情恰是其具有独特前瞻性意识的表现,因此,科幻文学对于人工智能的态度和选择也可看作是具有极大可能性的未来社会发展方向。被誉为“20世纪世界三大科幻作家”的阿西莫夫曾经发问:未来的科技社会是否为唯智主义的冷漠世界?那么未来的世界是人工智能的世界吗?对此,我们应考虑人类智能在未来世界中将起到什么作用,人工智能与人类智能关系将会发生怎么的变化。本文从智能发展、伦理道德和生命自由三方面对科幻作品中人工智能与人类智能的关系进行分析。

一、人工智能与人类智能

人工智能(Artificial Intelligence)简称AI,其兴起的标志通常认为是阿兰·图灵(Alan Turing)1950年发表的《计算机器与智能》(Computing Machinery and Intelligence)。这位计算机学家首创了“图灵测试”以区分人与智能机器的思维[2]。从马克思主义实践论的观点来看,这是人类自身科学技术实践发展到一定程度的分化产物。弗里曼·戴森在《科学的进化》中说过,宇宙的进化和科学的进化,都可以用生命进化的语言加以描述。在现代科技飞速发展的进程中,人类智能创造性地将自身的一部分智能编制程序输入到人工智能中,从而实现了人类智能的部分外化。科幻文学中对于人工智能的态度大致延续哲学上对于人工智能的态度分成三类。

(一)人工智能工具论:人工智能只是人类智能延伸的工具,并无自主意识

工具论观点认为,人类智能属于实践主体范畴,具有创造性、独立思考和分析能力,能够不断创新、突破、否定自我、再超越自我,在这个自我完善和进步的过程中,完全取决于人类智能这一自主性的存在[3]。而人工智能仅仅是人类智能身为一种主体形式在客体上的客体化实践,即使人类在编程中给予了它一定范围内的创新能力和自我调整限度。它依旧是在模仿人类主体的创新,而非创造性地模仿,更无法进行创造性地创新。因此,人工智能永远要低于人类智能的创造程度,并时刻受到人类智能制约。在科幻作品中持工具论观点的作家大多把自己作品中的宇宙世界架构成绝对以人类为主、人工智能为辅的后现代主义工业社会模式,即对于现代工业及科技社会的近未来仿造。如好莱坞科幻电影《第五元素》中的未来城市,是在模仿现代纽约城市经典建筑的基础上,加入了严格受到人类智能控制的人工智能产品以服务于社会。在这种宇宙景观和社会发展架构中,谈论的主题永远是人类,关注的重点通常也是人类在未来环境中的独特生存体验、情感体验和审美体验,并不涉及人工智能对于人类社会的影响之类,因此,人工智能被视为发展到一定科技水平即会暂时停止前进的工具,有待人类进一步研究自身心智后再行开发。在这种观点下,人工智能与人类智能的关系处于稳定且共同向前发展的阶段,人工智能既是人类智能的辅助工具,也是朋友式的协助者。

(二)人工智能进化论:人工智能加速发展,终将战胜人类智能,具有自主思维和判断

此类观点与上述工具论观点恰持相反意见,坚定认为人工智能会超越人类智能,在未来的日子,人工智能不光具有独立思考、创新的能力,还能终有一天发展出类似人类心智情感的机器心智,并占领地球以及大部分已开发的宇宙空间。因为有科学家提出假设,我们可以设想大脑是由许多不同的“资源”所组成的,我们每一个主要的“情感状态”都是打开了一些特定的资源,同时关闭其他一些资源,以此改变大脑运转方式的结果[4]。为人工智能进行编程时,可以通过具体的资源控制实现模拟式的大脑情感反应效果,这样机器会产生类似的心智。同时,因人类按照宇宙的物理和数学规律对人工智能进行程序运算,在这种规律中机器会在自身被设定范围内无限次试验、调整、完善自身,并终将通过更改相符条件和限制,发展出一套并非人类智能限定的机器规则并迅速实施。在此过程中,机器也可能会产生有别于人类智能所体现出的独特情感反应等,创造出独立于人类控制的机器“类情感”反应机制,并因其执行的规律性和程序性迅速取代人类,成为世界的主宰。以这类超级人工智能为设定背景的科幻作品较多,如电影《黑客帝国》,这类作品没有详细解释为什么人工智能可以拥有人类智能的一切优点,甚至远超人类智能,而仅仅是在设定的框架下探讨人工智能与人类智能的矛盾和冲突、人工智能掌控的社会人与机器的伦理道德观念等问题。此观点与达尔文的进化论观点相似,同样支持机器在编程的规定下能够进化出不依赖人类的全新主体。

(三)人工智能接近论:人工智能会无限接近人类智能,但是永远无法达到人类的程度

接近论是一种比较新颖的理论,同时是持上述两方的中间态度的理论。其主要观点将上述两类观点概括起来进行中和,即人工智能在创造之初当然是人类主体的一种工具化外延。但是随着科学技术的快速发展,尤其是人类对于主体自身大脑和反应机制的研究加深,会同样赋予人工智能更多的思考和实践能力,同时也可能将人类情感反应数据化,安置于人工智能之中。这时的人工智能已不单是帮助人类进行劳动的客体,它会部分具备人类智能的心智特点和独立思考判断能力。然后,人工智能会在程序范围内进行迅速的升级、调整,从而具有更多独立自主能力,也许在其他人类不了解的领域超越人类智能主体。这种设想下的人工智能无限接近当时的人类已开发的自身智能,但是由于毕竟受到人类智能的部分控制,还是无法达到人类的程度,但是在其他方面会具有独特能力超越人类或将人类远远甩在身后。

在当代的科幻作品中,接近论变成了一种更加时髦的背景框架理论,因为其提供了更加复杂的人机关系以及各种社会道德的冲突等。人类本身具有主体意向性和选择不确定性,由于情感、逻辑等原因导致选择非最佳项。例如,赌气、判断不明、对某一选择有情感倾向。这是人类本质的特性。“……心智的关键在于语义而非句法。其次,任何其他事物,倘若要获得心智,就必须具备与人脑相同的因果力。”[5]根据塞尔的逻辑理论,人脑产生心灵的思索和感情,而人对于人类智能的了解和开发仅仅处于初级的认知阶段,尚未涉及到心智以及感情,对于每一部分大脑的作用和功能还没有完全认识明白。人类开发出的人工智能必然是以人脑为基础,人脑尚未了解,施加于人工智能上必然受到智能限制,因而此时的人工智能绝对无法超越人类智能所了解的部分。随着科技的进一步发展,人类对大脑的逻辑机制和感情机制研究出更多成果时,其相应的人工智能也会随之提高,尽管在模仿人脑上总是无限接近但是永远不可能达到其水准(因为人类无法创造出高于人脑本身智能的产物),但是人工智能中的程序也许会在规则范围允许下衍生出自我独立于人脑的思维程序模式,并通过大规模计算和演变后形成与人脑迥然不同的规则和智能,也许在遥远未来的某一天,人工智能会从数字信息程序角度超过发明了它们的人类,实行新的社会规则和运算制度,在一定程度上实现人工智能自身的自由甚至控制发明了它们的人类。

二、人工智能与人类伦理道德

人类独有的文化产生了伦理道德观,虽然在不同历史和国家社会中有背景上和发展方面的差异,但是身为人类,其伦理观念有共性,例如以血缘关系或养育关系为基础的家庭伦理、以社会交往关系构成的公共道德伦理等。在科幻文学作品中讨论的人类伦理大致分三类:环境伦理、生命伦理和人工智能伦理。对于人工智能的伦理道德研究,其焦点聚集在一定情境中人工智能是否应该具有类似人的伦理道德以及在科技帮助下能否发展出这种自主道德决策能力、是否可以独立或在人工智能群体内进行自我思考以及是否可以作为道德主体参与人类生产生活等[6]。科幻文学中持有的观点有两大类。

(一)人工智能无伦理道德论

此观点坚持认为,在人工智能永远无法达到人类智能的前提下,前者无论如何都不可能拥有伦理道德观念,后者的伦理道德观仅为人类社会所独有。因为伦理道德是人类在长久的社会发展中形成的从道德、伦理、情感等精神方面的自律与他律,是人类在自身进化过程中专门用于处理与他人之间的关系以及在自己与他人组成的社会结构中关系的反应体系,这种体系复杂而繁琐,包含人类智能和情感的所有方面,不是光拥有了智能就能做出相应的分析和判断。例如,在科幻文学中,即使出现了一头成吨重的大象坐在跷跷板上的事情,人类智能也首先会从现实认知角度否定出现这类场景的可能性,然后再考虑科学角度论证这个事实,最后还会思考这是否是他人故意为之,是否有着某种伦理道德情感上暗示(讽刺、隐喻等)的可能性;而人工智能却仅从科学计算的层面进行分析,一旦符合,即认定大象坐在跷跷板上符合认知结论,却从不会考虑其在现实中根本不可能出现的事实。这是因为人类智能尚未了解自身的大脑做出这种理性判断的过程和依据,更不用说将这个判断性反应通过数学逻辑的程序设定安排给人工智能了。若真有某位研究者打算将这世界上全部的伦理道德认知输入进人工智能的数据库中,那可是一项天文数字般庞大的工程,各种各样的道德判断依据数不胜数,更遑论在这过程中产生的新的伦理认知以及不同国家和地区的人类对于同一事物的不同伦理道德标准可能会造成人工智能无法做出选择判断而因此短路,所以这办法并不可行。

科幻文学中著名的阿西莫夫机器人三大定律就是此类观点的典型例证,它其实是预先从伦理道德的角度限制人工智能的程序逻辑发展,即在人工智能完全依靠人类智能发展并永远无法达到人类智能的前提下,通过程序规定人工智能从属于人类智能的伦理规范①机器人的三大法则,第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一及第二法则下,机器人必须保护自己。。在仅有的三条规则下,机器人自身没有推断伦理道德的能力,仅能从这三条简单的条款中搜索逻辑依据,得出简单的结论,并无自我的伦理道德分析。

在机器人伦理研究进路上,人们通常有两种路线,其一是自上而下的研究进路,这种人工智能无伦理论从人类自身出发延展至人工智能的进路,而从人工智能的角度出发,充分考虑到人工智能本身所呈现出的特点以及科技发展的界限后认为人工智能终将拥有人类伦理,则是自下而上[6]。从人工智能逆推回人类智能,即是下面的第二种观点。

(二)人工智能终能拥有人类伦理道德

越来越多的科幻文学作家持有此类观点,认为终有一天,人工智能将完整拥有人类伦理道德或者与人类伦理道德类似的人工智能伦理道德,它们具有人类伦理道德的特点,但却与人类并不一致,由人工智能依据自身拥有的逻辑思维计算推导而出,具有机器自身群体特点,是人工智能自己的伦理道德标准。这种伦理道德需要依靠科技发展下的人工智能进化论,使人工智能具有足够的智能计算数据,然后纯粹由具有足够智能的人工机器自我推演而产生,不受人类智能伦理的束缚,具有独立性和自我发展。著名伦理学家辛格(Peter Singer)的“动物解放”(Animal Liberation)即认为“智能与精神要素不必囿于人类和其他自然物种”[7]。只要某一(自然或人工)物种达到了足够进行伦理实践的发展程度,人类即应当承认这种挑战人类自有伦理道德形式的崭新标准,并且需要站在超越人类自身狭隘的立场上面对这一全新挑战。这样具有独特伦理道德的人工智能称为人工技术道德行为体(AMAs)[8]。在科幻文学中发展越来越完善的AMAs日益呈现出高度的“自主权”和“感知性”[8]。例如,刘慈欣的著作《三体》中AMA“智子”拥有与创造她的三体星人相似的伦理思维,同时却又学习了人类伦理的表现形式,但是因为三体星人的思想是互通的,毫无秘密可言,对于人类的大脑无法直接进行沟通这个事实,“智子”与人类就相差甚远了。正因为人类的大脑思维不能直接表现出来,人类真正的想法和欺骗性语言表达不一致即是人类特有的一种伦理道德表现形式,智子虽然知晓这个问题,却并无根本的解决办法,她仅能在自己的伦理道德标准下进行推理,从而做出判断和决定。因此,“智子”这类人工智能发展出的伦理道德,并不是真正的人类伦理道德观,而是从人工智能逆向推导出的机器伦理道德观。人工智能是否终能像人类一模一样,拥有人类的观念,还要看我们未来的科技发展是否能够达到人类智能的极限了。

三、人工智能与人类自由

很多科幻作品将感情因素加入了人工智能的程序中,假设它们会如同人类一般有喜怒哀乐,会担心与它们一同工作的人类同事,或者因受到压迫而不满继而奋起反抗,或者因保守秘密受到内心的痛苦煎熬于是试图谋杀人类等,即是把人工智能放置在与人类相差无几的同等地位上。当人工智能具有了类人思维、判断力和道德情感等时,就涉及到了它们是否拥有自由以及它们是否会危及到人类自由的问题。自由不应单指人类拥有自由,而需指人类整体和个体或人工智能整体和个体作为主体时所拥有或希望获得的自由,但是我们在此着重探讨的是以人类为主体的人类自由。在默认人工智能的发展终将达到或超越人类智能的条件下,人工智能与人类自由以及其本身的自由需求间的关系,也可大致划分为几类不同观点。

(一)人工智能限制人类自由

人工智能虽然是人类智能的外延产物,但是当人工智能具有自我意识后,是否会意识到人类作为它们的统治者存在诸多问题,如寿命短暂、感情用事、无法快速进行复杂计算和编程、无法从事极限工作?在人工智能意识到这些后,是否会全面进行反抗并控制其曾经的主人?很多科幻作家都在作品中表达了这种担忧。例如,在阿瑟·克拉克的《2001太空漫游》中,服务于航天员的飞船智能电脑哈尔因自我头脑混乱而杀害了航天员,试图控制整艘飞船。尽管这台智能电脑依旧是为了完成编程赋予它的原始任务而杀人,但是它已经开始进行自我判断是否需要以除掉航天员为代价。

当人工智能作为人类的工具时,其本质是代替人类从事大量复杂计算和以人类生理性质无法进行长时间重体力或恶劣环境下的劳动力。但是人工智能虽为人类所造,是人类主体的客体实践,却逐渐独立于人类主体自身,成为具有一部分人类智能的主体化客体,即人类自己创造了自己的异己力量。随着科技发展,异己力量崛起,而这些具有与人类智能不相上下,甚至远超人类智能,并具有自我意识、情感和判断能力。此外,这些力量还控制着宇宙社会中全部的科技部门和机构时,显然科幻作家们相信这种情况下,人工智能会完全掌控人类自由,对其进行压制和束缚,因为根据进化理论,当人类制造出了超越自身能力的人工智能时,为了追求更高级的进化和发展,人类也会以依靠人工智能来发展自己的社会,从而主动受到人工智能的程序化限制;人工智能则根据进化对不如自己的人类进行全面控制。

(二)人工智能的发展是为争夺人类自由的权利

在现代社会,从个体或区域角度来看,各国都在努力加快科技发展的脚步,以免在未来可能发生的宇宙战争中处于下风。计算机科学家A·韦斯纳-格罗斯认为:不是因为有了智能才有野心,而是因为智能很可能就是争夺自由的产物。此观点默认人工智能是依附于人类智能并不会独立背叛的群体。当一个主体为了确保未来的行动自由而不断尝试,智能行为通常便会在这个过程中自发出现。从马克思主义实践论看,人类最初研发科技,就是为了节省劳动力、提高劳动效率,人在从重复性地劳动中解放后获得了自由。而随着科技进步,野心本身并没有改变,只是其争夺自由权利的方式发生了改变,从简单地从机械劳动中解脱,发展成为利用人工智能先行争夺更多地主动权,从而争夺自由的权利。在科幻作品中,通常这类观点都是以国家为单位,某一个或几个国家通过对科技的垄断和实施,占有更多生存资源,进而获得话语权,为本国和国民的自由争取最大的保障。这是因为通常这种作品中的宇宙社会架构仍旧是基于现行世界各国复杂关系的平衡体系而设计的,没有摆脱自私的“局部人类中心主义”即自己国家利益的自由为标准的观点。

(三)人工智能释放自由的一切可能性

此种观点逐渐占据了流行科幻作品的视界,因为这是完全乐观对待现代社会科技发展结果和人类智能与人工智能关系的全新态度。这种观点认为,也许在一段时期内,人工智能与人类智能会发生冲突、矛盾甚至战争,但是由于人工智能来自于人类的本质属性,两者之间终会和平。也许连战争都不会发生,仅因为人类在科学研究的过程中可以合理解决对人工智能的绝对控制,不使其独立于人类而存在。这两种情况的结果,都是人类既能利用人工智能获得自身的完全自由,并在人类的许可下给予人工智能一定程度的自由,如允许机器在设定范围内进行自我修复、升级、编程、决定某些简单的行为和判断等。如此,科幻作家们相信社会在整体上可达到最大程度的发展,作为主体的人类个体可获得最大自由,也给予了其他智能体人类可允许的自由,如科幻小说《沙丘》系列的主题就是人类通过保障自身未来的尽可能畅通无阻,学习到避免受制于单个控制因素的重要性。因此,人类通过学习和实践创造会避免将人类的未来单一地依靠于自己创造的人工智能上,以便创造更多利于人类的因素进行整合式的平衡来发展多样性的未来,获得真正的自由。

综上所述,人工智能在科幻文学这种总是超越现实时间的“尚未”文学类型中获得了远超过现实世界的发展空间,在有关人类智能与人工智能的智慧较量中产生了不同的比较方式和叙述角度,而对于人工智能究竟能否超越人类智能,依旧无法下定论。所以,如果现在就推论未来的社会是唯智主义的世界还为时尚早;人工智能在未来也许会拥有初级的伦理道德观,但是不至于发展出与人类类似的伦理道德观念,可是,这依旧给现今人类提出了一个重要课题,即人工智能发展的未来方向是在朝着学习人类伦理判断的道路上前行;至于人工智能对于人类自由的影响则要比之前明显的多,人类社会的发展尤其是工业和科技行业倚靠人工智能的程度逐渐加大,敏锐又先进的科幻文学更是及时发现这一苗头并无限夸大了这种倚靠的趋势,造成了一种非常明显的悲观倾向性:越来越多的作者趋于相信在未来世界中人工智能会超越人类的体力极限,并且在最大程度上发挥人类智能的上限,以此走向限制人类自由的道路,在高度科技化、工业化的机械景观社会中“帮助”人类加快速度走向自我毁灭的终极结果。

[1]戴维.多伊奇.真实世界的脉络[M].粱焰,黄雄,译.桂林:广西师范大学出版社,2002:84-104.

[2]宋勇刚.图灵测试:哲学争论及历史地位[J].科学文化评论,2011(6):42-57.

[3]康兰波.论人工智能的哲学意蕴[J].重庆大学学报,2002(2):81-83.

[4]路寻.卓越的人工智能科学家——马文·明斯基[J].自然辩证法通讯,2010(2):104-111.

[5]李珍.从哲学视角看人工智能的发展——对“中文屋论证”的批判考察[J].河南师范大学学报:哲学社会科学版,2011(11):14-18.

[6]王东浩.机器人伦理问题研究[D].天津:南开大学,2014.

[7]Peter Singer.Animal Liberation[M].NewYork:Harper Collins,2009:1.

[8]王绍源.机器(人)伦理学的勃兴及其伦理地位的探讨[J].科学技术哲学研究,2015(3):103-104.

On the Relationship between Artificial Intelligence and Human Intelligence in Science Fictions

He Xinye
(College ofLiberal Arts,LiaoningUniversity,ShenyangLiaoning110036)

With the rapid development of artificial intelligence in modern society,there are more and more new ideas in the relationship between artificial intelligence and human intelligence.As a newscience,it attracts researchers to start interdisciplinary studies to probe into the width and depth of artificial intelligence from different perspectives. This studyfocuses on the relationship between artificial intelligence and human intelligence in the perspective ofscience fictions by comparing the development and morality of it as well as comprehensive inference based on its free development.There are three types of artificial intelligence and human intelligence in science fictions-the basic cognition which cannot be reached,almost reached and exceeded.The changeable relationship implies the development ofartificial intelligence description in science fictions.

artificialintelligence;humanintelligence;ethicsandmorals;humanfreedom

I207.42

A

1674-5450(2016)02-0111-05

2015-11-05

贺欣晔,女,辽宁沈阳人,辽宁大学文艺学博士研究生,主要从事西方文论研究。

【责任编辑:赵践责任校对:詹丽】

猜你喜欢

伦理道德科幻伦理
《心之死》的趣味与伦理焦虑
企业伦理道德视角下的安全生产
PL-01:科幻飙车党
到达科幻里的未来
护生眼中的伦理修养
城镇化进程中新的伦理道德文化的迁移与重塑
突发新闻采访中新闻记者的职业道德和伦理道德平衡
对新闻摄影伦理道德的研究
如何挑选100本科幻书
医改莫忘构建伦理新机制