APP下载

人工智能发展中的伦理问题探究

2021-01-15李传军

湖南税务高等专科学校学报 2021年6期
关键词:伦理道德人工智能

李传军

(中国人民大学公共管理学院,北京 100872)

一、导言

近年来,人工智能已经成为信息科技领域发展势头最为强劲的“排头兵”,甚至有人将之称为对人类经济、社会、文化等各领域产生重大影响的颠覆性技术。人工智能研究的最终目标是从一个新的视角来认识人类的思维能力。人工智能与其他新兴技术一道,形成了人工智能技术产业圈,深刻地改变了人类的生产方式和生活方式[1],极大地推动了经济社会的发展。然而,人工智能的“超能力”也足以让人们产生某种担忧,霍金就曾警告超人工智能会毁灭人类[2]。辩证地看,对人工智能盲目乐观或者过于悲观都不可取。积极的态度是正确应对,兴利除弊,使人工智能更好地造福于人类。

对于人工智能的理解取决于何谓“智能”。所谓“智”,即智慧,从心理学角度来看,知觉、判断、思维等构成了智慧的主要内容。所谓“能”,即能力,将智慧以语言或行为表达出来即为能力。那么,基于上述“智能”认识,人工智能一般是指能够模仿人类智能的机器。[3]关于这一点,有人发出这样的疑问:人工智能究竟是扩展了人类的智能,还是对人类智能的替代?人工智能也好,机器智能也好,都不是简单的技术的改变,而是生产力、生产关系、生产资料的改变。就人工智能的本质而言,它还是一种虚构,尤其是一种科技意义上的虚构,这正如文学创作中所虚构的人物和场景一样。尽管如此,后者也产生了重要的作用。问题的关键是,人工智能能否像人们所期望的那样不会对人类造成伤害?或者,人们所担心的是负责设计人工智能的人在一开始设计的时候就作出了错误的选择。

如果仅仅把人工智能看作是一种设备,那么很难说它与伦理问题有什么关联。但是,对人工智能进行伦理考量,可以帮助人工智能设计者或者程序员尽可能考虑到人工智能的潜在风险以及自动设备的责任归属问题。因为即使人工智能并没有内置道德规范,但只要人工智能产生了伦理影响,即可以将之视为道德受体。进一步说,是否人工智能具备自主能力,就可以成为道德主体?而一旦被视为道德主体,是否要求人工智能具备情感、意志等方面的条件?因此,对于人工智能问题,应进行系统的伦理思考,从而使得人工智能程序员、参与者和理论研究者能够在他们的工作中考虑到人工智能对于伦理可能产生的影响。人工智能与新技术融合后,许多新旧问题交织在一起,这使得与人工智能相关的伦理问题极其复杂。[4]

人工智能技术发展非常迅速,比如在一些相当困难的游戏领域,人工智能的表现远远超过人类。在自动驾驶方面,人工智能技术得到了广泛应用。另外,人工智能软件还能够基于大量的数据实现人脸、语言和行为的精准识别。这些人工智能应用产生了大量的公共数据,从而可能对人类未来产生某种不利的影响。即便这只是一种可能性,对于人工智能的伦理考量也是必要的。况且,人工智能不仅在思维层面取得了较大进展,而且在情感层面越来越拟人化,[5]以至于当人工智能以人类所具有的功能相互作用时,至少在部分意义上,它们是被当作社会成员的。人工智能嵌入我们的生活引发了一系列重要的问题。这些问题或多或少与伦理有关联,有些问题迫切需要我们从伦理学意义上作出解答。

二、人工智能引发的伦理问题

人工智能为人类社会发展提供了美好的前景,但同时也产生了诸多至关重要的问题,这些问题如果运用伦理的视角分析可以得到更好的理解。

(一)在我们的社会中,人工智能的行为应当是怎样的?

人类社会经历了几千年才造就现在的文明,在这一过程中,由于人类的错误也曾经使得文明遭遇劫难,人类在处理自身错误时已经积累了一定的经验,但是,对于人工智能可能犯的错误,人类还没有做好充分的准备。计算机病毒造成的损害,人们已经明了,而一旦人工智能系统中植入了不良代码,或者人工智能系统被恶人控制,那么,其造成的损害将是人类所不能承受之重。

人工智能在最基础的层面来说就是能够作出选择的计算机程序。当然,现在的智能系统主要是辅助人类作出决策,例如智慧城市中的交通、供水、供电等方面的系统优化。未来,人工智能会更广泛运用到其他领域,人工智能也有望在我们的日常生活中得到更多的应用,比如智能扫地机、自动驾驶以及帮助照看宠物等。

我们都知道计算机程序能够产生预料之外的后果,而且植入计算机系统也会产生附加的影响。正如真实世界的经济会突然崩溃一样,计算机系统也不例外。人工智能具有自主学习能力,其行为会否超出人类的控制,从而造成无法挽回的损失?它们的责任与一般意义上的社会伦理责任有何关系?这是一个必须认真对待的问题。从本质上来说,人工智能伦理问题虽然是因技术而产生的,但是它却无法仅仅依靠技术来解决,人工智能的技术研发和应用必须受到法律和道德规范的约束。不受任何约束的技术,很有可能造成人类的毁灭。[6]可行的方案是建立人工智能伦理审查委员会以对人工智能伦理相关问题进行全面监管。[7]伦理源于情感,比如孟子所说的“恻隐之心”就是基于情感的伦理意识,“羞恶之心”“辞让之心”“是非之心”,虽然有了较多的理性反思,但或多或少地与情感有一定的联系。因此,人工智能的道德学习是一个比较复杂的过程,它更多的是一个情感过程而非技术过程,因而很难程序化,这就使得人类对于人工智能伦理的监管更为困难。人工智能伦理的关键是将人工智能这种技术物提升到人所处的道德地位,从而使人工智能成为受到伦理规范约束的道德能动者。[8]

(二)人工智能会不会侵犯人们的隐私权?

从社会发展的角度来看,隐私保护是文明社会的一个重要标志。隐私权是一项基本的人格权利,是人权的重要构成部分,保护隐私权就是保护人权。在大数据时代,数据就是隐私。人工智能在开发、使用过程中会收集大量用户信息,这些信息单独地看,都是碎片化的信息,并不包含过多的隐私内容,但是,当运用一定的智能算法来整合这些数据时,某个人的一切行为都会被描绘出来,也就是说,个人信息都会暴露无遗,隐私完全不存在了。在现代社会,很难想像一个人能够完全脱离互联网,然而,只要运用网络,个人隐私信息就不可避免地被获取,特别是一些不法分子在经济利益的驱动下,利用法律或政策的漏洞大肆收集用户个人隐私信息,另外还有一些黑客通过入侵的手段窃取用户的隐私信息。鉴于人工智能的算法对于普通用户而言完全是一个黑箱,用户的个人信息往往是在用户不知情的情况下就被收集了,人们难免对个人隐私信息会否被过度收集而心存疑虑。[9]确实,在信息时代,要做到“大隐隐于网”是极其困难的,每个人都好像是“透明人”,不管他(她)在大街上、在单位,或者是在家里,都像处于“圆形监狱”中。人们都希望一方面享受信息化的便利,另一方面保护个人隐私,这同样也是人们运用人工智能的伦理困境。

由于人工智能具有自主学习的能力,人们在使用人工智能时,哪些信息会被收集,收集的信息如何处理,用户是一无所知的。当人工智能系统存在漏洞时,它不可避免地对人们的隐私权造成侵犯。一旦这些隐私数据被无意或恶意泄露,犯罪分子就可能利用这些隐私数据从事犯罪活动。

数据是人工智能伦理约束的主要内容。为了防范可能出现的上述问题,必须要求人工智能相关数据是透明的,即它所收集的任何数据必须以明示的方式获得用户的许可,而且,这些数据的流向以及使用方式也必须是透明的。对于技术与伦理的关系,有人主张应当伦理优先。人工智能发展不能以牺牲个人隐私权为代价,现在各种应用场景中的人脸识别已经引发人们对于技术凌驾于伦理之上的担忧。人工智能伦理的核心问题之一是责任,在人工智能设计、使用等各个环节都需要强化伦理审查、约束机制,收集要授权,使用有界限,存储应保护,唯其如此,才能形成人工智能有序发展、规范发展、健康发展的局面。

(三)人工智能会造成大规模的失业现象吗?

历史地看,每一次技术革命都会造成失业现象,特定的工种或工作岗位会被淘汰。人工智能是一种能够替代人的智力劳动和体力劳动的前沿技术。毫无疑问,“雇佣”智能机器人“性价比”更高,因此,人工智能所带来的自动化浪潮对于劳动密集型产业的影响是极其巨大的。当人工智能越来越强大时,传统经济领域会减少大量原来由人力所承担的工作岗位,特别是那些简单的、重复性的工作岗位会被人工智能所替代,从而大幅度提高工作效率,降低生产成本,但是就业者的劳动权被剥夺,这会减少其经济收入,降低其生活质量,加重其挫败感,加剧社会不公平,甚至造成社会结构的不稳定。人工智能取代人的工作岗位并不仅仅局限于劳动密集型产业,在一些智力密集型行业,如医疗保健、新闻媒体、教育培训等,都出现了人工智能对人的工作岗位的取代现象[10]。如果随着人工智能应用范围的扩展,当绝大多数工作都由人工智能承担时,那么,人的主体性地位将受到挑战,因为工作并不仅仅是谋生的手段,更重要的是人作为主体的标志。如果一个人因为落后于人工智能时代,而被时代所抛弃,成了“多余的人”,那是多么荒谬的事啊。

当然,也有一种说法是,新技术会增加一些新的工作岗位。然而,这些工作岗位并非那些因为技术革新而失去岗位的人所能胜任的,而且,这些人由于其所从事的主要是简单劳动,劳动技能较低,通过再培训获得需要更高技术要求的新岗位也是极为困难的,即便能够再就业,也很有可能沦为智能机器的附庸。对于这些人来说,不公平显然是存在的。人工智能技术的发展,在提高工作效率、消除旧技术所带来的不公平的同时,也会造成新的不公平,即掌握了人工智能技术的人能够获得更大的就业方面的优势地位,从而形成“人工智能鸿沟”。这一鸿沟可以存在于不同人群,也可以存在于不同地区、不同国家。为了防止“资本的逻辑”或“技术的逻辑”来主宰人类的命运,劳动者要做好心理准备与技能储备;政府应当考虑到人工智能发展对于传统就业的冲击,要为被人工智能替代的人寻找出路,通过教育、培训提升他们的专业技能,建立健全社会保障制度,保护他们的合法权益。

(四)可以在战争中使用智能武器吗?

关于在战争中使用智能武器的做法,已经引起了广泛的争论。反对智能武器的观点认为,一旦允许在战争中使用智能武器,怎样保证它只针对军事人员而不杀戮平民?它能否像战士一样遵循战争道德?谁来决定是足以使敌人丧失反抗能力即可还是直接杀死敌人?有人担心,一旦智能武器被恐怖分子掌控,很可能造成对平民的大规模杀戮,甚至会引发世界大战。

不过,也有很多人支持在战争中使用智能武器。他们认为,很多战争是必需且正义的,智能武器能够让人远离火线。这种观点还认为,在遵循旨在减少战争犯罪的战争法和交战规则的前提下,战争中使用机器人要优于人类参与战争。

无论是否在战争中使用人工智能,都应当以促进人类和平为出发点。一旦出现智能武器使用异常而又无法人为干扰的情况,智能武器可能成为杀人恶魔。据报道,美国曾在阿富汗等地使用智能武器,但造成了163名平民被误杀[11]。不仅如此,智能武器还会引发新一轮军备竞争,破坏人类的基本价值体系,无人机和智能武器的大规模运用很有可能是人类文明的一场灾难。因此,开发智能武器必须进行专家评估,特别是应当对其进行伦理风险评估。人工智能伦理的底线要求是不能允许人工智能对人类作恶。人类只有一个地球,世界各国应共同致力于构建人类命运共同体。因此,对于人工智能的恶意使用以及军事应用,必须从全球治理层面进行法治和伦理的规制。

(五)对超级人工智能和异常现象担忧是“杞人忧天”吗?

我们常说,科技以人为本。20世纪40年代艾萨克·阿西莫夫(Isaac Asimov)就提出了“机器人三定律”[12],明确了人工智能的设计目的在于更好地服务于人类。但是,我们能否保证,人类与人工智能永远处于“蜜月期”?随着人工智能的深度学习能力的增强,人工智能所作出的复杂选择是否一定符合人类社会的伦理规范?甚至,会不会有一天,人工智能强大到足以挑战人类中心地位,它们不再甘心只是人类的工具与附庸,从而主宰人类社会?随着人工智能越来越“智能”,人却变得越来越“傻”了。仅就记忆力而言,人工智能的数据存储能力越来越强大,而人类却患上了健忘症,一旦离开电子存储设备,人类还能记忆什么?

现在,学者们对于未来人工智能的作用存在不同的理解。有学者将人工智能称为我们现在最大的威胁,他们担心:在人机关系中,人类的主体性地位能否得到保障?人类的价值观能否被人工智能所认同?也有学者对人工智能持谨慎乐观的态度,只是对超级人工智能表示担心。他们认为,如果人类能够很好地控制人工智能,那么人工智能的发展前景还是值得期待的。有学者认为,对于人工智能所造成的所谓异常不必“杞人忧天”,即便出现异常,也是低概率事件。不过,这一赌注代价确实太大,因为一旦人工智能出现异常,所造成的损失往往是巨大的。

在信息时代,人类与人工智能共同进行着信息化生存,在信息环境构建方面(或者通俗地表述为“话语权”),显然,人工智能更占据优势地位,如此一来,“人类独一无二的地位将被取代”[13]108。那么,如果伦理规范的制定仅以话语权为依据,人的主体性地位就岌岌可危了。早在公元前5世纪,古希腊智者普罗泰戈拉就提出“人是万物的尺度”这一命题[14]。尽管对于这一命题有不同的理解,但是,其中所蕴涵着人的主体性地位是比较明显的。然而,在人工智能时代,“智能和自主将不再是人类独有的特性”[13]38,人的主体性地位就丧失了,这本质上就是一种“异化”,是技术对人类的“反动”。是否还存在一种可能,即人工智能系统可以完全自主运转,那么,人的位置在哪里?怎样保证在人工智能技术系统的构建与改造过程中,以人为主导并受到人的控制?

(六)我们应当把人工智能当作人一样对待吗?

随着人工智能越来越深地介入人类社会,我们将面临着如何对待人工智能的伦理困境。现在,越来越多的学者认为,人工智能并非与道德无涉。正如在今天的社会中,人工智能已经占据了极其重要的地位,在可以预见的未来,人工智能会成为一个拥有知识和关系的独特个体。作为一个独特个体,人工智能也有自己的权利吗?也许有人认为,人工智能应该追求人类福祉,而不应当享有与人类同等的权利,但是,如果把人工智能定位为道德能动者,那么人工智能必须对其行为负责,人工智能伦理规范在对人工智能提出责任要求的同时,如何保障人工智能的权利也是一个必须加以重视的问题。

网络时代,人们的人际交往能力在不断下降。随着机器人被设计得越来越精密,特别是一些智能伴侣机器人,在外形、声音、行动等方面几乎与真人无异,2017年沙特阿拉伯甚至赋予人形机器人索菲娅(Sophia)以公民身份,人形机器人越来越被视为一个有情感的个体,以保姆、伴侣甚至孩子的身份进入人们的家庭,这种现象很有可能会冲击传统的人伦关系[15]。当人们更多地与机器人交往时,会否减少与他人的人际交往?人际关系会否越来越淡漠?看一看我们周围的“低头族”,也许这种担心并不是多余的。痴迷于网络交流,忽视现实中面对面的交流,使人更疏远。

另一方面,当人工智能发展到一定程度而具有道德判断能力时,其道德感的生成并非瞬间完成的,而是有一个与人类互动养成的过程。此时,人工智能对人类的依赖关系更加强烈,人类与人工智能也同样更加密不可分。人工智能不应被简单地理解为人类的附属品,因为与其他技术产品不同,人工智能被赋予了“生命”“价值”“情感”等方面的内涵。

人工智能伦理最核心的是责任问题,这种责任是相互的,即人类对人工智能的责任和人工智能对人类的责任同等重要。在大工业生产条件下,每个岗位、每个环节各司其职、各负其责,这是效率提升的必然要求,然而,这种高度分工必然造成责任的“碎片化”,即无人对整体负责。人工智能伦理的提出就是要打破这种僵局,构建一种人类与人工智能共生共在的伦理共同体,因为人类与人工智能的生存本质在信息这个层面实质上是相同的。在传统时代,作为个体的人和作为整体的人类与信息、数据关联度并不高,但是,在大数据时代,信息即存在、数据即内容,无论是人类还是人工智能,概莫能外。根据系统论的观点,技术与人类之间是共生关系,人工智能的发展已经使之与人类社会高度融合。而要构建和谐的人-机关系,应当以文化和价值观的可接受性作为前提。

三、理解人工智能伦理的多元视角

人工智能不是与人类社会无关的纯粹技术问题,而是存在于人类社会生活之中并对人类社会生活产生重大影响的新技术。既然人工智能是人类社会实践的产物,那么,讨论人工智能伦理问题就不可能脱离人类社会实践的大背景。在我们研究人工智能伦理问题时,应将之放置于人类社会伦理体系的大框架之中来认识。

人工智能伦理是科技伦理在人工智能领域的具象化,而科技伦理是对于科学技术活动中人与人、人与自然、人与技术等方面关系的伦理规范,属于应用伦理学的范畴。伦理是我们处理与自然、社会关系的基本规范。学习伦理学,可以使我们应对伦理挑战,从而正确地理解世界以及正确地处理与他人的关系。通过伦理学理解世界的大多数研究方法要接受三个方向各异的主要定位:道义论、功利主义、美德伦理。

道义论认为伦理应当遵从道德律令。与人类一样,人工智能也应当遵循道义论伦理学所确立的道德律令。如果人工智能具备自主性,成为道德能动者,具备了道德主体的地位,人工智能必须为自身的过失行为承担责任,那么,这是否意味着人工智能的设计者、生产者、销售者、所有者、使用者等可以免除责任呢?如果人工智能可以承担责任,人类会否将自身应当承担的责任转嫁给人工智能呢?人工智能如果成为人类免责的工具,不论是对于人工智能的权利保障而言,还是对于受害者(人工智能或人)的权利维护而言,都是不公平的。如果需要人工智能承担民事责任,它有财产可供执行吗?如果需要人工智能承担刑事责任,那么有期徒刑这种对人身自由的限制对于人工智能有没有意义?如果判处人工智能死刑,是彻底销毁还是抹去记忆?这种死刑有意义吗?或者说,人工智能会像人那样畏惧死亡吗?“民不畏死,何以死惧之?”对于人工智能亦然是成立的。如果人工智能连对死亡的畏惧之心都没有了,人类如何制约它?人工智能应服务于人类,而不能使人类受制于它,这是人工智能伦理设计的底线原则。

功利主义伦理学也被称为效果主义。通常,人们是根据某种行为的后果来判定是否合乎道德。相比较人类,人工智能在计算(“算计”)行为的后果(“效用”)方面,有着更大的优势。那么,能否说人工智能比人类更高尚呢?但实际上,行为是由理念主导的,道德行为之前必须有道德选择问题。当人机互动成为可能,人类能否洞察人工智能某种行为的内在动机?我们知道,对于情绪管理能力极好的人,测谎仪基本上没有什么用处。同样,人工智能比人类更善于隐藏自己的真实动机。这样一来,人工智能是一个黑箱,人类反而是透明的,人类与人工智能的主次地位就颠倒了。人工智能对于人类的意义又在哪里呢?当然,从现实效用来看,那些道德水准较高的人工智能可能更容易与人类相处,更易被人类社会所接受。

美德伦理虽然历史久远,但是一直未受到足够的重视。美德是美德伦理的核心概念,是指一个人持久的良好品性,包括基本美德(如仁爱、正义等)和派生美德(如友善、诚实、谦虚等)。美德伦理把行为主体的品质和动机作为评价对象,认为美德可以培养,强调道德教育的重要性。与道义论关注责任、功利主义关注后果不同,美德伦理重在优良品质的培养,这是合乎道德行为的保障,因此,可以作为人工智能伦理设计的理论依据。在人类社会中,我们希望好人越多越好,坏人越少越好,同样,在人工智能伦理设计环节,应当将道德规范预先植入人工智能系统,让人工智能成为一个“好机器人”,而不是一个“坏机器人”。

人工智能的发展对于传统道德哲学构成了挑战,一些既有的道德原则和伦理规范的适用性也存在着诸多问题。究其原因,在于人工智能颠覆了传统的人与技术关系的判断。在人工智能作为一种技术出现之前,其他所有的技术都未对人类的主体地位构成挑战,而人工智能则对人进行了重构,甚至人的身份也出现了模糊,比如,基于生物传感技术的可穿戴式人工智能设备就实现了“人-机”合一。人工智能技术的发展是非常迅速的,解决由人工智能所引发的伦理问题更是迫在眉睫。如果我们在人工智能伦理设计中缺乏前瞻性,人工智能技术发展所带来的风险是难以控制的。当前人工智能伦理风险主要包括人类的决策主体地位难以完全保障、用户隐私权受到侵犯、安全责任主体难以落实以及破坏社会公平等方面[16]。人工智能发展的目的在于增进全人类的福祉,任何技术的狂妄所带来的都可能是一场灾难。伦理是作为主体的人在处理与他人、与自然关系时所产生的,是人类的基本属性,人工智能伦理的实现就有一个“学”和“习”或者说“知”和“行”的过程,前者是指将人类伦理观和伦理规范通过技术方式植入人工智能,后者是指人工智能在具体实践中如何贯彻人类伦理观和伦理规范。如果人工智能伦理只是止步于前者,那么,随着人工智能更加“智能化”,特别是当人工智能的自主学习能力更强以至于在某种程度上获得了主体地位时,伦理困境甚至伦理危机就不只是存在于科幻作品中,而极有可能成为现实了。

四、人工智能伦理调适的基本路径

寻找人工智能伦理调适的基本路径应当从界定人类与人工智能的关系入手。因为,人工智能伦理的本质就是人类与人工智能的关系。在讨论人类与人工智能的关系时,有两种理解方式。

一种是“主体说”,即认为人工智能拥有与人类相同的地位,人工智能是法律意义的“自然人”,能够以自己的名义承担责任、享受权利,而自我意识是承担伦理责任的前提,因此,在伦理学意义上,人工智能本身就是道德主体。根据智能化水平的高低,人工智能分为弱人工智能、强人工智能和超人工智能。在目前的技术条件下,人工智能尚处于弱人工智能阶段。在这一阶段,如果说人工智能具备主体地位还比较牵强。当然,我们可以做出一种技术前瞻,未来的人工智能可能达到强人工智能乃至超人工智能水平,人工智能具有了自我意识和深度学习能力,自主性大大增强,一些科幻作品也将人工智能视为道德主体。届时,人工智能伦理问题就更为复杂了。如果把人工智能视为道德主体,而且它能够承担道德责任,甚至比人做得更好,那么,人还有存在的必要吗?人们对于人工智能所可能带来的“去人类化”不无担忧[17]。就其本质而言,这就涉及人工智能与人类在道德构建方面的责任边界问题。人工智能的道德意识不可能自动生成,要通过预先植入或后来学习获得,那么,人类就是人工智能的“造物主”或伦理老师,人工智能的道德意识(比如同情心、善恶、荣辱等)或者由人类通过算法植入或者在与人类的社会交往中生成。当然,如果有人别有用心,罔顾法律和道德,在人工智能的设计环节或学习环节“做手脚”,“教唆”人工智能做坏事,就相当于打开了“潘多拉魔盒”,对人类造成严重危害。所以,从根本上来说,对人类造成威胁不是人工智能,而是人类之中的“害群之人”。

另一种是“客体说”,即认为人工智能是服务于人类的一种技术,这种观点也是本文的立论前提。在目前的弱人工智能阶段,人工智能只具有有限的自主性,背后的设计者和控制者仍然是人。人是主体,而人工智能是客体。既然如此,那么,从法律意义上讲,人工智能必须有其监护人或负责主体。我们目前所探讨的人工智能伦理,本质上是人工智能设计、开发、运用中的伦理问题,承担伦理责任的主体是自然人或法人,而不是作为服务于人的人工智能。因为人工智能是人为构建的计算机系统,支配人工智能的是各种程序代码,程序代码的伦理规范必须是预置在计算机系统中的,这套伦理规范是由程序设计师来构建或选择的,因此,从终极意义上来说,人工智能的道德主体依然是自然人或法人。伦理学家的任务是帮助人工智能工程师确立正确的伦理观,以促进人工智能与人类的伦理维度相匹配。在大工业生产模式下,技术标准与规范是必需的,在人工智能设计中植入伦理标准与规范是人工智能伦理的重要实现方式。当然,这些伦理标准与规范必须合乎大众伦理价值。人工智能伦理本质上是技术伦理,人工智能设计如何体现伦理构建的基本要求,即人工智能不能伤害使用者以及其他道德关联者,这是一个值得关注的重要问题。

一切自由都不是无条件的,如果自由不受任何约束,那必将造成人类的灾难。人工智能越发达,其所获得的自由亦越多,也就越需要伦理的约束。人工智能的进展迫切需要我们扩展伦理学的适用范围。人工智能的设计开发、应用以及人机关系都存在着伦理问题。在过去,伦理学的基本问题只关乎人类和人类行为。随着人工智能的越来越智能化,特别是当人工智能具有思考力和感知力时,它是否被视为“人”,就不是一个纯粹技术问题,而必须进行伦理规范了。因为人工智能能够基于自身对于复杂世界的感知而作出自主的行为选择。在人类的诸多价值或目标之间往往存在着冲突,而且价值是模糊的、难以量化的,道德的复杂性意味着道德主体不仅要在善与恶之间选择,而且有时面临着在两种及以上不同的价值之间做出选择的困境,即“道德困境”。以自动驾驶为例,自动驾驶的汽车应如何设计程序以做出一系列的行为选择,或者当控制系统失灵时能够进行人工干预,从而避免或者对行人或者对其他车辆的伤害?在不可避免造成伤害的情况下,怎样权衡这两种伤害也许根本不存在所谓正确的选择,对于程序设计人员而言,如何在程序设计时进行伦理考量?比如,何种价值应当赋予某种特殊的机器以胜任特殊的任务。当然,之所以选择一套价值而不是其他价值,有其成本效益的考虑。

正如人类社会的和谐存在与发展离不开伦理的调适一样,我们正在进入的人工智能社会也离不开人工智能伦理的约束和规范,人工智能伦理是人工智能发展的“锚定桩”[18]。人工智能的发展必须增进人类福祉[19],遵循人类的基本价值观,然而,人类价值本身是多元的,而且在多种价值之间也存在着冲突与矛盾,到底以何种价值作为人工智能的设计框架呢?因此,人工智能学习者不仅需要学习和掌握如何将各种算法代码植入人工智能系统,并使之做出相应决策的技术,更重要的是要学习伦理理论[20],后者确立了人类选择行为的基本原则,相应地,这些原则对于设计智能系统也是必需的。由于伦理结构的复杂性,即使人工智能具备深度学习的能力,其获得伦理认知能力也是一个循序渐进的过程,毕竟,人工智能既可能“跟着好人学好人”,也可能“跟着巫婆跳假神”,因此,进行人工智能伦理设计可能面临着一个试错的过程。另一方面,伦理规范又具有相对性,不存在普适性的伦理标准,反映在不同时代、不同国家、不同族群等,伦理规范都具有差异性,要将已经达成的伦理共识(比如以人为本、公正、和谐、可持续发展等[21])形成“道德算法”植入人工智能,也即“算法从善”原则[22]。在人工智能设计过程中,伦理审查的关口应当前置,以防患于未然,不能等待出现问题再“亡羊补牢”。人工智能伦理设计要有明确的价值定位,即赋予人工智能友善的动机,具备良好的道德品质,从而做出合乎道德规范的行为。各国应在构建人类命运共同体理念指导下,共同应对人工智能伦理问题,建立完整、有效的人工智能伦理体系[23],确保人工智能的健康、可持续发展,使人工智能更好地增进人类福祉[24]。

猜你喜欢

伦理道德人工智能
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
头上的星空与心中的道德律
护生眼中的伦理修养
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
2019:人工智能
人工智能与就业
伦理批评与文学伦理学
数读人工智能