APP下载

人工智能的伦理困境探讨

2019-01-16段文萱石旭雯

中国医学伦理学 2019年8期
关键词:伦理原则道德

段文萱,石旭雯

(天津医科大学医学人文学院,天津 300070,dwx_1121@126.com)

1 人工智能的界定

人工智能就是让机器或者是人所创造的其他的人工方法或系统来模拟人类智能。人工智能又分为强人工智能和弱人工智能,而我们目前所研究的领域及成果都属于弱人工智能,即让机器具有某种行为,处于模仿人类行为的阶段。

20世纪50年代由图灵初次提出了图灵测试的观点,并且预言出了智能机器存在的可能性,引起了全世界范围内的普遍关注,为人工智能科学的发展奠定了基础。从1956年,在达特茅斯会议上首次提出了“人工智能”一词,直到现在经过60多年的曲折发展,人工智能进入了一个全新的飞速发展的时期。随着互联网、云计算、大数据等一系列新的信息技术的发展和应用给部分产业带来了巨大的冲击,同时也给新兴产业带来了新的机遇。人工智能在我们生活中的各个领域发挥着重要的作用,为我们的生活提供了便利[1];但在飞速发展的同时也引发了一系列的探讨,例如“人工智能是否会取代人类”“人工智能的快速发展是否会导致人类的灭亡”。人工智能的伦理问题逐渐受到了重视。

2 人工智能发展的伦理困境

针对“人工智能是否会征服人类”这一类问题学界也有着不同的看法,但我们不能因为担忧未来而阻止人工智能的发展,阻碍社会的进步;同样,我们也不能因为现阶段人工智能并未超越人类而放松警惕,任其发展。

2.1 隐私伦理

互联网、物联网技术的发展,为我们带来了巨大便利的同时也增加了数据泄漏的风险[2]。我们在享受网络便利的同时,手机也会记录下我们的偏好,同时根据我们的搜索来推送适合我们的东西。而与这些常规数据相比,医疗数据的泄漏会造成更大的损失。例如,现如今的康复机器人就是要收集患者的数据,患者的脑电波,从而帮助患者康复。这就使人工智能时代的到来面临着一种尴尬的境地:①对于人工智能,数据是一切的基础,若想让人工智能发展更好地服务于人类就必须让其掌握一定的数据;②当人工智能掌握了大量的数据之后,我们的隐私又面临着巨大的挑战。那么在完全抛弃隐私和保护隐私两个方面可否有一个平衡点[2],针对不同的数据具有不同的管理办法,是我们目前发展应解决的一个问题。

2.2 公平伦理

人工智能应用在各个领域中时与人类的公平待遇也存在一定的冲突,人工智能的目的是服务于人类,当它的出现渐渐取代了一部分人工职业时,会造成部分人失业,如果忽视这个问题,是对失业人员的一种不公平待遇。怎样在这种模式的转换中保证相对的稳定和公平是目前需要解决的问题。另外,在公司招聘时采用的自动筛选系统,系统通过输入的条件自动筛选符合条件的面试者,由于程序设置可能会自动将女性应聘者或者已婚应聘者从名单中剔除,系统并不像人类灵活,无法对应聘者作出客观的评价,从而造成了歧视,这是对应聘者的不公平。在医疗领域,这种不公平待遇也会出现,由于资源分配以及条件限制的原因,只有小部分患者可以享受人工智能医疗的服务,那么如何在普及新型医疗的同时,又能保证医生护士不会因为过度依赖人工智能产品,而导致专业素养退化,这也是应重视的问题。在明确的人工智能的辅助地位后,此类的问题也就迎刃而解了[3]。

2.3 责任伦理

责任伦理问题主要指的是当使用人工智能发生故障导致人类受伤或者造成损害时,应追究谁的责任,是人工智能的设计者、制造者、编程者还是使用者,同时该不该追究人工智能本身的责任的问题。在医疗领域,目前达芬奇手术机器人为医学的发展注入了新的力量,新型手术机器人克服了医生由于长时间手术而产生的手部抖动问题,而且机械手臂仅有4毫米的直径,超越人手极限,做到创伤小,更高效,出血少,恢复快,是人类医疗史上里程碑式的进步。但是当使用手术机器人过程中如果产生了意外,对患者造成了损伤,此时,应追究谁的责任,或者术后患者出现了并发症,那么谁又该为此种情况负责呢?到底是研发机器人的公司还是操作机器人的医生?机器人本身有没有责任?这一系列的问题都是亟待解决的。当有了一套完备的责任分配体系,同时也是对每个环节的个人以及相应机构的明确约束,也可以保证人工智能的健康发展。

2.4 主体性伦理

人工智能体——基于人工智能的智能体,是理解人工智能的核心概念。人工智能体在某种程度上显示出一定的“主体性”,而这种“主体性”有何内涵,人工智能体是否是独立存在的道德个体?计算机伦理学创始人摩尔根据机器人可能具有的道德影响力,将其分为几类,分别是:道德影响力智能体,是无论行为是否有意义但具有道德影响力的智能体;隐含的道德智能体,是具有道德的智能体隐含在其设计的考虑因素(通常指的是安全因素),可以对特定情况采用一些自动的道德反映;明确的道德智能体,能够识别和处理各种情况并对应该做什么作出合理决定的智能体;完全的道德智能体,指的是像人一样具有意识、意向性和自由意志等特征,并能对各种情况作出道德判断[4]。理论上来说,人工智能体还是具有成为道德主体的可能的,假如我们把特定的伦理规范编程到人工智能体的系统中去,从而培养他们的道德判断能力,这是否说明人工智能体成为道德载体?如果我们可以把合乎道德的伦理规范编入人工智能中,是否也意味着可以把非道德的反伦理的体系编入其中?那么针对这一问题,应如何规范和约束人类的行为,防止把非道德体系编入人工智能系统中呢?那编入其中的道德是否属于人的道德,是否与人的道德相同?机器人伦理是否应该与人类的伦理区分开来?就目前的研究状况来看,人工智能体要想作为独立的道德个体而存在还有很长的一段路要走;而我们只有切实地解决了一系列潜在问题后,人工智能才有可能向前迈进一步。

3 人工智能伦理困境的解决思路

3.1 规范伦理原则

人工智能的伦理问题引起了全世界范围内的关注,我们国家尚处在着手建立的阶段。借鉴国际上已有的准则,总结出几点适合我国国情的人工智能伦理原则:

“不伤害”原则。由阿西莫夫提出的“机器人的三大定律”:①不伤害人类原则;②听命于人类;③在保证前两点的前提下,人工智能具有保障自己安全的权利。并以此为法则在“不伤害”前提下发展人工智能。

以人为本的原则。要明确规定人工智能产品是为人类服务的,不应凌驾于人类之上而存在,而人类对于人工智能产品和技术有监督管理权。

安全性原则。人工智能技术和人工智能产品本身都应该是安全的,不易受到外界干扰的。在使用过程中应是稳定安全的,不可对使用者造成伤害;另外,一般的人工智能产品是服务于人类,听命于人类的,不可轻易被人操纵用来攻击伤害他人(用于军事战场的作战型机器人除外)。人工智能产品收集到的数据也应是安全的,不可随意泄露,用户也应拥有随时查看和删除的权利,要充分保护用户的隐私。

公平性原则。人工智能产品应是服务于全人类的,不应存在种族、年龄、性别等方面的歧视,其系统算法的编入也应是公平公正的,不带个人感情色彩的。

可持续性发展的原则。人工智能的产生和发展是一个时代的进步,它应当是不断前进的,造福于人类的。所以人工智能的发展要符合可持续发展的原则,不应破坏生态平衡,不应破坏环境,真正做到人、机器、环境和谐相处,共同发展。

3.2 限制人工智能

对于“人工智能是否会超越人类”这一问题,必须要引起我们的高度重视。针对这一隐藏问题,我们首先要对人工智能本身进行限制,也就是限制其智能程度,控制权始终掌握在人类手中[2]。当人工智能变成一个绝对安全可靠的工具时,人们自然也不会担心被取代的问题。比如,当人工智能应用于医疗领域时,我们便可以充分发挥其在医学诊断领域的作用,对患者作最初步的诊断,为患者节省时间,患者在就医前可先通过人工智能系统自行诊断,对于系统处理不了的问题再由医生治疗,同时也为医生减小了工作量。由人工智能先作预判,最终的诊断和治疗还是掌握在医生的手中。

另外,对人工智能的使用范围也应作一定的限制[2]。人工智能产品在领域方面有着明确的区分,比如AlphaGo的胜利说明在棋类竞赛领域,人工智能确实超越了人类智能,AlpahGo采取了更高级的算法和学习的策略,它通过自身的学习而战胜了人类,但也仅是在棋类领域,在其他领域里,人工智能还是无法超越人类本身的。人工智能的研究者莫拉维克(Hans Moravec)发现,计算机在智力测验以及各种棋类游戏中表现超出人类的水平,然而它在视觉、知觉等领域却连一岁小孩的程度都很难达到[5]。因此,把针对棋类竞赛、医疗卫生、无人驾驶等专业的人工智能的应用限制在自身领域范围内。一方面可以保证人工智能在此领域内的绝对水平;另一方面也可以有效避免人工智能过于强大从而产生取代人类的危险[3]。

3.3 明确责任归属

人工智能科学家和设计师是人工智能的创造者,同时也是安全问题的主体。人工智能体,机器人只是辅助人类生产生活的工具,无论它是否具有意识,是否享有权利或者作为独立的道德体所存在,它始终应遵循“不伤害”原则[6]。人工智能产品在应用时难免会出现一些问题,由于涉及的人员和外界因素较为复杂,对于事故的责任划分以及后续的赔偿等问题也变得十分复杂,目前尚没有一个完整的责任划分的标准。因此在“不伤害”原则的同时,也应推出“责任制”,制定一套系统的责任划分标准以及赔偿标准。责任制应明确规定不同情况负责人承担的相应责任,首先,我们需要明确几个概念:研发者——设计创造出人工智能产品的人;开发商——投资开发某种产品的公司或个人;使用者——人工智能产品上市后根据需要而消费使用的个人。然后根据不同情况划分责任,根据不同的情况采取不同的追究办法,保证从产品的研发到应用,每个环节的个人都能承担起自己相应的责任。当产生消极影响时可以明确追溯到个人,而不是相互推脱,把责任推脱到不确定的技术因素上[7]。同时,也能有效避免开发商或者科学家由于私心在设计过程中编入违反伦理原则的程序。

3.4 正确价值导向

现代科学技术发展及应用也是充满着不确定性的,对于科学家而言,如何向大众解释产品的问题也应当引起重视,虽然诸多学者持乐观态度,但并不能完全消除我们心中的疑虑。此时就需要科学家向大众作出解释,倘若有了统一的伦理原则,就可以依据原则适当的公布一些技术的细节以及设计理念,引导大众接受新产品、新技术,促进人们观念的改变,使其相互信任。一般认为,大众的参与感越强其接受起来越容易,当其真正适应了这种转变之后科学家们的研究也会越来越顺利。此问题的关键点在于——要对大众作出正确的引导。当科学家和研发人员对大众作出引导的同时,科学家们的价值观也显得尤为重要。首先,对于人工智能的开发科学家要树立最基本的观念:一是“以人为本”,任何人工智能产品的开发首先遵循的一点就是不伤害人类,科学家们在研发过程中要对产品的危险系数作出预判,及时更改。二是“为人类服务”,科学家们要明确的一点就是人工智能技术是由于人类的需求而产生的,旨在增强人类智能,辅助人类的生产生活,从而促进人类社会的发展。即真正的实现人机协作,人机之间的相互尊重,机器与自然的共同生长,需要人、机器以及自然三者之间的和谐共处,共同为人类文明的进步而努力。明确这两点后,对人工智能的发展和大众的引导也具有积极的作用。

3.5 健全规章制度

要确保人工智能的健康发展,对人工智能的监管以及人工智能伦理原则的建立最终都要落实到法律法规上。因此,首先需要建立人工智能伦理委员会,明确划分各部门职责,全面监管和把控人工智能的发展,从产品研发到投入使用的各个环节都要层层把关,任何产品的研发都要首先获得伦理委员会的批准方可投入生产。在投入使用之后,伦理委员会也要定期跟踪获得反馈结果,对于违背伦理原则的情况要第一时间掌握并及时作出补救措施,把风险降到最低。其次,要根据人工智能的伦理原则出台相关的法律文件,明确规定事故责任的划分。同时,伦理委员会也应强调专家的社会责任,指导和约束科学家合理地研究人工智能,对科学家本身的行为作出合理的规范和监督[8]。国际应该加强合作,早日出台国际通用的法律法规。

随着智能手机、电脑的普及,人工智能已经完全融入我们的生活中,当我们在享受着人工智能所带来的便利的同时,也不可过于依赖人工智能产品。当我们把全部都交予机器时,这其实是人类自己在为自己的未来增加隐患。因此,我们得益于社会发展的同时也应当随时保持警惕,避免由于过度依赖和过度使用而造成的后果。

4 结语

人工智能在造福人类的同时也确实存在诸多的安全隐患,当我们在人工智能新时代前行时,人工智能的伦理道德问题不可忽视,应当同科学技术一样作为一门专门的学科进行研究。目前,机器人和人工智能的飞速发展引起了社会的广泛关注,其伦理影响也引起了社会各界的高度重视。各个国家和国际组织应成立专门的机构监督人工智能的生产和发展。只有国际合作,才能促进人工智能的健康发展。只有真正的解决了安全隐患问题,人工智能才能促进人类文明的前进和发展。

猜你喜欢

伦理原则道德
《心之死》的趣味与伦理焦虑
十二星座的做事原则
灵长类生物医学前沿探索中的伦理思考
头上的星空与心中的道德律
党支部的工作原则是什么?
护生眼中的伦理修养
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
伦理批评与文学伦理学
用道德驱散“新闻雾霾”