人工智能发展亟须制定道德准则
2019-12-02赵森
人工智能发轫于二十世纪五六十年代,至今已有半个多世纪的发展。当前,随着新一轮科技革命和产业变革兴起,大数据的积累、算法的革新、计算能力的提升及网络设施的完善,通用技术和平台成为国际人工智能发展的“主旋律”。人工智能在教育的应用始于二十世纪八十年代初,当时主要集中于如何优化知识教学方法等问题。其中,最突出的研究方向是智能导学系统(Intelligent Tutoring Systems)。总的来说,人工智能对教育的影响主要体现在学生学习观和教师教学观两大方面,并且已经取得了相当的成就,在个性化教育和学习评估等方面提供了全新的思路与解决方案。然而科学技术具有双面性,人工智能也不例外,它在给教育等领域带来惊喜的同时,也引发了不少担忧。比如,什么样的人工智能是人类需要的?如何规避人工智能带来的人类安全和社会伦理道德问题?基于以上问题,笔者将从以下几个方面进行思考。
人工智能的伦理道德涉及机器人和其他人工智能的生命。它通常分为机器人道德与人工道德智能体(Artificial Moral Agents,简称AMAs)。换言之,它既要考虑人工智能机器如何用于造福人类的价值导向,又要规范人类如何正确使用人工智能。早在1942年,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)提出了著名的机器人学三定律(也称为阿西莫夫定律):第一定律为机器人不得伤害人类或坐视人类受到伤害。第二定律为在与第一定律不相冲突的情况下,机器人必须服从人类的命令。第三定律是在不违背第一与第二定律的前提下,机器人有自我保护的权利。美国匹兹堡大学教授、西安交通大学客座教授、长江学者讲座教授科林·艾伦(Colin Allen)将人工智能中的“道德”划分为三种:一是机器应具有与人类完全相同的道德能力。二是机器不用完全具备人类的能力,但应对道德相关的事实具有敏感性,并且能依据事实进行自主决策。三是机器设计者会在最低层面上考虑机器的道德,但没有赋予机器人关注道德事实并作出决策的能力。由此我们可以看出,人工智能中的关于“道德”的概念尚未达成统一的认识,但科学家一致认为,人工智能中的道德绝非等同于人类中的道德,它有自身的逻辑和规范。随着技术的发展,关于智能机器的道德的探讨会越来越细化和深入,我们期望并相信人工智能中的“道德”概念会不断清晰和成熟。
人工智能不仅仅是一场结果充满未知的开放性的科技创新试验,更是人类文明史上影响甚为深远的社会伦理试验。正如霍金所言,人工智能的短期影响受控于人类本身,而长期影响则取决于人工智能是否能完全为人类所把控。当前,人工智能的伦理道德问题受到国内外专家学者广泛的关注,众多科学家在试图探索解决人工智能发展中的伦理道德问题时也遇到了不少困难。比如,能否运用智能算法对人工智能体的伦理行为进行编程,并使其自觉遵守设定的道德規范,乃至成为具有自主约束能力的人工伦理智能体,是面临的突出问题。再比如,要使智能机器具有复杂的类人的道德伦理,就需要构建一种可执行的机器伦理机制,使其能实时自主地作出伦理判断。然而,目前专用人工智能或通用人工智能在技术上并未实现以上机制。要在智能体中嵌入其可执行的机器伦理,只能诉诸目前的智能机器可以操作和执行的技术方式—基于数据和逻辑的机器代码,但要使机器像人一样理解语言和抽象概念,通过学习算法进而达到人类智能的水平,并非一蹴而就。有专家指出,人工智能伦理设计需要考虑三个方面:一是算法设计中的伦理审查,即要权衡算法中公平、效率之间的关系,避免使其成为“黑箱”。二是人工智能所涉及的数据的版权、隐私权和应用开发权的问题。三是人工智能开发中的伦理或政策边界问题,即哪些可以研发、哪些严禁研发、哪些优先研发等。从我国人工智能发展现状来看,前两项均处于缺位状态,相关行业规范和相关标准及法规尚未完善。此外,现阶段的算法不透明也是普遍存在的问题。在人工智能日益代替人类进行决策的时代,一套可验证、透明化、可问责、兼顾公平的人工智能运行机制,是保障人工智能研发利用与人类社会的价值伦理相匹配的重要基础。
目前,我国不少专家呼吁人工智能需要道德准则,也试图制定和构建人工智能道德标准。这足以看出国内学者对人工智能背后人文关系的警觉。但国内至今尚未形成具有一定规模、为公众所认可的具体标准。2018年12月,欧盟委员会公布了《可信赖的人工智能道德准则草案》(以下简称《草案》)。《草案》试图构建出一套“可信赖的人工智能”框架和规范合理的操作机制。2019年4月,欧盟委员会人工智能高级专家组(European Commissions High-level Expert Group on Artificial Intelligence)正式发布《可信赖的人工智能道德准则》(Ethics Guidelines for trustworthy AI)报告。该报告指出可信赖的人工智能应遵循以下三大原则:合法的—尊重所有适用的法律法规,道德的—尊重伦理原则和价值观,稳健的—兼顾技术层面和社会环境。此外,该报告还提出了七个关键要求,旨在衡量和评估人工智能的可靠性,并且开发一套具体的评估量表来检验每个关键要求的应用:一是人类的能动性和监督。二是技术稳健性和安全性。三是隐私和数据治理。四是数据的透明度。五是多样性、非歧视和公平性。六是环境和社会福祉。七是建立问责制。尽管在人工智能领域中国已后来居上,赶超美国之势日益增强。但在人工智能治理问题上稍落后于美国和欧洲,需要国内学界、业界的广泛关注和共同探索。2019年6月17日,我国国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则—发展负责任的人工智能》,该报告提出了人工智能治理的框架和行动指南的中国方案。很显然,我国有关部门已意识到人工智能的发展应有一定的限度与规范,并应积极借鉴欧洲等地的优秀经验。然而人工智能的治理原则并非一成不变,随着人工智能技术的快速发展,人工智能治理的能力和水平也应随之提升,今后还将根据变化及时调整。
【赵森,福建师范大学教育学部,硕士研究生】
责任编辑︱秦 岩