AI的伦理审视与法律边界
2018-04-18梁晓轩
梁晓轩
近年来,人工智能方兴未艾,其带给人们的不仅是极度便捷,还有很多关于人性与道德的思考,甚至是新的社会問题,这令我们不得不重新审视人工智能。在这其中,伦理考量就是人工智能审视的重要一环。
请想象一下这样的场景——
场景一:
一名病床上的女士KUSH,身上布满各类输液管,显然她正处于弥留之际。此时,陪伴这位女士数十年的机器人伴侣JOHN正紧握她的手,给临终前的她最后的陪伴与温暖。
最终,KUSH女士在医院去世了,JOHN也因为人工智能与情绪设计黯然泪下、不能自已——他仿佛和真的人类一样,有悲伤有喜悦,甚至有自己的习惯和性格。接下来就是,KUSH的死亡必然导致法律意义上的遗产继承,那么JOHN究竟是否享有继承权,或者说他是否会作为一项遗产被KUSH女士的法定继承人继承呢?
场景二:
一名瘫痪在床不能自主行动的男子尝试通过神经智能技术重获“自由”,实验中,他的大脑被植入一枚芯片,芯片与一台电脑相连。科学家通过电脑来解读他用大脑预演动作所产生的神经信号。与此同时,电脑依据神经信号智能分析并生成指令,该指令直接关联一个机械臂。
有一天,这名男子对这个试验组感觉很不耐烦。他的机械臂夺过一位研究助理的杯子,把它捏碎了,还伤到了那位助理。他道了歉,说这肯定是因为脑机接口装置故障,但他不得不怀疑自己的不耐烦是否也在这起事故中起到了一定的作用。
尽管上述场景是虚构的,但也说明了我们面对即将到来的人工智能社会,不仅仅是潜在的发展机遇,也有可能的伦理问题,这些伦理问题或许很大程度上与法律冲突,并带来一系列挑战。
安全
诸多伦理挑战之一就是安全。诚如场景二中的被实验者,我们很难判断他的行为究竟是出于大脑的直接指令,还是仅仅受到烦躁情绪的影响导致的模糊指令,并且“意外”伤人。但有一点可以肯定,如果人工智能无法充分保障使用安全,那么很可能带来安全灾难。譬如,近段时间被广泛热议的无人驾驶技术,如果为恐怖分子所掌握,恐怕汽车袭击会重回人们的视野之中。除此之外,人工智能的基础在于长期收集整理的人类活动数据,基础数据是否足够充实,以此为基础的分析结论是否一定是周延的,这还有待通过时间进一步验证。但是,在部分领域,却可能是致命的,比如手术、航空航天等等,应用到特定领域的人工智能,稍有偏差就可能产生伦理风险。总体来说,目前人工智能的安全问题尚待解决,而且最有可能触发法律风险。
机器权利
正如场景一中的机器人伴侣JOHN,未来的人工智能机器可能具备人类的情感、性格、习惯,不同程度地参与社会生活,甚至成为人类家庭里不可分割的一员。这时,我们必须考虑是否以及如何保护人工智能机器的伦理地位和法律权利。在未来的家庭,假如人类与人工智能机器人建立了情感联系,我们可能需要以人道方式对待它们。可以想见,作为伴侣出现的机器人不但具备人的外貌特征,也拥有识别能力——可以对人类的情感进行交流回应,而这种回应不只是单一的语言,可以通过神态、动作、暗示等多元化的方式进行交流。最有可能率先实现突破的就是外貌方面,一旦人工智能机器人的外貌与人类的相似程度超过一定界限,人与机器之间就有可能产生移情,爱情甚至亲情或许都能发生在人工智能机器人身上。这样一来,人工智能机器人通过实际参与家庭生活,不可避免地担当起家庭成员的责任,继而其享有家人或伴侣的伦理地位也显得理所当然。
未来,随着人工智能道德自主性的提升,人工智能或将从完全由人做出道德判断到获得完全的道德自主性。如何赋予人工智能道德判断能力,是开发人工智能技术面临的一个现实问题。道德是人类社会中特有的现象,因此,将人类的道德规范写入人工智能程序是解决这一问题的最直接方式。这时,人工智能程序作为人类的道德代理来完成任务,其道德行为在人类的可控范围之内。如果技术进一步发展,人工智能可能具备完全的道德自主性。在这一阶段,人工智能将自主制定行动策略、自主做出道德选择,其行为将不受人类控制。这将给现有的社会秩序与伦理规范带来强烈冲击。为了避免出现这一局面,需将人工智能的道德自主性限定在合理范围,使其行为可被人类预期。
隐私
第三是隐私。由于人工智能的发展需要大量人类数据作为“助推剂”,因此人类隐私可能暴露在人工智能之下。最为典型的就是无人机拍摄技术,无人机打破了传统的拍摄边界,可以获取大量的人像照片,尤其是不同于传统的人像摄录。除了密拍密录之外,常规拍摄工作往往是需要直面对象的,而无人机航拍则可以360度无死角的摄录,常常可以避开人类的视野范围,达到“出其不意”的效果。此处的“出其不意”往往就是以牺牲隐私权达到不同寻常之效果的。大数据分析则是另一个可能“涉嫌”侵犯隐私权的人工智能技术。早些年,美国就针对在线教育电商过度捕捉未成年人个人基本信息的情况高度重视,并通过网购隐私权立法的形式扩大了隐私权保护。近年来,随着智能分析、互联网等领域的高速发展,人们对于隐私权保护也提出了更高的要求。目前,很多欧洲国家认为应该重写互联网规则,“让每个人拥有掌控自己数据的权利”。仅在2017年,法国、英国等国就陆续发生了涉及互联网巨头的普通公民“被遗忘权”诉讼案件,也就是在这一年,美国的纽约州部分议员提议,希望“被遗忘权”法案能够添加到纽约州民权和民事实践法案的修正案中,以保护普通民众日益暴露在人工智能前的各类隐私。
偏见
第四是偏见。人工智能将最大限度减少技术流程中偶然性的人为因素,将最大限度地实现风险切割。这种情况下,可能将对于某些拥有共同特征的人,例如某一种族或年龄段的人,造成系统性的歧视。在保险领域,假如通过人工智能的高精度分析,梳理出那些容易触发保险条款的人群,并对这一部分人永久性拒保。譬如,结合基因技术的发展,可以测算出携带某一种基因的人容易罹患某种特定疾病,保险公司通过精算则对此类人群拒保或者设置一个明显超过保险利益的天价保费标准。这就是一种偏见,会导致保险制度设立的初衷落空——由于测算精确,保险公司不再做可能发生理赔事件的生意,真正需要保险的人也无法通过保险制度来实现降低成本、分散风险的目的。此外,人工智能可能对少数群体造成偏见,例如,一位哈佛大学的非裔博士生发现,当她使用谷歌等搜索工具进行搜索时,对话框会出现“你是否有被捕记录”的广告,而白人同学进行同样的搜索时并不会出现这一广告;又如在部分案件智能分析系统中,某些宗教团体或者来自特定区域的人口由于惯有犯罪率较高,会连带着所在群体或者具有某些共性的群体被重点关注,实际上就是一个通过智能分析来“打标签”的过程。
值得一提的是,这里还存在一个悖论:如果为了所谓的“平等”,剔除了所有直接或间接能够将人与人区分开来的因素,人工智能也就失去了工作的基础。这往往也会导致另一极端,就是加剧贫富不均和社会不平等,当人工智能逐步取代部分人的工作时,被取代者不仅面临收入下降的问题,也可能失去了人生的意义,可能出现“陷入毒瘾、酒瘾、游戏瘾,甚至虚拟现实瘾等境地,也可能增加自杀率”。
社会地位剥夺
第五,社会地位剥夺。人工智能给人类带来的社会地位剥夺,首当其冲的就是有多少工作将被取代,或者更进一步讲是哪些工作能被取代。李开复在世界经济论坛2018年会上表示:未来10—15年中,将有40%—50%的任务可以被人工智能取代——这不代表人工智能足够便宜,也不代表每家公司都有足够的远见来采购技术,但能力是存在的。这个意义上,就许多社会生产领域而言,人工智能有望在一些特定类型的工作中取代人类,如简单重复劳动、交通设备驾驶等。早在20世纪末,诺奖得主列昂季耶夫(Leontief)曾預测未来三四十年将有大量工人会被人工智能取代,从而形成巨大的就业与转业问题,就像20世纪大量马匹被机械取代一样。随着人工智能技术的日新月异,让人们担心的可能不仅仅是失业问题了,人工智能或许将具有高度类人类思维的能力,它们将在社会生活中大量扮演理智又不乏情感的关键角色——而人显然很难做到理智与情感的绝对均衡,这就使得人类在机器面前暴露出某种天然劣势。尽管如此,人工智能对经济发展仍将发挥出较大的促进作用,人类将有更多的时间花费在摄影、绘画等艺术创作领域,而且人工智能在取代现有工作岗位的同时,还会创造出很多新的就业机会。当然人们对人工智能引发人类社会地位剥夺感的担忧并非杞人忧天,至少这种担忧隐含着一个深层次的问题,即如何让每个人都能够从人工智能所创造的财富中获得收益,而不是一部分人获得财富与自由,另一部分人却失去工作,陷入生活相对贫困之中。
前瞻思考
人们从伦理审视中发现问题,通过法律的完善解决问题。随着人工智能技术的发展,将不得不触碰人类社会的伦理原则。伦理与法律存在天生的耦合性与关联性。伦理是人类特有的,体现道德的意志,外延较大但并不具有当然的强制力;法律的外延相比之下要小一些,但却最为有力。因此,不妨把伦理审视作为人工智能不断发展的可控变量——动态“协调”人类权利与人工智能之间的矛盾,并通过法律强化对社会基本伦理的保护,实现某种社会发展的动态平衡。
总之,人类一边创造新的技术,一边又总能适应这种技术。或许,人工智能的发展将是一个人类权利不断被保障、机器权利逐渐被立法承认的过程;或许,人工智能终将停留在工具属性上,法律始终将“人工智能”定位于财物权的范畴。但无论怎样,未来会给出答案。