人工智能技术发展中更广泛的人权保护问题探析
2019-02-19刘秀丽
刘秀丽
(西南政法大学 民商法学院,重庆 401120)
人工智能(AI)作为一种工具在世界范围内被使用已经成为一种普遍趋势,无论人工智能将来的发展趋势如何,可以肯定的是任何人工智能的创建、开发和使用都是为人类服务,都应充分尊重人权,特别是保护个人隐私、个人数据以及人的尊严不受损害,减轻因人工智能的发展可能导致的歧视以及侵犯言论和信息自由问题。这些要求和挑战加强了国际人权机构合作的必要性,以确保在国际层面的所有人工智能技术发展中促进和保护人权,使个人能够理解和控制人工智能系统。
一、 人工智能技术发展中的传统人权保护
(一)人权界定
人权(human rights)是西方文化的产物,关于人权的主张最早产生于西方古典自然法观念中。然而对于人权的定义却是众说纷纭。“人权”概念最早是由意大利诗人但丁提出,他认为人类的目的是要建立统一的世界帝国来实现普天下幸福,而“帝国的基石是人权”。[1]1789年法国的《人权宣言》中“人权”意指人身权利和基本自由。第二次世界大战以后,人权的外延得以扩展,政治、经济和文化等权利也被许多国家的宪法和法律划入人权的范畴之内。20世纪70年代以后,人权的外延进一步突破了公民权和政治、经济、文化权利,发展权、环境权等“第三代”人权被国际社会所普遍接受。
人权由“人”和“权”两部分构成,即“人道”和“权利”的融合。本文依据前人关于人权的定义推导出,人权,首先是属于人的权利,本质上只能由人享有;其次,应当是一种道德权利,尽管世界各国基于其习俗有着不同的道德定义,但是基于人性本身的抽象,道德权利具有一致性;最后,人权的外延应当扩展至与人的存在与发展相关联的一切权利。基本人权应当是社会中的个体所享有的人的最起码的人格、人身、安全、生存和发展的基本权利和基本自由。因此,本文中所提到的个人隐私、个人数据保护、歧视、言论和信息自由以及人类尊严等问题皆应在基本人权的范畴之内。
(二)隐私权与个人数据保护
人工智能的发展以大数据的收集为基础,大数据收集过程中采取的技术手段必然会涉及到个人隐私以及个人数据保护问题,这一类问题所涉及的范围是人工智能发展触及传统人权领域时学者们研究较多的话题,相对于新近提出的“更广泛的人权问题”的研究较为成熟。美国法学家沃伦与布兰代斯于1890年发表的《论隐私权》中首次提到了“隐私”的概念,并将其界定为一种免受外界干扰的独处权力。隐私的本质特征在于个人可以独自控制和决定涉及其隐私的事项而不受外界干扰和侵犯。如今,人工智能侵犯隐私的情形主要有两种:一是侵权人非法控制人工智能系统,比如黑客、病毒等;二是智能系统本身可能存在瑕疵。[2]人工智能语境下的隐私权内容得以扩充,隐私权保护的范围扩大,隐私权的财产性增强导致了隐私保护手段的多样化。无论是美国还是欧洲大陆都更多地将隐私权上升到了基本人权的意义上加以保护,对隐私的保护日益呈现出国际统一化的趋势。
人工智能发展过程中使用数据收集技术时,倘若只规定数据处理者的义务而不对数据主体创设权利保护似乎并不合理。在美国法中,个人数据权叫做信息隐私权,是指个人具有其数据的控制与处理的权利。我国学者也有针对我国具体情况提出个人数据权的定义:个人数据处理自由支配权是规定或隐含在法律规范中,实现于法律关系中的自由支配和控制个人数据处理行为所获得利益的一种手段。[3]个人数据权不同于隐私权,它不强调独处与隐匿,而更多地强调自由支配的权利。然而在计算机批量处理数据的过程中,由于技术原因难以区分个人数据和非个人数据,因此在数据被收集、处理和应用的各个环节,个人数据都存在被侵犯的风险。针对个人数据法律保护存在的两种模式,即以美国为首的低政府干预模式和以欧盟为首的高政府干预模式。[4]我国的个人数据立法处于“真空地带”,尽管一国法律必须根植于社会特定基础的土壤之上,但是仍可借鉴美国或者欧盟法律保护的范式,以期制定出适合我国的个人数据保护法。
二、人工智能技术发展中更广泛的人权保护
(一)决策歧视
人工智能决策歧视是指基于机器学习和人工智能系统的一些被“训练”过的数据集被发现包含固有的偏见,导致决策可能不公平地歧视某些个人或群体,限制某些服务或内容的可用性,进而侵犯个人权利。最为典型的例子是亚马逊此前曾应用的使其招聘过程自动化的人工智能系统,该系统给求职者打分,一星到五星不等。问题在于该系统程序往往给男性求职者打五星,而给女性求职者只打一星。据路透社报道,该系统将含有“女性的”简历置于不利地位,除此之外该系统还压低了上过女子大学的申请人的分数。这说明亚马逊该自动招聘系统是经过“训练”的,即输入过去十年的亚马逊招聘信息,因为此前大多数申请者为男性,该程序即“认为”男性为更好的申请者,因此导致了对女性求职者的歧视和不公平待遇。据此推断,过去十年招聘信息的输入者本身亦或是亚马逊并没有歧视女性的初衷,而导致决策歧视的其实是数据本身固有的偏见。当把本应当由人类做出的决策让渡给人工智能系统时,系统如何最大程度上实现公平?在数据输入前,数据输入者是否能有意识的选择和判断原始数据是否包含固有偏见,是否能有意识的初步预测系统是否会产生歧视性决策是至关重要的。
人工智能系统决策的偏见和歧视体现在社会的很多其他方面,例如美国司法系统用于评估刑事被告再次犯罪的可能性的软件,更有可能将黑人被告视为潜在的累犯;人脸识别软件对非白种人的识别能力较差;谷歌一个图片应用程序甚至将非裔美国人标注为“大猩猩”;微软的人工智能聊天机器人Tay被网民“教坏”为一个集性别歧视和种族歧视为一身的“不良少女”。
(二)尊重言论和信息自由之反自动化决策权
言论自由是公民权利和政治权利的重要组成部分,马克思曾这样描述言论自由;“表达言论的自由在所有的自由里是最为基本的,因而它在世界上所有的自由里,也是最为神圣的。”[5]信息自由是指公民对与之相关的信息资料有决定其如何使用的权利。尊重个人的言论和信息自由在人工智能语境下外延应扩展至尊重个人的反自动化决策权。反自动化决策权是指应当保证个人不受制于仅基于自动化处理的决定的权利,同时在不适用的情况下保证个人具有挑战和反对这种决定的权利。反自动化决策权是新近提出的概念,但是在欧盟等国的法律实践中可以寻得其发展的路径及其内涵。
《欧洲基本权利宪章》第八条规定:每一个人都有权保护自己的个人数据。这些数据必须是为了特定目的,并征得数据相关个人的同意或在其他法律规定下进行公平的处理。每一个人都有权获取所收集的与之有关的数据,并且有权予以更正。依据欧盟成员国以及美国对于此种在人工智能技术发展中的个人数据自动处理和决策问题所产生的权利的研究和法律实践,笔者认为,“尊重个人言论和信息自由以及与之相关的反自动化决策权”应包括以下内涵:第一,知情同意权。该项权利所反映的人权属性应该居于核心地位,个人应当掌握和知晓自己的个人数据在何时何地被以何种方式进行处理。第二,封存权。当数据处理和自动化决策违反数据主体的意志时,数据主体有权请求自动化系统控制者暂时停止其个人数据的处理。第三,反对权。即数据主体有权对自动化决策的结果提出反对意见并要求对导致该结果的个人数据进行更正或删除。
(三)人的尊严
需要首先界定和明确的是“人的尊严”不完全等同于“人格尊严”。人的尊严是人的根本性和终极性的价值,需要通过具体的权利来实现,也是人格权的基础。人的尊严的概念来自于自然法,并得到现代法治国家的确认,是现代法秩序的哲学基础。[6]康德曾提出人格权的概念,并将人格视为人的尊严的权利。康德对此概念的理解包含两个方面:第一,人本身就是自己的主人,人不能成为手段和工具。第二,人的尊严基础是人的自主和自治,每个人都应当有自主决定行为方式、做出行动的权利。因此,人的尊严和自治、自决总是联系在一起的,可以说,自治和自决是实现人的尊严的必经之途。“人是独立的、自由的,所以不应该服从他人,而应该服从自己的理性。当人类服从他们的理性时,就超出自然,获得了尊严,因此自主是人性和一切有理性事物的尊严基础。”[7]人的尊严是人权领域最根本、最终极的保护对象。
人工智能技术发展中获取的数据尤其是涉及个人隐私的数据或信息称得上是人的尊严的屏障。个人数据尤其是涉及个人隐私的数据的公开和披露会直接导致人的不安全感产生,犹如赤裸暴露在光天化日之下,也会因他人的羞辱损及个人尊严。再言之,若是在人工智能自动化决策中,个人数据的主体无权支配和决定其个人数据和信息的处理,那么他就丧失了对于自身的最终决定权,失去对自己控制和决定的人也必然会丧失其作为独立个体的人的尊严。在人工智能领域中,个人数据和个人信息会被拼凑合成一个独立个体的“画像”,而这个“画像”可能是还原了个体真实信息的,但也不排除在信息的收集和处理过程中的偏差或有意操纵导致个体的电子人格与其现实形象相去甚远,导致其形象的扭曲,使其受到尊严的损害。根据美国微软公司的调查,75%的美国招聘人员和人力资源专家称,会对应聘者进行网络搜索,其中70%遭拒的应聘者都是因为网络上的不良信息。[8]
三、解决人工智能技术发展中更广泛的人权保护路径
考虑到上述人工智能技术发展过程中对于更广泛的人权保护所带来的挑战,本文提出以下共同治理原则促进国际人权机构以及各国在此领域的一致合作,以确保人工智能的发展和使用符合规范、伦理和人类价值观,尊重人类尊严。
第一, 公平原则。应将公平原则作为首要原则,设计、开发和使用符合基本人权的人工智能和机器学习技术。确保人工智能系统的使用与其原始预期目的相一致来保证个人的合理预期,并且保证个人数据的收集与使用方式与其初始目的相一致。在考虑到人工智能的使用对个人的影响的同时,还要将人工智能的使用对整个人类的影响纳入考虑范围。从整个人类的安全角度出发,应确保人工智能技术的发展能够促进人类的进步而不是阻碍甚至危害人类,这就需要国际人权机构以及各国协同反对通用人工智能的大规模使用,而是通过对功能和用途的精细划分发展单一技能人工智能。
第二, 公开原则。应当改进人工智能算法系统的透明度和可理解度以及可达性,以实现个体对于人工智能系统的理解和控制。提高人工智能系统的透明度、可理解度,应当注意每个相关受众个体的理解能力以及所需的信息不同,这就需要数据处理者提供与人工系统应用目的和效果有关的信息,以保证其与数据个体期望的连续一致性。再者,通过提高人工智能系统的可审计性,来保证所提供信息的有效性、真实性和有意义性,以确保个体在人工智能系统交互的过程中能够始终获得真实有效的信息,以实现人工智能系统的全面人为控制。
第三, 默认应用隐私的开发原则。在人工智能系统的开发与设计时,通过设计应用默认隐私来对其进行开发,以确保人工系统在进行数据收集和处理时,数据主体的隐私和个人数据能够得到充分的尊重和保护。这就需要在一项人工智能系统开发之始,对其应用隐私功能进行预期评估和检测,并对其整个生命周期的隐私保护状况进行预测,以确定其后续的投放和使用符合尊重人权的具体要求。
第四, 鼓励个人权利行使原则。应在国际范围内通过宣传和教育活动鼓励个体增强对人工智能时代其个人权利的理解和促进其权利的行使。用张文显教授的话来说,“权利是目的, 义务是手段, 法律设定义务的目的在于保障权利的实现。”因此,在人工智能语境下,尊重相关权利显得尤为重要,尤其是尊重个体的言论和信息自由,扩大反对权和告诉权及于个体的影响,保证个体不受来自人工智能系统自动决策决定的限制和拘束,加强个体参与意识以及相关权利的行使意识。
第五, 反歧视原则。国际领域应着重投资有利于识别和减轻因使用人工智能数据而可能导致的非法偏见和歧视,这就需要在技术应用过程中保证自动决策使用的个人信息和个人数据准确、最新并尽可能完整的前提下还要尊重个体的隐私权以及对于个人数据的保护。虽然相对矛盾和具备挑战性,就更加需要人工智能决策系统的开发者和使用者在检测过程中进行利益与道德的权衡,在遵守保护人权的国际法律文书的前提下应用该系统,避免本末倒置,触发更大范围的社会与伦理问题。
四、 结论
基于大数据和复杂系统的人工智能技术的高速发展带给人类社会的影响是全方位、多领域的,在为促进人类便捷和经济发展的进步而喜悦的同时不能忽视在更高层面的人权伦理方面带来的挑战。作为一种跨国界高速发展的工具,人工智能所带来的人权挑战研究也必须全球性推进,在国际人权层面补充人工智能技术发展的共同治理措施,促进国际层面的沟通与实时性互动,提升个体在与人工智能系统交互时的自觉意识。