论人工智能法的基本原则
2024-08-17马国洋
摘 要:人工智能法的基本原则是人工智能法的重要组成部分。既有关于人工智能法基本原则的方案有三原则说、四原则说、八原则说等,这些方案存在设计体系性不足、话语层次不统一等问题。人工智能法基本原则的设计应以发展负责任的人工智能为主线,这一判断既源于对立法目的的分析,也是有效加速和价值对齐理念的平衡。基于该主线,人工智能法的基本原则又可以进行多个层次的展开。其中,第一层次原则包括支持发展创新原则和计算正义原则,前者主要指向对于人工智能发展的支持以及对于知识产权的保护,而后者又可以分为可信、安全和效益三项原则。
关键词:人工智能 人工智能法 基本原则 治理
《全球人工智能治理倡议》指出:“当前,全球人工智能技术快速发展,对经济社会发展和人类文明进步产生深远影响,给世界带来巨大机遇。与此同时,人工智能技术也带来难以预知的各种风险和复杂挑战。”这揭示了人工智能对于人类社会的影响。由此,如何有效地利用人工智能,使其在推动社会进步的同时,最大限度地降低负面影响愈发成为各方的追求。这一方面需要提升对于技术的投入,不断研发人工智能技术。另一方面则需要加强对于人工智能的治理,通过有效的策略规制人工智能可能引发的各种风险。法律作为调整社会关系的行为规范,理应对人工智能的发展和治理作出一定回应。对此问题,一些国家和地区已经开始有所行动。例如,欧盟理事会已正式批准了欧盟《人工智能法案》。巴西参议院的一个委员会提交了一份报告,其中包含对人工智能监管的研究以及一份人工智能法草案。在我国,制定统一的人工智能法也开始被更多提出。不仅《国务院2023 年度立法工作计划》将人工智能法纳入了立法计划,同时,中国社会科学院也推出了《人工智能法示范法1.0(专家建议稿)》。
人工智能法的制定是一个系统性工作,从其他法律和《人工智能法示范法1.0(专家建议稿)》的内容看,我国人工智能法的结构很可能采取的是总分结397cdce02dca091827d6b203b1a132793857d652eb96a4beb81c048d75b43fdc构。而在总则之中,一个重要的组成部分就是基本原则部分。其贯穿于整个人工智能立法,是对各项人工智能法制度与人工智能法规范起统帅和指导作用的立法方针,是一切人工智能活动主体均应遵循的行为准则,是解释人工智能法律法规的依据,也是补充法律漏洞、发展学说判例的基础。尽管十分重要,但人工智能法作为一门全新的领域法学,其基本原则的完善度并不充足。无论是理论还是实践,对该问题的分析都只是简单地进行了探索,缺乏专门的系统性分析。有鉴于此,为给人工智能法的制定提供支持,本文将在反思当前人工智能法基本原则理论和实践的基础上,结合人工智能法领域的各种探索,构建人工智能法的基本原则体系,以更加科学地阐释人工智能法的基本原则。
一、人工智能法基本原则的代表性观点及其反思
当前人工智能法的相关理论和实践所提出的基本原则主要有四种方案。其中,方案一是三原则说,分别是可信、安全和公平。在该方案中,可信原则主要指向算法基于可理解性、可靠性和可控性而能够获得人们的信任,其所指可信包括了可解释性以及对于相关风险的治理。安全主要指向主体之间的互动安全、主体心理感知层面的信任安全和主体所处环境的稳定。公平则主要是对歧视、不公平竞争和算法滥用的反对。
方案二同样是三原则说,但内容有所不同,分别为以人为本、计算正义和有益。其中以人为本强调人对于机器的优位性以及对于人权的保障。计算正义主要指向加强对于人工智能的监管和更多将人工智能用于权利保障。有益原则要求人工智能的应用应有利于人类社会的发展。
方案三是四原则说,分别是公平,可靠、可控、可信,安全和发展并重以及合规性。其中,公平包含全社会主体地位平等、分配公平和正当的差别对待三个方面。可靠、可控、可信强调人工智能系统应安全稳定运行、保护人类自由意志和权利以及符合人类价值和道德理念。安全和发展并重强调人工智能法应在保障人工智能安全的同时促进技术创新。合规性则强调参与人工智能相关活动的主体要遵守规则并为自己的行为负责。
方案四是八原则说,分别是治理、以人为本、安全、公开透明可解释、可问责、公平平等、绿色和促进发展创新。其中,治理原则主要强调的是包容审慎的监管。以人为本原则要求人工智能具有可控性和有益性。安全原则关注的是人工智能及其相关网络数据的安全保障。公开透明可解释指向的是对于人工智能目的、原理和效果的说明。可问责要求从事人工智能活动的主体对其行为负责。公平平等要求人工智能及其相关活动不得对个人、组织实行不合理的差别待遇。绿色原则指向的是人工智能相关活动在保护环境和节约资源方面的要求。促进发展创新原则包括对于人工智能开发等活动的支持以及对知识产权的保护。
总的来说,由于人工智能法是一个新的领域,因此各方在基本原则这个问题上并未达成共识,也不存在争鸣。从既有方案看,不同方案所提出的人工智能法基本原则主要存在以下几方面问题。
首先,人工智能法基本原则的体系性不足。现有的四套方案都采取了罗列的方式,分别列举了人工智能法的基本原则。但这种方式忽视了人工智能法基本原则之间的关系。事实上,一部法律的基本原则之间也存在层次问题:“单纯抽象原则的表述还不足以给法官在未来的司法实践中提供足够的价值指引,原则需要具体化。原则具体化的第一步就是对各类原则进行层次划分。”对此比较有代表性的理论是民法基本原则的一元论,其主张民法一般原则只有私法自治原则,其他原则都是围绕该原则展开。而在既有人工智能法的讨论中,各个方案似乎并未对此予以重视。事实上,一些方案已经对此有了朴素的判断,例如方案一将可理解性、可靠性和可控性作为可信原则的下位要求,但是其并未对不同原则之间的体系进行深挖。除上述问题外,各个方案也并未点明人工智能法基本原则的核心主线。无论是三原则说、四原则说还是八原则说,各个原则之间的关系都没有被明确。事实上,法基本原则之间应满足融贯性的要求,即不同原则应围绕一定主线和脉络展开。而这一脉络应是人工智能法的核心价值。例如,环境法的逻辑主线在于将保护和发展相结合的可持续发展;证据法的逻辑主线以相关性为核心,所有原则都围绕着相关性展开。同样地,人工智能法的基本原则之间也不应该是简单的并列关系,而是应围绕着一定主线展开,这样才能提升不同基本原则之间的协作性以及整体基本原则的系统性。
其次,人工智能法基本原则的表述统一性不足。从当前的几种方案看,其提出的不少原则都具有一定相似性。这些原则有些表述可能差异不大,采取哪种表述都具有合理性,也不会引发太大歧义。但有些表述则需要甄选出最合适的说法。例如,以人为本原则、治理原则和计算正义原则都涉及对于人工智能的治理和权利的保护,但是不同的表述能否体现出人工智能法基本原则的特色则存在差异。而既有理论并未对这种表述差异予以分析。
最后,人工智能法基本原则话语层次存在差异。虽然对于人工智能法基本原则的讨论不多,但是不同方案之间的话语表述已经在一定程度上展现出了层次的差异,这并不利于就人工智能法基本原则达成共识。具体而言,这种差异更多是存在于对一些前提性问题层面的认知上。部分方案更加看重人工智能法在监管和治理层面的价值,因此其所设计的原则也多偏重于监管或治理。而部分方案则希望人工智能法起到促进人工智能发展的作用,因此也提出了促进发展创新等原则。而这种差异甚至造成了不同方案之间基本原则存在一定程度的冲突,例如八原则说的促进发展创新原则和四原则说的安全和发展并重原则就展现出了不太相同的观念。从其他部门法的经验看,不同的话语体系可能会为立法工作添加障碍。例如,当前证据法的概念使用就存在英美法系话语、大陆法系话语、前苏联话语、中国实践话语等体系,可采性、证据能力等概念关系错综复杂,这在一定程度上加深了证据立法的难度。考虑到人工智能法基本原则对于整个人工智能立法的重要意义,其话语体系的不统一将对人工智能立法造成更大伤害。
二、人工智能法基本原则的主线
基于前文分析不难发现,人工智能法基本原则不清晰的原因很大程度上在于前置问题讨论得不清晰。这种争议的本质实际上是发展与治理之间的矛盾。对于该矛盾的分析,既要诉诸于法律层面,也要诉诸于技术层面。基于此,为了更好地回应争议,理清人工智能法的基本原则,本文将首先明晰人工智能法基本原则的主线问题。
(一)法律层面分析:人工智能法的立法目的
立法目的是指立法者希望通过所立的法来获得的结果。对于一部法律而言,立法目的是统摄整个立法的指导思想和立法宗旨。基于“目的—原则—规则”的衍生逻辑,一部法律的立法目的应衍生出基本原则,而法律原则与法律规则的相对关系决定了法律原则应当具有对于法律规则而言的周延性,即“原则性规则”。由此,人工智能法基本原则的确定前提是立法目的的明确,换言之,人工智能法基本原则需要根据人工智能法的立法目的而展开。由前文分析不难发现,当前人工智能法立法目的的主要争议可以归结为“单一论”和“复合论”之争,即以治理为主还是治理与发展并重。对于该问题的回答,可以分为内外两个方面。其中前者主要关注人工智能相关的各种规则和制度,而后者则指向其他规则和政策。总的来看,采“复合论”更加具有合理性。
一方面,从内部因素看,我国既有人工智能的相关规则在总体态势上表现出了治理和发展并重的立场。无论是在人工智能发展还是治理方面,我国都颁布了一定数量的规则。就前者而言,《新一代人工智能发展规划》《国家新一代人工智能创新发展试验区建设工作指引(修订版)》等规则均是更偏向于促进人工智能的发展。而《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等规则更偏向于就人工智能进行治理和监管。除此之外,在一些重要的场景之中,不少规则在立法目的上都表现出了复合论的特征。其中较为典型的代表是《生成式人工智能服务管理暂行办法》,该规则第1 条明确指出:“为了促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。”其中既蕴含着推动生成式人工智能发展的目标,也体现着对于生成式人工智能进行限制的想法。
另一方面,从外部因素看,无论是《宪法》的规定还是国家对于人工智能的发展政策,也都体现了复合论的要求。一来,《宪法》中蕴含着发展和治理人工智能的双重要求。其中,推动人工智能技术发展的依据主要来源于第14 条:“国家通过提高劳动者的积极性和技术水平,推广先进的科学技术,完善经济管理体制和企业经营管理制度,实行各种形式的社会主义责任制,改进劳动组织,以不断提高劳动生产率和经济效益,发展社会生产力。”而治理人工智能,规制其可能引发的各种风险的依据主要来源于第33 条的“国家尊重和保障人权”。二来,当前国家整体人工智能的发展策略也在趋向于复合论。在人工智能发展的问题上,我国已经表现出“不发展就是最大的不安全”的态度。2016 年全国人大批准的《国民经济和社会发展第十三个五年规划纲要》提出,要“重点突破大数据和云计算关键技术、自主可控操作系统、高端工业和大型管理软件、新兴领域人工智能技术”。而2021 年的《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》同样指出“培育壮大人工智能、大数据、区块链、云计算、网络安全等新兴数字产业,提升通信设备、核心电子元器件、关键软件等产业水平”。这无疑体现了国家对于发展人工智能的决心。从实践看,国家对于人工智能发展的投入也在日益增加。据预测,到2030 年,我国人工智能核心产业规模或超过1 万亿元,带动相关产业规模超过10 万亿元。在发展的同时,我国也在积极投入到人工智能的治理工作之中。除了颁布各项治理规则外,也发表和参与了数项全球范围内的人工智能治理倡议。其中,2023 年发布的《全球人工智能治理倡议》指出:“各国应在人工智能治理中加强信息交流和技术合作,共同做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。”同时期签署的《布莱切利宣言》也作出了相似的判断:“人工智能还带来了重大风险,包括在日常生活领域。为此,我们欢迎相关的国际努力,在现有论坛和其他相关举措中审查和解决人工智能系统的潜在影响,并认识到需要解决对人权的保护、透明度和可解释性、公平性、问责制、监管、安全、适当的人为监督、道德、减轻偏见,隐私和数据保护等问题。”
(二)技术层面分析:有效加速与价值对齐的平衡
对于技术层面而言,同样存在着发展与治理的争议。其中,主张应大力发展人工智能而减少限制的一方被称为有效加速者,其观点可以称为加速主义的延续,主要认为人工智能发展是大势所趋,贸然通过各种方式进行阻拦并不明智。但这种较为极端的观点也受到了不小的反对,超级对齐、价值对齐、有效利他主义等观点的支持者主张对人工智能要保持谨慎,应将人工智能的价值与人类的价值进行对齐。所谓人工智能的价值对齐(AI Alignment),就是让人工智能系统的行为符合人类的目标、偏好或伦理原则。价值对齐是人工智能安全研究的一个核心议题。在理论上,如果一个强大的人工智能系统所追求的目标和人类的真实目的意图和价值不一致,就有可能给人类带来灾难性后果。因此,“如何防止这种灾难性的背离——如何确保这些模型捕捉到我们的规范和价值观,理解我们的意思或意图,最重要的是,以我们想要的方式行事——已成为计算机科学领域最核心、最紧迫的问题之一。”
从当前发展态势看,有效加速和价值对齐之间的较量仍在继续。2023 年末OpenAI 的CEO 更迭风波便揭示了不同立场之间的较量,尽管该风波很快被平息,但是不同观念之间的较量却仍在继续——虽然持有效加速主义观点的奥特曼再次回到CEO 的位置上,但OpenAI 也未放弃对于人工智能价值对齐工作的努力,其计划投入20% 的计算资源,花费4 年的时间全力打造一个超级对齐系统,意在解决超级智能的对齐问题。这种理念的争议也并非仅发生于OpenAI 内部。不少计算机专家认为,定义一套伦理教条并将其作为机器伦理的核心路线,对于灵活而有心智的人工智能而言,恐怕是毫无希望的。但人工智能伦理问题的研究者却从未放弃对于人工智能价值问题的探索,尽管目前看来,无论是自上而下还是自下而上的价值框架对于人工智能价值对齐的实践都存在困难,不过这仍然不妨碍不同研究的尝试。
基于上述分析不难发现,从技术视角看,人工智能的发展与治理之间仍然存在着争论。事实上,从技术哲学的发展历程看,这种有效加速与价值对齐的争论并非新鲜事,在新技术产生与发展的过程中,很多时候都会存在这样的争论。既有如培根等技术乐观主义者主张由科学家、技术专家来管理和运转国家,亦有埃吕尔等技术悲观主义者所主张的:“技术必须使人沦为技术动物……面对技术自主,不可能有人类的自主性。”而从最终态势上看,发展与治理正在逐渐走向平衡,最终逐渐实现约纳斯所言的“通过自愿的自我限制茁壮成长”。从这个意义看,有效加速与价值对齐之间亦有可能走向一种平衡或是中和。
(三)基本原则的主线:发展负责任的人工智能
法律和技术的双重视角在人工智能治理与发展的问题上实现了不谋而合,即二者之间应该保持平衡。单纯地强调发展可能会对人类社会造成难以评估的风险,甚至反而制约人工智能的发展。而单纯地强调治理则有可能限制人工智能的发展。考虑到当前人工智能技术已经成为推动人类进步、影响国际格局的重要力量,过于限制人工智能的发展也不利于推动社会发展以及抢占国际社会话语权。而各个国家和地区人工智能的规则设计也证明了这一点,当前比较有代表性的整合性规则,都在一定程度上关注了治理和发展两个层面。例如,欧盟《人工智能法案》第1 条指出要“改善内部市场的运作,促进以人为本、值得信赖的人工智能的应用,同时确保对健康、安全和《宪章》规定的基本权利,包括民主、法治和环境保护的高度保护,使其免受联盟内的人工智能系统的有害影响,并且支持创新。”美国《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》在强调人工智能要安全可靠的同时,也要求促进负责任的创新、竞争和合作,释放技术潜力。因此,人工智能法的基本原则不应仅仅局限于人工智能的治理或是人工智能的发展,而应该同时强调二者的重要性。在前述四个方案所提出的原则中,与本文所分析的主线较为相近的是四原则说中的安全和发展并重原则:一方面,人工智能法应当保障人工智能安全。另一方面,人工智能法亦能够促进人工智能技术的创新发展。如果把其中的安全理解为一种广义的安全,既包括宏观的国家安全、社会安全,也包括社会个体权利的安全,要求人工智能全生命周期都应该保持安全,避免各种风险,那么这与本文所指的治理含义较为近似,从这个意义上说,这一原则已经可以作为人工智能法基本原则的展开基点。不过考虑到在人工智能的相关问题上,安全很多时候并不被做最广义的理解,例如,美国《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》将安全和可靠作为并列的价值概念;欧盟《可信人工智能伦理指南》仅仅将安全作为数项要求之一,与隐私、公平等并列,发展与安全并重的说法可能会引发一定歧义。因此,本文认为可以将这一概念表述为发展负责任的人工智能。负责任的说法相较于安全要更加清晰,其在人工智能领域往往作为更高一层的整合性表述。例如,我国《新一代人工智能治理原则——发展负责任的人工智能》、美国《2024—2025 财年人工智能战略:通过负责任的人工智能赋能外交》、加拿大《人工智能负责任发展蒙特利尔宣言》等。而我国在发布《新一代人工智能治理原则——发展负责任的人工智能》之时,也确有将负责任作为人工智能治理的重要主线之意,强调无论是人工智能提供的产品还是服务,都应该是负责任的、全面的,应以增进人类共同福祉为目标,应该符合人类的价值观和伦理道德,避免误用,禁止滥用、恶用。
三、人工智能法基本原则的体系化展开
在明晰人工智能法基本原则的主线之后,需要进一步围绕该主线展开其他人工智能法的基本原则。如前文所述,人工智能法的基本原则存在一定层级,需要按照逻辑进行排布。总结当前各方案提出的基本原则以及对于相关原则的诠释和分析,并结合既有的人工智能相关规范,可以进一步在主线之下分为几个层级(参见图1)。
(一)第一层次原则:发展与治理的核心原则
发展负责任的人工智能作为人工智能法基本原则的主线,实际上存在两个面向,一是发展面向,二是治理面向。这两个面向也应分别存在一个整合性的原则加以统摄。
对于发展这一面向而言,当前各个方案所提出的原则中,实际上只有支持发展创新原则与此相关。而该原则较为直接地表述了对于人工智能发展和创新的支持,也比较符合发展面向的要求。从其他国家的规则看,发展面向上的基本原则也都以类似名称展开。例如,美国《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》使用的是“促进负责任的创新、竞争和合作”。在内容上,支持发展创新原则要求在支持经济、科技和社会发展的过程中,积极鼓励和促进人工智能的创新和发展。这意味着政府、企业和社会应该为创新提供良好的环境和条件,包括法律支撑、政策支持、资金投入、人才培养等方面。
相较于发展面向,治理面向的第一层次原则表述则相对较多,比较契合的包括治理原则、以人为本原则和计算正义原则。其中,治理原则直接明了地指出了对于人工智能的治理,但该原则的问题在于代表性不足。人工智能法的基本原则不仅要满足普遍性与规范性的形式要素,还要承载法规范体系的内在价值,起到重要的“安全阀”功能。由此,治理原则就显得过于宽泛。对于很多领域法或是回应型法,可能都要涉及到治理问题。例如环境法涉及环境治理问题,网络法涉及网络治理问题。那么以治理原则作为人工智能法的基本原则便存在标识性不足的问题。与治理原则相比,以人为本原则和计算正义原则的“安全阀”功能和标识性要更强,前者体现了人类在与机器比较中的优位性,而后者则强调了人工智能发展过程中的正义价值关怀。二者比较而言,计算正义更加能体现人工智能法关于人与机器关系问题的关注,而以人为本原则显得更宽泛,环境法等其他规则中也经常涉及这一概念。因此,本文主张将计算正义原则作为治理面向上的基本原则。计算正义是正义原则在人的社会合作和创造活动被计算化过程中所应遵循的价值准则。计算正义原则的出现在一定程度上源于技术对社会的影响。以选举为例,“普选”概念本身更多要求的是形式平等,在一定历史阶段内,完全的实质平等在任何国家和地区都是难以实现的。而人工智能的出现则可能会在一定程度上改变这一局面,这主要是由于人工智能个性化的信息收集成本低,因此,更容易收集到不同群体的信息并帮助其进行选举。但这并不意味着人工智能辅助的选举一定公平正义,因为人工智能也有可能出现错误甚至被操纵。这时便需要引入计算正义原则,保证人工智能参与社会活动应有利于实现社会正义。
(二)其他原则:围绕第一层次原则的发散
在确定了发展和治理两个层面的基本原则后,其他原则也应围绕这两个原则进一步展开。其中,围绕支持发展创新原则进一步展开的原则并不多,总的来说可以分为两个方面。一是对于人工智能发展的支持。国家等各个主体应对于人工智能发展的各项条件予以支持,为人工智能的发展提供有利的氛围。对于该问题,我国《新一代人工智能发展规划》指出要“根据基础研究、技术研发、产业发展和行业应用的不同特点,制定有针对性的系统发展策略。充分发挥社会主义制度集中力量办大事的优势,推进项目、基地、人才统筹布局,已部署的重大项目与新任务有机衔接,当前急需与长远发展梯次接续,创新能力建设、体制机制改革和政策环境营造协同发力”。而美国《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》也指出:“联邦政府将为人工智能及相关技术促进一个公平、开放和竞争的生态系统和市场,以便小型开发商和企业家能够继续推动创新。”二是知识产权保护。对于人工智能发展而言,最急迫、最为有效的便是知识产权保护,因为保护知识产权就意味着保护创新。也正是从这个角度出发,《人工智能法示范法1.0(专家建议稿)》在诠释支持发展创新原则时特别指出:“国家鼓励人工智能研发和应用,依法保护人工智能领域知识产权,创新探索适应人工智能发展的知识产权制度。”此外,《国务院办公厅关于进一步优化营商环境降低市场主体制度性交易成本的意见》《“十四五”国家知识产权保护和运用规划》《新一代人工智能发展规划》等文件也都强调了人工智能知识产权保护的重要性。
相较于支持发展创新原则,计算正义原则的内涵要更加丰富。总结当前各个方案,其提出的原则大体可以分为三个价值导向。一是与准确价值相关的原则,可靠、可信等相关原则更多是对于人工智能准确性的要求。当然,在人工智能伦理的相关问题上,一般使用可信的概念相对较多,因此本文延续这一表述。二是与安全价值相关的原则,主要是关于人工智能各种侵害人类风险的防范,与之相关的表述还包括公平、平等、可问责等。三是与效益有关的价值,其旨在强调人工智能发展的有益性,与之相关的原则包括绿色等。由此,可以把可信、安全和效益作为第二层次原则。
1. 可信
可信的人工智能的构建发端于人对技术伦理旨趣的审度,可信的存在逻辑在于人工智能创建了基于任务和目标信任得以产生的可能条件,并在与人类的交互之中呈现出某种关联性的信任。结合既有理论和实践看,可信的人工智能的要求除了既有方案中提出的稳健、透明度或可解释外,还应包括可追踪。
第一,可信的人工智能要求技术具有稳健性,能够正确地处理分析问题,并对可能出现的错误作出预警。尽管人工智能的准确性总体令人满意,但部分技术的稳健性仍然不足以令人放心,机器错误的案例也并不罕见。例如,2018 年3 月,Uber 的自动驾驶汽车在亚利桑那州坦佩市进行测试时发生了一起车祸,一位妇女被撞倒并最终丧生。造成这起事故发生的主要原因并非是该车辆的人工智能系统未发现行人,而是该车辆将行人识别成了汽车。而这起事故并不仅是简单的意外,据统计,在2016 年9 月至2018 年3 月之间,Uber 的自动驾驶汽车共发生了37 起碰撞事故,有两起事故是车辆撞到了路边的物体,其他的事故则都是追尾和车辆刮蹭。显然,这样的事故发生率难以赢得人类的信任。事实上,从人工智能的技术特性上看,其出现错误的情况在所难免。以源代码错误为例,人工智能错误一般始于源代码错误,而且很多时候并非有意为之。广义地说,“源代码”是在编程语言中具有特定含义的单词和数学符号的组合。源代码规定了计算机程序执行哪些任务,程序如何执行这些任务,以及程序执行任务的顺序。对于人工智能算法而言,其数百万行代码常常是由无数的源代码拼凑而成,它们会存在简单的转录错误、条件编程错误、软件损坏或对遗留代码的错误更新。当然,对于不同人工智能而言,其错误率势必存在差异,而只有那些稳健性较高的人工智能才可能受到人类的信任。
第二,除了稳健性外,可信的人工智能还应该具有透明度。透明度是指智能化产品所依赖的技术、数据应该可以随时被查询,其结论应该可以被解释。一般来说,人工智能的透明度分别指向透明性与可理解性两个维度。透明性是指人工智能本身是可以被人类理解的,而可理解性意味着人类对基于人工智能作出的决策能够达到一定的理解程度。例如,智能人脸识别系统对某张图片进行识别并作出结论后,透明度要求人类可以理解该人脸识别系统是基于何种原因得出的结论。然而,当前不少人工智能的透明度不足已经成为其有效应用的重要障碍,甚至这种透明度不足也成为了一些不正当行为的“工具”或是引发社会不公的源头。例如,目前人工智能介入刑事司法的过程主要依靠系统的算法作出决策,而算法运行的过程存在透明度不足的弊端,极易导致强势一方的“数字权威”,使得算法决策演变为数字时代的精英统治。再如,“淘宝”对于用户行为是否构成违约的判定是依据特定的用户数据与海量用户数据的关系,而如果用户要对“淘宝”判定的违约行为进行质疑,则必须承担充分举证和合理解释的义务,但是由于相关算法的透明度不足,指望用户对数据异常进行举证并作出解释在有些情况下并不实际,这可能会给用户带来不小的损失。产生上述透明度问题的原因在于人工智能往往能够开发出全新的观察方式,甚至是思维方式,而这些方式具有较高的复杂性。以人工智能审查签证为例,算法可能将签证申请人的收入状况、工作状况、婚姻家庭状况、犯罪记录等内容进行审查判断,最后给出是否通过签证的决策。而这一决策的科学性来源于人工智能技术基于大量案例的不断调整,例如一些时候增加收入状况的判断比重或减少工作状况的判断比重等——直到其可以处理一系列新情况,并预测签证通过的可能风险。然而,这种不断学习和改变的过程很可能无法被人类通过既有的知识所解释。造成这种理解困境的关键是,机器相关性的思维方式与人类因果性的思维方式存在一定程度的冲突,这种冲突引发了人类对机器思维的理解困境。当人类无法理解人工智能所提供的决策时,便无法预知人工智能是否会对人类造成损害。而为了避免上述危害事件的发生,人工智能的应用应具有透明度。
第三,可信的人工智能还意味着技术应该具有可追踪性。可追踪性是指从技术的开发、部署、使用再到结论生成的任何环节都应该清晰记录。人工智能的可追踪性具有三方面意义,首先,可追踪性可以帮助人类识别人工智能的错误原因,进而做出改进。人工智能具有高度复杂性和精密性,任何一个环节出现错误都可能引发最终的结果失真,例如,某个代码输入错误、某个数据标注存在问题等。此时就需要查询相关记录,以寻找错误的来源。否则,寻找错误来源将需要大量成本。其次,可追踪性也是检验人工智能错误的重要方式。在一些关键领域,人工智能的应用往往需要慎之又慎,例如司法裁判、医疗等。而为了保障人工智能在应用的过程中不出现错误,就需要对技术进行实时检验,这时相关的记录就可以发挥作用。例如,有关人员在审查时,可以查看某个人工智能系统的历史错误及错误原因,并以此为基础仔细检查曾经出现错误的地方是否已经被调整。最后,可追踪性也可以提升人工智能的可解释性。在解释人工智能运行的相关问题时,部分问题例如机器建立规则的方式,可能需要回溯到机器建立规则前去查看机器建立规则的全部流程。例如,一些算法工程师可能会设置不同的方法推动机器进行学习,此时,关于不同方案的记录就对于分析机器建立规则的方法具有重要意义。以上三项内容表明可追踪性对于人工智能的风险控制与监管均具有较为重要的意义,这也让其成为可信人工智能的重要要求。
2. 安全
安全的人工智能要求相关技术应确保可以受到人类的控制,并以保障公民权利和人类安全为前提。结合既有理论和实践看,安全的人工智能应可以抵御攻击、公平公正、合规和可问责。
首先,安全的人工智能应可以抵御攻击。人工智能同其他计算机技术一样,需要转化为数据和代码并在计算机中运行。因此,其同样可能遭到相似的攻击,例如篡改源代码、数据库,甚至直接攻击相关的硬件设施。这些攻击可能导致机器瘫痪,进而阻碍社会的有效运转。例如,对于计算机硬件的攻击将导致人工智能无法有效运行。而智慧城市的建设很多时候高度依赖人工智能:“在以人工智能技术为核心的智能化时代,为推动复杂环境下的人机协同,城市空间基础设施也必将融入更多的智能算法和知识库。”一旦相关的硬件瘫痪,整个城市的运行都可能受到影响。而交通、教育、医疗等行业也可能面临同样的问题。除了机器瘫痪外,对于相关源代码和数据的篡改可能导致机器作出错误决策,这甚至可能直接引发人工智能体“犯罪”。如前文所述,人工智能的决策质量与其所依赖的源代码和数据密切相关。一旦这些数据被恶意篡改,人工智能便可能因此产生错误或极端的行为。例如,攻击者通过篡改模型,让机器对人类产生敌意,从而对他人实施暴力行为;再如通过篡改自动驾驶汽车的数据,使其在行驶过程中故意驶向悬崖,造成严重后果。换言之,这种篡改可能直接对公民的人身财产权利造成不利影响。因此,人工智能的应用应保证其可以抵御攻击。
其次,安全的人工智能应尽可能避免侵犯公民权利即具有合规性。人工智能应用不得当很可能对公民权利产生负面影响。以隐私权为例,当前算法系统的关联技术甚至“知道你想做什么”,“数据主宰世界”的隐患正在侵蚀用户信息生态环境。在大数据技术海量数据的要求下,“全数据”的追求使得数据收集者在获取数据时为了保证准确性,大多会优先考虑如何尽可能地获取更多数据,而不去考虑该数据的获取是否合法或是否侵犯公民的隐私权。这势必带来一个十分严峻的问题——大数据信息是否“干净”。对此,在开发和运用人工智能时,应最大限度地避免使用侵犯权利的算法与数据:一是在开发和运用人工智能前,应严格评估技术所依赖的算法和数据是否存在侵权的情况。二是在开发和运用技术时,应对敏感内容进行适当处理。例如,“数据脱敏”技术便对隐私权的保护具有重要意义。该技术可以在保留原始数据的业务价值、技术价值的前提下,对敏感信息进行脱敏、隐蔽处理。常见的脱敏手段包括替换、截取、加密、掩码等。三是对于技术的开发和运用应尽可能保持克制,如果有可替代的信息和方法,则不应使用侵犯公民权利的信息和方法。此外,对于数据的获取和使用要遵循比例原则。比例原则是指手段不得与所追求的目的不成比例,或手段必须与所追求的目的保持适当、正当、合理或均衡的匹配关系。有关人员在获取和使用数据时,也应注意保持与目的相匹配。除隐私权之外,人工智能的开发和应用还有可能侵犯公民其他权利。深度伪造便是一个典型的案例。深度伪造是人工智能的经典应用场景,其表现出了极强的“亲民性”,公众不需要任何技术基础甚至不需要投入任何费用便可以轻而易举地实现图像、视频和音频的伪造。但该技术的滥用可能会侵犯到公民的名誉权、财产权和个人数据权等权利。视频的“深度伪造”技术可被用于恶搞、色情、诋毁或污名化,如基于“深度伪造”技术的应用程序Deep Nude,可以实现“一键式”智能脱衣,被广泛用于制作明星色情视频,从而侵犯到明星的名誉权和隐私权。同时,音频的“深度伪造”可被用于语音诈骗,从而侵犯到公民的财产权。基于上述分析,为了避免人工智能可能引发的各种法律风险,应不断强调人工智能在权利保障方面的要求。
复次,安全的人工智能应公平公正。现阶段,人工智能的公平公正主要指向两个方面。一是反对算法歧视。算法歧视是指依据算法所作自动决策实施的直接或间接歧视性行为。算法产生歧视的原因包括算法设计者的偏见、训练数据的偏见和后天学习产生的偏见等。相较于传统歧视,算法歧视依托于大数据、云计算等新兴技术,具有更强的隐蔽性和广泛性,其可能引发性别、民族、年龄、职业等各种歧视,进而对平等权造成更加严重的侵犯。当前,算法歧视的案例并不罕见。以我国为例,某公司在运用算法筛选简历时,因闫某某为“河南人”而拒绝其应聘。歧视是一个杂糅了文化、社会和道德观念、历史和时间的因素,对于何种行为构成歧视并不存在统一的标准。但如果算法仅仅根据地域拒绝应聘者,那么便构成歧视。为了避免这一问题,很多人工智能治理策略都制定了相关规则,例如《巴西人工智能法(草案)》规定受人工智能系统影响者,享有免受歧视和纠正歧视性偏见的权利:“有权反对歧视并纠正歧视性偏见,特别是在使用个人敏感数据导致:(a)对受保护的个人特征造成不成比例的影响,或(b)特定群体的人处于劣势/ 脆弱,即使使用了明显中立的标准。”美国《停止算法歧视法案》禁止算法决策的用户以歧视性方式利用算法资格确定。由此,安全的人工智能也应该采取各种方式避免算法歧视的发生,这包括优化数据来源、运用检测工具等。二是对于弱势群体的保护。人工智能的应用可能会引发熟练使用技术者与无法熟练使用技术者之间的差距,从而造成不平等。例如,人工智能辅助立法对于提升立法民主性具有重要意义。在传统立法模式下,能够参加相关立法论证会、座谈会和研讨会的专家学者以及利益相关者数量毕竟相对有限,多数普通民众参与地方立法的通道并不十分顺畅。同时,在地方立法草案意见征集过程中,由于不少地方仍然借助传统意见征集模式,多数普通民众难以拥有较为便利的渠道和方式来发声。而人工智能辅助立法则可以通过对网络信息的大数据分析,更好地展现民意。但是受人口老龄化和教育程度的影响,部分弱势群体的网络数据可能会相对缺乏,人工智能在辅助立法时,可能会因为缺失这些数据而导致在立法中无法反映该部分民众的合理诉求,从而引发隐性歧视问题。因此,在人工智能应用的过程中,也应该注意通过各种方式保护弱势群体的利益。
最后,安全的人工智能应在人类控制与监督之下,这要求人类在与人工智能交互时应保持能动性。人类可以控制人工智能意味着“人们可以有效规制人工智能或者自主决定人工智能是否继续执行。有效的监管是控制人工智能的一种形式,按照相应的治理框架和制度规则对算法进行约束和规训,能够确保人工智能与人类之间的主从关系并有效控制算法风险,使得人工智能不至于在与人的合作和对抗中失去控制。”人工智能三定律是对人工智能可控性的较好诠释——“第一定律:人工智能机器人不得伤害人,也不得见人受到伤害而袖手旁观;第二定律:人工智能机器人应服从人的一切命令,但不得违反第一定律;第三定律:人工智能机器人应保护自身的安全,但不得违反第一、第二定律。”这种可控性的实现应包括以下几方面的要求。第一,即使在借助人工智能辅助决策的场合,也应该保证人类具有最终决策权。目前人工智能的广泛应用使人类愈发依赖算法进行分析、预测、决策,甚至沉迷于算法推荐的信息之中,久之便将处于信息茧房中而不自知,最终被困于“算法牢狱”难以自拔。“信息茧房”效应一旦形成,便可能带来无形风险。在此效应中,自动化算法精准推送定制化信息,看似满足用户需求,实则导致用户陷入“井蛙”困境。用户被锁定在固定信息中,难以关注其他领域,导致思维固化、认知结构单一,模糊对现实社会的感知。此外,“信息茧房”还会引发回声室效应和同质化效应。封闭的信息空间导致同类型信息循环显现,影响用户对真实信息的获取和判断。以司法裁判为例,在司法裁判的过程中,快捷的人工智能一旦植入,很容易使法官产生潜在的依赖性。在判断的过程中,如果过于依赖算法推荐结果,法官自身的分析能力将可能受到影响,甚至出现“机器裁判”的问题。为了避免这一问题,应不断强调人在人机关系中的主导地位。第二,人工智能的应用应时刻处于人类的监管之下。由于人工智能具有自主建立规则的能力,甚至在强人工智能以及超人工智能阶段,机器可能具有一定自我意识,因此,人类应时刻坚持对于人工智能的监管,否则可能会导致机器脱离人的控制。正如有论者指出:“长期来看,若人工智能具有深度学习能力之后,也会进行归纳和推理,有可能产生思维,从而脱离人的控制而独立实施犯罪行为。”为避免上述问题,人类需要就人工智能建立较为严格的监督机制。最后,人工智能的各项活动应坚持问责制的原则,即从事人工智能研发、提供和使用活动的主体,应当分别对其研发、提供和使用活动负责。若人工智能可以在人类的监督和控制之下,那么在责任分配时,就应该要求从事人工智能活动的人对此加以负责,以提升对于人工智能的监管和相关权利的保障。
3. 效益
效益是指通过对资源的最优配置,除去各种成本耗费后,实现资源使用价值在质上的极优化程度和量上的极大化程度及其所得到的综合效果。对人工智能技术而言,效益是指技术的使用总体上应起到正面作用。正如我国《新一代人工智能伦理规范》指出的那样,人工智能的发展应增进人类福祉,促进社会发展。技术具有社会性,而技术的应用也应该在与人类社会基本的公序良俗相一致的基础上推动社会进步。人工智能同样如此,其应用和发展也应该遵循人类社会的要求,并推动人类社会的进步。绿色原则就是效益原则的组成部分。当今世界各国都在追求可持续发展:“在生态危机日益加剧的21 世纪,以生态系统为基础的环境资源综合管理、一体保护是相关法制建设的核心特征和发展方向,为各国环境法典所确认和保障。”那么人工智能的应用就不应该损害环境和浪费资源。再如,基因编辑技术在疾病的预防、诊断和治疗等方面具有一些价值,但同时也存在较高的技术风险。当前世界各国均对于该项工作进行了严格的限制。而人工智能同样可能在基因编辑的相关工作中加以应用,此时人工智能的使用就不得与人类社会伦理相背离。
除此之外,人工智能的应用也应带动良好的社会氛围,提升人类生活质量。例如,自动驾驶汽车可以提升人类出行的便利性与安全性,未来,甚至不会驾驶汽车的人,也有可能随意出行,该技术便有利于人类生活水平的提升。但也需要注意的是,随着人工智能应用深度的不断提升,显性和隐性的风险也在不断提升。一个典型的案例是,自动驾驶汽车可能引发交通事故,造成人员伤亡。对此,应该正确认识和使用人工智能,避免过度夸大此类技术的作用和价值,正确评估人工智能的效益,保证其确实可以增进人类福祉。而若其带来的风险已经大于收益,那么就与效益原则相悖,便不应该再使用此类人工智能。
四、结语
为了更好地推动人工智能发展,限制其可能引发的各种风险,我国已经将人工智能法的制定提上了议事日程。但系统性的人工智能法的制定并非易事,只有高质量的内容才能真正起到统一立法的价值。而深入分析人工智能法的基本原则将有助于为人工智能法的制定提供指引。遗憾的是,人工智能法的相关问题尚属于新鲜事物,加之于生成式人工智能的横空出世,学界对于人工智能法基本原则的讨论较为有限。有鉴于此,本文检讨了当前已经出现的有限的各种人工智能法基本原则的版本,并在提出人工智能基本原则主线的基础上,对不同的基本原则进行了层次性地划分,以为更加科学地制定人工智能法提供支持。当然也需要指出的是,本文所探讨的基本原则大多是在当前已经提出的各项原则的基础上进行分析,伴随着人工智能的不断发展,人工智能伦理和价值的研究也将日益丰富,人工智能法的基本原则也势必需要进行动态化调整。对此,仍需要理论和实践共同努力,不断在人工智能法基本原则的问题上进行深入探索。值得欣喜的是,当前各方已经开始将关注重点转移到人工智能法的相关问题之上,该主题下的相关研讨也在逐步增多,可以预见的是,对于人工智能法基本原则以及各类相关问题的研究将日益精进。