浅谈人工智能法律人格的赋予*
2023-03-21王超逸朱伟嘉汤瑾熠
王超逸 朱伟嘉 汤瑾熠
(湖南警察学院,湖南长沙 410138)
1 人工智能现状分析
2022 年4 月13 日,中国信息通信研究院正式发布《人工智能白皮书(2022 年)》,白皮书立足国际化大环境,准确剖析了我国人工智能当前的产业现状,前瞻性地预测了我国人工智能的未来发展趋势。自1954 年图灵测试开始,人工智能技术出现了一次又一次的革新浪潮。相比60 多年前,AI 经历了多个阶段的发展,其应用范围也越来越广。从医疗领域辅助医生诊断和治疗疾病,到金融领域帮助交易者进行风险评估和投资决策,再到5G 通信技术的普及和智慧家居的流行,人工智能在开发和应用中取得了巨大突破,为人类生产生活水平的提高注入了强劲动力。但它在便利人类生活的同时,相关的社会法律问题也日益凸显。
2018 年,一辆 Uber 自动驾驶汽车在进行道路测试时,将一名推自行车穿过马路的女子撞死。该案例成为全球首例自动驾驶汽车撞死行人的事故[1]。2019 年12 月24日,原告深圳市腾讯计算机系统有限公司诉被告上海盈某科技有限公司侵害著作权及不正当竞争纠纷,法院认定人工智能生成物构成著作权法上的作品。2020 年5 月,北京知识产权法院受理的北京菲林律师事务所与北京百度网讯科技有限公司著作权权属、侵权纠纷二审一案中,法院以生成涉案文章的主体为AI 软件而非自然人为由,判定涉案文章不构成作品[2]。前后案件判决的冲突引起了群众广泛的讨论,如何定义人工智能的法律主体性质成了一个崭新的议题。
以上种种现象,因为在具体实践中缺乏法律评价的明确指引,已经严重威胁了传统的法律制度,特别是法律主体制度。因此,必须重新审视当前人工智能的法律地位,从立法到社会层面对其进行合理规制,探索赋予人工智能法律人格的可行性。
2 人工智能法律人格的学理研究
比照国内外现有研究发现,目前学界对于人工智能法律人格的理论研究主要分为“主体说”和“客体说”,经总结归纳,可作如下评析。
2.1 人工智能法律主体说
2.1.1 代理人说
电子代理人是指不需要人的审查或操作,通过自然语言处理、图像识别、机器学习等技术与人类进行互动,并根据人类的需求和指令执行任务。2017 年2 月16 日,欧盟议会以多数赞成票通过了《欧盟机器人民事责任法律规则》,决议对于民事责任首次提出了“非人代理人”概念。该概念认为人工智能是一种带有目的性的程序智能体,这样的认定在某些方面可以被视为承认人工智能一定程度上具备法律人格。另外,根据传统民法理论,将人工智能适度地扩大解释为人类的代理人,代表人类实施民事法律行为,实际上承认了人工智能具有成为民事主体的可能性。
2.1.2 电子人格说
2022 年,欧洲议会决议通过的《欧洲机器人技术民事法律规则》,该规则为高度智能自动化的机器人创设了以“电子人”为内容的法律地位。电子人格在许多领域都有广泛的应用,例如智能客服、智能语音助手、虚拟形象等。这些电子人格通常通过自然语言处理、语音识别等技术与人进行互动,以达到实现人机对话、智能问答、情感交流等目的。此前,由中国香港的汉森机器人技术公司开发的类人机器人索菲亚,于沙特阿拉伯被授予公民身份。随着人工智能技术的不断发展,电子人格的表现和功能也越来越多样化和智能化,可以为人们带来更加便利和舒适的人机互动体验。
2.1.3 有限人格说
有限人格说认为,人工智能实质上可以被视为一种“虚拟法人”,可以享有一些基本的法律权利和义务,例如签订合同、拥有财产、参与民事诉讼等。但同时,它们的行为也应受到某些限制,例如不得侵犯人类的基本权利和利益、不得违反法律规定等。有限人格说尝试调整法律框架下人类和人工智能的矛盾关系,仅赋予其有限的法律人格,而非创造出一个具有现实等价性的法律主体地位。该学说符合现阶段以人为中心的发展思想,通过赋予机器人一定的法律主体资格,对人工智能的权力进行合理限制,有利于降低人工智能可能带来的危险,更好地使科技进步服务于人民。
2.2 人工智能法律客体说
2.2.1 控制说
控制说认为,虽然人工智能在技术上可以执行某些任务,但其行为和决策仍受到人类制定的规则和指令的限制。具体来说,人工智能实体应该由人类进行监管和控制,以确保其行为符合道德和法律规范。人类应该完善人工智能相应的规章制度,以指导人工智能的行为和决策,并在必要时对其进行调整。同时,当人工智能实体的行为导致损害时,人类应对其行为负责,并对其行为承担相应的法律责任。虽然现阶段的机器人缺乏人之心性,但就此否定人工智能法律人格的主体地位过于片面,深度学习、树搜索等技术的迅猛发展,使强人工智能时代的到来势不可挡。
2.2.2 工具说
工具说认为,人工智能可以利用其高效、准确的计算和分析能力,协助人类完成诸如判例分析、文书撰写等法律工作。具体来说,人工智能可以通过学习和分析大量的法律案例和法规,提供针对特定问题的分析和建议。例如,当律师需要对诉讼案件进行分析时,人工智能可以通过对既有案例的学习和分析,提供科学、全面的法律分析意见。这一理论在法学实务领域得到了广泛的应用,人工智能可以为律师、法官、公证员等法律从业人员提供有效的辅助工具,提高法律决策的效率和准确性。但是,人工智能法律工具说也存在一些问题和挑战,例如如何保证人工智能的客观性和中立性、如何避免人工智能在处理敏感信息时引发的隐私和安全问题。
2.2.3 法律地位说
法律地位说,指在人工智能的发展和应用过程中,权利和责任应该同等重要,二者相互关联。具体来说,人工智能作为一种智能实体,应该被赋予某些权利,例如保护其知识产权、隐私权等。同时,在人工智能系统的应用过程中,其应用者应对其造成的后果负责,并承担相应的法律责任。人工智能在拥有部分权利的前提下,也应承担相应的责任。法律地位说表明,现阶段需要加强人工智能的法律规范,建立完善的法律法规体系,强化对人工智能系统的监管和管理,明确人工智能的权利和责任,确保其发展和应用符合道德和法律规范,从而最大限度地保障公众的利益和安全。
3 赋予人工智能法律人格的必要性
3.1 赋予人工智能法律人格是实现法律价值的要求
确立人工智能法律人格是实现保障法的基本价值和社会规范作用的前提。首先,从目的论的角度分析,秩序无疑是法所追求的价值。秩序在某种程度上反映了特定社会时期的价值观念,是不同社会模式的共同的规范要求。在人工智能时代,立法者通过赋予人工智能法律地位从而促进建立新的社会规范体系,将有助于丰富秩序价值的时代内涵。其次,赋予人工智能法律人格地位体现了正义价值的时代追求。一方面,法律人格的确定会推动完善分配正义。正义价值所体现的分配正义是权力的实质公平,而确立人工智能法律主体地位可以促进人工智能权利义务关系的平等、保障权力救济的有效性。另一方面,有利于实现正义价值对于社会公共利益合理配置的保障作用,明确人工智能侵权责任主体,实现侵权法律责任的合理划分。另外,到2035 年,人工智能预计将推动我国劳动生产率提高20%以上,确定人工智能法律主体地位,有助于在具体生产生活中优化资源配置,促进社会财富增加,更好地实现法的效率价值。
3.2 确定人工智能法律人格是有效防范人工智能法律风险的必要手段
根据贝克“风险社会”理论,新的生活条件会反过来超过社会安全概念的底线,社会更加容易陷入失序的危险[3]。人工智能的出现将会彻底促进人类生产生活方式的变革,将人类从单一、重复、危险的劳动活动中解放出来,引发部分行业的失业危机,刺激其他新型职业的萌芽,最终人类实现自由的程度得以上升。巨大的社会变革意味着法律上不稳定因素的增加。然而,在应用过程中,必然会引发对传统道德和价值观的冲击。例如,“虚拟女友”人工智能的出现,不但冲击了现有的人际交往社会规范,而且影响了人类对于传统道德伦理规范的认识,进而引发新的社会法律风险。因此,人工智能行为边界与道德边界的模糊导致的法律风险问题具有现实紧迫性,需要赋予人工智能法律人格,将人工智能纳入统一的法律和伦理规范体系中进行规制,并制定符合社会发展需要的人工智能法规来解决其带来的一系列法律风险和社会伦理问题。
3.3 人工智能生成物著作权法保护路径亟须明确
根据人工智能创作行为中人类的参与程度,即人工智能对人类的依赖程度,可以将人工智能生成物大致类型划分为人机合作创作类生成物和人工智能独立创作类生成物。从解释论的角度分析,人机合作创作类的生成物属于知识产权法保护的客体范围且具有可版权性。因此,人机合作类的生成物可以受到现行著作权法的保护,而人工智能独立创作类的生成物不满足构成作品的要件。所以,在现行著作权法的框架下如何评价人工智能独立创作的生成物具有较强现实意义和需求,而确定人工智能法律主体地位无疑是解决该问题的有效途径之一。从立法论的角度分析,可以基于激励创新、产业可持续发展的目的考虑人工智能独立创作的作品受到著作权法保护的必要性,同时应确保相关人员有获得技术与投资正反馈的机会。因此,为了顺应当下人工智能产业的发展趋势,可以通过确定人工智能的法律人格打破立法技术的壁垒,从而有效解决人工智能生成物的著作权法保护问题。
4 人工智能法律主体资格的规范路径
4.1 开展人工智能立法研究
学者卡多佐曾指出,“某些法律概念的研究之所以有它现在的形式,这几乎完全归功于历史,除了将它视为历史的产物外,我们便无法理解它们[4]。”社会历史的发展推动法律规范的进步,而当新的法律主体出现时,同样需要思考现有的法律规范的局限性。现有法律应对新的问题无外乎两种解决办法,一是通过立法的方式解决新的问题;二是扩大解释既有制度,从而适应新的规范对象。而纵观世界范围内各国对人工智能主体立法的研究,之所以呈现放缓的态势,是因为距离下一次人工智能技术的跨越突破还有较远的距离,因此依托现有法律制度通过法律解释为人工智能的发展开辟合法化空间或许为更可行的方案。从节约立法成本和保障法律体系规范统一的角度出发,立法者可以通过立法或司法解释将人工智能纳入类似于法人制度的范畴,根据人工智能智能化程度的差异细化不同的责任标准,从而适应人工智能和社会经济发展的需要。面对人工智能生成物著作权归属这一法律问题的挑战,可借助有限人格说的权利理论,与人工智能的使用者、参与者和设计者一起共享经济利益的分配。
4.2 赋予权利与创设义务并进
4.2.1 人工智能财产权的赋予
从法律主体资格的角度考虑,人工智能享有主体资格的实质条件,除了拥有独立的意志外,还需要相应的民事责任能力,独立的财产是其承担法律责任的基础。人工智能能否承担责任,关键在于确认人工智能是否能拥有独立的财产可供执行。因此,人工智能的财产如何取得、由谁赋予和支配是首要问题。第一,可以建立人工智能责任赔偿制度,采取注入责任资本或购买责任保险相结合的方式,以形成独立的资金池,便于支付赔偿金。人工智能可以按照所实施行为风险类型的不同,划分不同的赔偿标准。第二,可以考虑建立人工智能雇员薪资制度或者税收制度,由相关主体对参与劳动的人工智能支付报酬或缴纳税金,并将此报酬或税金统一转付到相应的人工智能薪资税收资金池[5]。以自动驾驶汽车为例,在法律关系上人工智能的自动驾驶汽车与运输经营者由人与物的支配关系转化为承揽关系或者雇佣关系,人工智能可通过赚取承揽收益拥有自身财产。
4.2.2 人工智能权利的范围和保留
强人工智能具备成为法律主体的可能,但就人工智能发展的初衷而言,为人类服务是其根本目的,为了避免发生道德和伦理灾难,其权利行使的范围也应限制在一定的限度内。强人工智能的权利很难通过列举式的方式规定,所以采取法律保留不失为一种巧妙的制度设计。一是政治权利的保留,对政治权力的适用范围进行限定,以避免人工智能可能带来的政治危机。二是紧急避险权的法律保留,在人身权益受到侵犯的危急时刻,优先保障人类的健康安全。三是自我复制的法律保留,人工智能机器人应按照设计的目的和工作程序进行活动,以防止产生人类不可控的危险。在对人工智能权利进行研究的过程中,既要考虑经济社会发展的需要,认可人工智能的法律权利,同时也要立足于人类长远发展的高度,认识到权利扩张的可能,预防可能发生的风险。赋予权利与限制权利本身并不冲突,这不仅有利于构建完善的人工智能的制度设计,也有利于为其长远的发展奠定稳固基石。
4.3 建立人工智能伦理规范体系
在人工智能的发展过程中,面对算法决策的歧视、数据的隐私保护、算法不良竞争与滥用等短期问题,还有引发失业潮、著作权认定困难,甚至导致社会结构不稳定等长远问题,应予以足够的重视。《新一代人工智能伦理规范》提出了包含增进人类福祉、保护隐私安全、提升伦理素养等6 项基本伦理要求,其中特别将伦理规范提升到了新的战略高度。因此,在人工智能发展的全过程中应贯彻伦理道德规范,强调技术发展与社会进步的深度融合,强调责任意识和规范意识。
4.3.1 强化人工智能研发规范
从伦理规范的角度,首先应强调人工智能技术开发生产人员的道德伦理素养,考察研发的合法性与目的正当性。爱因斯坦认为,“在我们这个时代,科学家和工程师担负着特别沉重的道义责任,因为发展大规模破坏性的战争手段有赖于他们的工作和活动[6]。”因此,应对人工智能研发相关活动的主体加强约束,提高人工智能开源性研究的伦理要求,主动将人工智能伦理道德融入技术研发各环节,开展审查管理,严格警惕可能存在的违背伦理道德的人工智能研发。立法者应突出责任原则的重要地位,处理好技术创造者与技术本身之间的责任关系。一是在算法的开发、实现、应用的全过程,提升人工智能的透明性、可解释性、可预测性、可验证性[7]。二是建立全面的责任制度,实现权责明晰。例如在人工智能的应用过程中保留相关的数据算法、运算模型的准确数据信息,以便在归责过程中能够查明相关的证据,帮助进行事实认定。
4.3.2 注重人工智能供应规范
在数据和算法为核心的智能时代,人们对隐私、私欲数据的保护尤为重视,前有“大数据杀熟”,后有智能决策的算法歧视,个体信息从私密走向公开,信息共享、智能互联和隐私保护之间可能出现失衡。人工智能的供应,不仅要兼顾智慧生活产品的互联互通,更要保障用户的使用权益。“阿西洛马人工智能原则”也将保护隐私作为其倡导的原则之一,应坚持个性化产品与尊重用户的个人隐私相结合,允许人工智能产品的使用者访问他们自己的个人数据,明确算法可能使用到的各种信息,做好公共信息和隐私信息使用的范围界定,以便用户对个人数据的使用有着良好的预知。
5 结语
人工智能法律地位界定不清一直是各界共同关注的问题。针对人工智能法律人格赋予的矛盾纠纷,归纳评价了当前国内外主流的学术观点。在学理性研究的基础上,做出必要性和可行性分析,从价值实现的需要、风险管控机制的健全到著作权归属的认定等方面,多维度论述了确立人工智能法律主体地位的意义。从立法层面着手,进行人格赋予的构想,注重防范应用过程中的风险,致力于通过运行维护等一系列措施规范人工智能的技术应用。未来,应积极顺应人工智能时代的新发展,用行之有效的方法应对人工智能因法律地位不明而引发的各种冲突,促进人工智能与人类共同进步,做到以“智”促发展,惠及全人类。