APP下载

人工智能时代的制度安排与法律规制

2017-11-21吴汉东

社会观察 2017年12期
关键词:伦理规范机器人

文/吴汉东

人工智能时代的制度安排与法律规制

文/吴汉东

人工智能是人类社会的伟大发明,同时也存在巨大的社会风险。这种社会风险或是“技术—经济”决策导致的风险,或是有法律保护的科技文明本身带来的风险。同时,智能革命对当下的法律规则和法律秩序带来一场前所未有的挑战,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等诸多方面与现有法律制度形成冲突,凸显法律制度产品供给的缺陷。对于由人工智能引发的现代性的负面影响,人们有必要采取风险措施,即预防性行为和因应性制度。面向未来时代的调整规范构成,应以人工智能的发展与规制为主题,形成制度性、法治化的社会治理体系。借鉴国外经验,立足本土需要,当前应尽快出台“国家发展战略”,及时制定“机器人伦理章程”,适时进行机器人专门立法。

智能革命图景:“最后的发明”抑或最大的风险

智能时代是以人工智能(Artificial Intelligence,简称AI)来命名的。作为研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,人工智能将改变甚至颠覆人类现存生产工作和交往方式,由此迎来一个以新的技术结构支撑新的社会结构的人类新时代。一方面,智能革命无疑将给我们带来一个更美好的社会,它是智能的、精细化和人性化的“最好时代”。但另一方面,智能革命也将给我们带来诸多麻烦,也许带来一个社会问题丛生和安全隐患不断的“最坏时代”。人们在为人工智能的强大能力感到惊叹的同时,也表达了对人工智能安全问题的普遍忧虑。人工智能是否成为人类“最后的发明”?我们应该如何看待人工智能的潜在风险?具体说来,人工智能时代的社会风险具有以下特点:

一是风险的共生性。风险社会的内在风险基于技术性风险和制度化风险而形成,且存在共生状态。人工智能时代是一个高度技术化的社会,科学技术的高度发展既是风险社会的特征,也是风险社会的成因。制度风险可能来自我们的工业制度、科技政策乃至法律规则,或是表现为对新技术无措的“制度缺失”,或是表现为对新技术错判的“制度失败”。这些即是规则运转失灵的风险,其结果是形成制度化风险。

二是风险的时代性。智能革命是时代的产物,其特点是人类智力与人工智力的结合,智能技术导致智力物质化、社会智能化,最终出现智能社会。人们需要应对智能时代中现实世界与理念世界的分离,防范病毒、黑客对人工智能产品的侵蚀。这种高科技所引发的高风险会持续贯穿整个智能革命的时代过程,它是现实的风险,也是未来潜在的风险。

三是风险的全球性。经济全球化、科技全球化、信息全球化乃至治理机制的全球化,不可避免地带来风险的全球性。可以认为,风险社会是一种“全球风险社会”,风险的空间影响超越了地理边界和社会文化边界。

面对智能革命,我们不能逃避它、否定它和阻止它。上述判断依赖于两点事实:第一,人工智能技术在造福人类的同时也加大了人类危害自身的可能性,这即是技术的负面性与风险的不确定性的联系;第二,传统社会治理体系无力解决工业社会过度发展而产生的社会问题,这即是法律的确定性与风险的不确定性的背离。我们应“通过法律化解风险”,“通过法律吸纳风险”,“将风险社会置于法治社会的背景之中”,即对智能革命时代的法律制度乃至整个社会规范进行新的建构。

人工智能技术在挑战我们的法律

智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。就调整人工智能相关社会关系的法律制度而言,人们的担忧多于期待、疑虑甚于创制。现择其主要问题分析如下:

1.机器人法律资格的民事主体问题

机器人是机器还是人,在法理上涉及主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本制度。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。在自然人人格场合,“法律人”的成立是以伦理价值为依据,将伦理价值从人的范畴中抽去之后,即通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接的。而在法人人格场合,由于权利能力扮演“团体人格”的角色,从而形成“团体—权利能力—法律人”的逻辑关系,从而使得法人与同为“法律人”的自然人一样在某些方面享有人格利益成为可能。基于上述分析,可以认为:机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有商榷之处。换言之,受自然人、自然人集合体——民事主体——控制的机器人,尚不足以取得独立的主体地位。

2.人工智能生成作品的著作权问题

人工智能的实质,是“让机器从事需要人参与的智能工作”。基于此,文学、艺术和科学作品的创作也在机器人的智能范围之内。关于人工智能的生成作品,著作权法有两个问题需要解决:机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?尽管机器人稿件的表达技巧有限,但仍可以视为著作权法意义上的作品。人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品。机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。

3.智能系统致人损害的侵权法问题

智能机器人的广泛使用,在带来高效和便捷的同时也不可避免对人类带来伤害。机器人致人损害有两种情形:一是侵权人对智能系统进行非法控制而造成的损害;二是智能系统自身的产品瑕疵而造成的损害。这究竟是机器人创制者的技术漏洞,抑或智能机器管理人的不当使用,甚至可能是人工智能系统超越原控制方案的“自身行为”?在这种情况下,就必须对机器人的过错行为原因进行分析,以查找侵权主体构成并分担赔偿责任。关于智能系统致人损害责任的认定,有两种责任方式可供选择。一是基于行为人过失所产生的产品责任。二是基于技术中立原则所产生的替代责任。在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。

4.人类隐私保护的人格权问题

网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在今天和未来,当移动互联网、大数据和机器智能三者叠加后,我们生活在一个“无隐私的社会”。面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用。一是增强自我保护意识。在人工智能时代,挖掘个人隐私是由机器完成的,因此保护隐私,须从自己做起,对智能电器有防范之心。二是强化企业保护用户隐私的责任。企业须负有保护用户隐私的意愿和责任,“这将是用户隐私是否得到有效保护的关键”。三是加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,明确隐私权的权利属性、权能内容、保护方式等;同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。

5.智能驾驶系统的交通法问题

人工智能在交通领域的重要应用是网联自动驾驶。无人驾驶汽车可能带来的法律问题,主要有三种。一是法律规制对象的转变。随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者。二是法律责任体系的重构。对于道路交通事故的认定,其归责事由只有结果的“对与错”,而无主观上的“故意”或“过失”。三是交通监管重心的变化。在智能驾驶中,避险保障和精确驾驶的软硬件体系,是道路交通检测、准入的重点。

6.机器“工人群体”的劳动法问题

智能机器人的大规模应用,使以保护劳动者利益为宗旨的劳动法,面临着前所未有的两个难题。一是传统劳动法的调整功能消减会对现有劳动者的权利带来冲击。大批劳动者离开传统岗位,其权益救济更多是寻求社会保障法,那么“劳动法是否面临消亡的命运?”二是未来劳动法将面临新的调整对象。机器人抢掉人类的饭碗,人工智能“工人群体”正在形成。对机器人权利保护或者说禁止对机器人滥用,在当下尚是一个社会伦理问题,而在未来就成为劳动立法问题。应该认识到:智能机器人本质是机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。可以预见,上述伦理规范将成为未来立法的组成部分。

面向未来时代的制度构成:法律、政策与伦理

面向未来时代的制度构成,应以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想:

1.以安全为核心的多元价值目标

安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护。安全价值是许多法律部门共同追求的目标,且通过不同的制度或调整方法来实现。人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。

创新是人工智能法律的价值灵魂。创新价值体现在人工智能发展政策制定与立法活动之中,其主要制度设计是:(1)谋化国家发展战略,在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署;(2)制定产业促进与监管的政策法律,在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境;(3)完善知识产权创新激励机制,通过权利保护、权利交易和权利限制等制度,促进技术创新和新兴产业发展。总的说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为“规划理性”的法价值,体现了人在价值发现中的能动性干预和控制。

和谐是人工智能时代的终极价值追求。和谐价值实现的理想状态,即是人工智能社会的良性健康和有序。在智能机器人的发展过程中,和谐价值具有引导性功能。为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值为指引和评价准则。

2.以伦理为先导的社会规范调控体系

对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。这是因为法律规范基于现实生活而生成,且立法过程繁琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反应。在发达国家,对人工智能的伦理研究早于立法研究。概言之,伦理规范的调整功能非常独到且极为重要,例如:对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。

3.以技术和法律为主导的风险控制机制

人工智能时代的风险防范和治理,可采取技术控制与法律控制的综合治理机制。法律控制是风险治理机制的重要手段。立法者必须重视控制风险功能的法治化。此外,还应辅之以相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。技术控制是风险治理机制的重要措施。技术规制表现为法律规范、政策规定和伦理规则等。风险社会理论指引下的技术规则有以下特点:风险规避的主要路径,是事先预防而不是事后补救(即从技术研究开始规制,以预防技术产生的负面效应或副作用);风险规避的基础范式,是从技术研发到应用过程的责任制度(包括社会道义责任、科学伦理责任和法责任);风险规避的重要措施,是奉行技术民主原则(包括技术信息适度公开和公众参与、公众决策)。

防范人工智能的技术性风险,不仅涉及强化法律规制的传统制度改造,而且要求建立以社会监管为重要内容的政策体系,同时形成以全面理性(包括社会理性和科学理性)为基本内涵的风险控制机制。

在制度构建方面,目前有三项重点任务。一是尽快出台国家发展战略,以此作为人工智能政策体系的支撑。国家发展战略应是关于人工智能问题的整体性谋略和全局性安排,它是一个涉及战略目标、战略任务、战略措施的政策制度体系。中国必须高度关注智能革命发展前景及其引发的相关社会变革,尽快作出相应的战略政策部署。二是及时制定《机器人伦理章程》,以此作为人工智能研发、应用的道德基础。我国似可组织政治家、科学家、企业家、法学家参加的专家小组,编写机器人伦理章程,构建人工智能伦理规范。三是适时进行机器人专门立法,以此作为人工智能法律的基本规范。我国在人工智能领域发展相对滞后,但相关立法活动应未雨绸缪,组建专家团队对机器人专门法律开展研究,其重点包括:人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等。

未来时代已经到来,这是一个创新的时代。创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,已成为一个具有普遍意义的关系范畴。人们在生产力、生产关系和上层建筑所有领域中进行的创造性活动,即技术进步和制度变革都是一种创新过程。智能革命引发的法律、政策和伦理话题刚刚开始,伴随人类社会的知识创新,我们需要跟进理论创新和制度创新。法学家和法律改革家们需要秉持理性主义精神,去发现和探索一个理想的法律制度体系。我们有理由相信,科学技术的智慧之光与法律制度的理性之光,将在人工智能时代交相辉映。

【作者系中南财经政法大学知识产权研究中心主任;摘自《法律科学》(西北政法大学学报)2017年第5期】

猜你喜欢

伦理规范机器人
《心之死》的趣味与伦理焦虑
文稿规范
规范体检,老而弥坚
从创新探索到立法规范
《白噪音》中后现代声景的死亡伦理思考
规范组织建设强化为民服务
伦理批评与文学伦理学
华语科幻电影中的“伦理性”想象
机器人来帮你
认识机器人