面对人工智能,法律应该做什么
2019-09-10赵万一
赵万一
智能型机器人的出现和广泛应用无疑是21世纪的一个重大事件,不但会引起新的工业革命和社会变革,而且会颠覆许多传统的社会结构和人类观念。早在1942年,著名科幻小说家艾萨克·阿西莫夫在其科幻小说《环舞》中就提出了著名的机器人三原则:第一,不得伤害人类;第二,服从人类命令;第三,尽可能地保护自己。笔者以为,这不但是机器人设计中应当遵循的基本原则,而且也是机器人立法中必须充分考虑的原则。面对以人工智能为代表的飞速发展的现代科学技术,人类必须高度关注技术对社会关系和社会观念所带来的巨大冲击,同时充分利用法律的引导、规制和促进功能,实现法律与技术进步的良性互动。
利用良好的法律制度促进科技发展
法律不仅承担着行为调控、冲突解决、社会控制、公共管理等功能,而且负有促进社会发展,引导社会生活的使命。良好的机器人法律制度应当是既能够充分调动社会主体的创造热情、促进社会经济发展的社会财富创造法,又能够在发明创造和财富创造之间搭建起便捷转换通道的市场经济催化法。
为此,一方面,要应用良好的制度设计满足机器人发展的客观要求,积极利用机器人解放人的功能,实现人的全面发展,并积极改善人与自然、人与社会的关系。另一方面,要充分发挥法律对科学研究的价值引领功能。从发展经验来看,并非所有的技术成果都能够造福于人类。因此,不是所有的科学活动都会得到法律鼓励(典型的如克隆人技术、换头技术等)。我们在充分肯定人工智能对解放人类生产力所带来的重大便利的同时,也必须高度重视人工智能对传统的社会机构、社会关系、人伦关系所带来的颠覆性影响,严格划定人工智能作用(活动)的禁区。由于目前对机器人活动可能对人类带来的负面影响还缺乏必要的实践数据,加之人类还没有完全做好与机器人和谐相处的精神准备,因此在早期的机器人立法中,对机器人的自主性活动应作较多限制。随着人工智能技术的日趋完善和自然人与机器人相处能力的逐步增强,可以通过不断修改法律逐步放宽对机器人行为的限制。
确立人类优先和安全优先原则
现代国家确立了以人为本的立法理念。这就要求一切立法都应围绕改善人的生存条件和生存环境,增进人类福祉,促进人的全面发展而进行。这既是文明立法的本质要求,也是良法善治的应有之意。这里的良法,首先要求必须具有公正性,其次要求必须是能够满足大多数人的需要,最后必须符合社会公众对法律的预期,符合公序良俗的基本要求。
具体到机器人立法,由于机器人的应用不但会带来深刻的社会变化,而且也会影响到人类自身的发展,影响到对人本身的认知,甚至会危及人的生存。诚如霍金所说:“人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。因此,人工智能的成功有可能是人类文明史上最大的事件,但人工智能也有可能是人类文明史的终结!”因此在相关立法中必须确立人类优先的原则和理念,以尊重人的存在、人的生命健康、人的利益、人的安全为根本旨归。
同时,相关立法绝不能仅仅关注机器人的技术性内涵,而更应当关注其文化内涵,相关的制度设计不应是仅具有程序性操作意义的技术性规范,而应是充满人文关怀和伦理精神的技术性与道德性完美融合的法律。一方面,我们要坚决把违背公序良俗和有可能挑战人类伦理底线的人工智能技术产品,排除在法律的保护之外,另一方面,通过政策或法律,对那些有可能影响人类伦理的技术进行严格的管控和必要的限制,对风险不明的技术应用必须留下足够的安全冗余度,防止因技术的失控可能给人类带来的毁灭性打击。
谨慎承认机器人的法律主体资格
机器人出现之后,其身份和主体资格受到高度重视。2017年,机器人索菲亚(Sophia)被沙特授予公民身份。美国律师约翰·弗兰克·韦弗于2015年出版的《机器人也是人——人工智能将如何改变法律》一书提出,由于机器人已经具备自然人的很多能力,如思维能力、辨别能力、有目的的活动能力和一定的判断能力与自主决策能力,因此应当赋予机器人以和人相同的法律地位。实际上这已不是第一次对人的排他性主体地位提出质疑,早在机器人出现之前就已经被多次提出,其中最为典型的是对动物主体地位的争议。
从目前的发展进程来看,机器人虽然已具备人的很多要素,但还不足以达到和人分庭抗礼的地步。机器人虽然可能会有思维,但却并没有上升到有生命的状态,不具备生命所要求的能够利用外界物质形成自己的身体和繁殖后代,按照遗传的特点生长、发育并在外部环境发生变化时及时适应环境的能力。因此从理论上说,机器人作为一种工业设计,只具有使用寿命而不具有自然生命,当然也不享有以生命为载体的生命权。
机器人是按照人类的预先设计而生产出来的,因此就其本质来说具有可预知性、可复制性和可分类性,而可预期的活动是无法用传统的法律行为进行解释和规范的。此外,机器人没有自然人所具有的道德、良心、良知、伦理、宗教、规矩和习惯,只有功能的强弱。因此机器人不可能有道德感,只有基于程序的反复和预先設计而总结出的规律,从而也就没有民事主体所必备的基于内心感知(良知)所做出的善恶评判和行为选择。法律也无法通过对其行为进行否定性评价而实现抑制或矫正其非法行为的效果。最后,机器人并不具有与周围环境交互影响的内在感知能力,其改造自然的活动均是在人的设计、命令和指挥下完成的,从这个意义上说机器人并不是人,充其量仅是准自然人而已。机器人也无独立的财产能力和责任能力,机器人对人类造成伤害之后,只有通过惩罚其实际控制人(设计人、使用人)的方式,才能真正实现惩罚与保护并重的目的。
充分尊重社会公众的知情权
人工智能技术及其应用不仅是简单的技术创造,也是一个对人类未来影响深远且关涉每一个人切身利益的重大历史变革。面对功能强大的机器人,每一个行业、每一个领域的自然人的就业机会都有可能被剥夺,每一个生命个体的生存空间都有可能被严重挤压。公众对于信息、知识的获取,不但是其融入公共生活的一个条件,也是维护自身合法权益的必然要求。因此,每一个自然人都应当对人工智能技术享有充分的知情权,都有权知道机器人被广泛应用之后对自己意味着什么。
在相关立法中,必须充分保护社会公众的知情权和参与权,重大人工智能技术的应用应广泛征求公众的意见并进行科学的论证,应强调任何人工智能产品的开发和应用都不能以损害自然人利益为代价,不能以损害社会公共利益为代价。同时必须有效平衡各方利益,特别是平衡生产者和普通社会公众之间的利益。相关的制度设计一方面要充分保护研发者的创造积极性,鼓励其发明出更多更高质量的人工智能产品,另一方面应保证社会公众能够更多地分享因科学技术的进步而产生的社会经济利益和其他人类福祉。
建立符合国情的人工智能法律制度体系
法律是为社会服务的,任何法律都必须根植于特定的土壤才能发挥其最大效用。制定符合中国需要的人工智能法律,一方面必须充分尊重人工智能技术发展水平,在尚无充足实践经验指导的情况下,我们暂时无法设计出具有世界引领意义和示范作用的完备的人工智能法律体系;另一方面也应看到,发展人工智能技术既是抢占世界新兴技术制高点的需要,也是世界社会经济发展的大势所趋。
因此,我们的法律必须积极回应人工智能技术的发展需要,通过良好的制度设计满足人工智能技术的发展要求。同时,必须积极借鉴国外在人工智能领域的立法经验和司法实务经验,尽快完善相关的法律设计。当务之急是尽快制定人工智能基本法、人工智能产业促进法等法律法规,明确我国对人工智能和机器人产业发展的基本态度,同时出台人工智能产品伦理审查办法、人工智能产品设计指南等规章,未雨绸缪,提前用立法防范因机器人应用可能带来的社会问题。
(摘自5月12日《光明日报》。作者为中国法学会商法学研究会副会长、西南政法大学教授)