人工智能背景下机器人投入劳动的法律问题初探
2017-11-24丁治文
文/丁治文
人工智能背景下机器人投入劳动的法律问题初探
文/丁治文
人工智能机器人投入到劳动中,会使现今就业结构产生深刻变革,由此引发的法律冲击引起了学界的极大关注,为此,笔者尝试梳理其法律责任产生的情形并厘清问题源头,大胆引入商业保险制度,思考监管方向,以有效应对智能时代劳动领域的新挑战。
人工智能;机器人;劳动;法律规制
《新一代人工智能发展规划》(以下简称《规划》)于日前公布,这为推动我国人工智能产业发展、争夺科技创新前沿高地吹响了冲锋号。人工智能以其呈现出的深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,不同于人类以往制造出的机器设备,其具有高智能的表征,影响着生产、分配、交换、消费等经济活动各环节,甚至可能会改变就业结构。具备高智能特征的机器人投入劳动力市场已不是只在科幻片才能看到的场景,也许就在不久的将来会成为现实,兴奋之余,由此而引发的一系列法律问题值得人们深刻思考。
一、智能机器人对当下劳动环境的影响
(一)对劳动者身份的冲击
1.智能机器人是不是劳动者?“不独立的、由他人决定而给付劳动的人是劳动者,由于这种依附性劳动具有人身属性,所以只有自然人才可以是劳动者。”这是德国劳动法的通说。日本学者围绕劳动者的概念大体有解释论和立法论两派,但无论是哪种角度,均以使用从属关系为基准判断是否为劳动者,且劳动者应理解为自然人。而美国国家公路安全交通管理局在2016年2月初认定谷歌无人驾驶汽车采用的人工智能系统可以被视为司机,人工智能产品在一定程度上被赋予了虚拟而有限的法律主体资格。从中可以看出,国外对劳动者的法律判断是谨慎的。
2.智能机器人身份的法律界定。多数学者认为“定位AI机器的法律主体地位时,考虑参照对宠物或者婴儿的定位”。“或者基于代理权的代理人”是较为现实的考量。综合前述及我国现行法律精神的要求,笔者认为:人是一种高级生物物种,可从生物、精神与文化等各个层面来定义。那么由人创造出来的智能机器人显然要区分于有血有肉的自然人,也无法像法人那样拥有独立的财产,能为自身行为承担独立的法律后果。虽然智能机器人在一定程度上具备自主学习、直觉感知、综合推理、混合智能和群体智能等能力,但仍无法做到人类特有的、高级的情感和价值判断能力,不具备自主决定意志,缺乏法律人格属性,无法独立承担法律责任,劳动依附的从属属性更无从谈起。因此,本文观点更趋向将其归属于产品,智能机器人不是法律意义上的劳动者。当然这不影响将其投入劳动市场,帮助提升劳动服务水平,实现其社会价值。
(二)工作任务的冲击
1.工作任务的重新划分。《规划》认为,今后越来越多的简单性、重复性、危险性任务将由人工智能完成。这就意味着就业结构将会出现极大的变革,因为在多数行业中基本上都可以将工作任务的难度分出高、中、低三档,无论各行业性质有多大差异,都有重复性和危险性工作任务出现的可能,只是程度不一罢了。如此,智能机器人将大有一番作为,而我们人类劳动者的身影将会越来越多地出现在高质量和高舒适度的就业岗位上,这是对未来美好就业岗位的愿景期盼。
2.可能引发就业歧视。随着智能机器人参与劳动分工,低技术含量等工作任务领域将会被其所占领,原来岗位上的人类劳动者只有通过加强再就业培训和指导,顺利转岗后才能适应智能经济和智能社会需要,这是时代的必然要求,可现实中,情况往往要复杂的多。例如,我国约有残疾人8500万,原本这类特殊的劳动主体基于身体或智力缺陷,通过培训勉强能从事简单、重复的低劳动强度工作,而这些工作任务正好与现今智能机器人的工作任务领域有重合。基于成本、效率等考量,企业也许会选择机器人代替他们,这可能会引发新一轮的就业歧视风险。将来也许残疾人劳动者将不能再进入原本所期望的岗位,同时原来雇佣残疾人劳动者的企业也会丧失一定的纳税优惠政策,这在某种程度上制约着国家与社会接纳残疾劳动者所付出的努力,残疾人的劳动权利也会受到影响,这不得不引起我们的思考。
二、智能机器人责任的产生及承担
(一)可能引发责任的情形
企业在使用智能机器人作出生产或服务行为时,会有一定概率出现智能机器人因设计缺陷或使用者的过错等导致的劳动责任事故,如泄露商业秘密(谷歌旗下位于伦敦的公司DeepMind 最近已获取了皇家慈济NHS信托基金运营的三家医院的160万病人在英国国家医疗服务体系中的医疗数据,如果以上数据泄露,无疑侵害了病人的隐私,也侵害了公司的商业秘密);工作服务行为导致本人或第三方受损(无人驾驶汽车发生严重交通事故);出现竞业损害可能(由于智能机器人拥有大数据平台,平台中的商业信息数据可能会被不当使用)等。那么以上责任情况的出现就需要有法律相应的责任划分与承担规制了。
(二)关于责任承担的设想
1.厘清责任产生缘由。责任的产生源于法律主体采取作为或不作为行为导致法律所不容的后果出现。前文已阐述智能机器人不能作为法律意义上的劳动者资格角色,但其确实参与了劳动环节的分工,也可能会导致一系列劳动责任事故的产生,因此,不能因其不具备劳动法律主体资格就放任不管。其背后的生产者、使用者、监管者如有过错还是要为此付出法律的代价,只不过此种情况的归责原则、承担方式等更需专业考究。
2.引入商业保险。基于智能机器人没有独立的财产,其发生致损后果时,如有第三方能代为履行赔偿责任,这将大大抵消人们使用上的顾虑和风险。商业保险的引入为破解这一难题提供了选项。作为合同契约行为的保险,是对特定风险的后果提供经济保障的一种风险财务转移机制。确立保险关系应至少包括:可保风险的存在、公平合理适度稳定的保险费率、保险合同的订立、保险索赔与理赔。从以上要素来看,关键是要实现可保风险的存在。随着科学技术的进一步稳定发展,智能机器人作为成熟的产品进入前景广阔的劳动力市场指日可待,这蕴含着体量庞大的可保市场,相信届时保险产品的创新行为会出现在智能机器人身上。
三、关于智能机器人的监管思考
(一)由谁监管
鉴于智能机器人投入劳动的特殊性,以行业技术自律为主体,以政府监管为补充是一条可行的选择路径。这样既能尊重市场在经济活动中起决定性作用的效果,构建新型企业组织结构和运营方式,充分相信技术的力量,激发技术人员的创造热情,同时,也能规避市场的盲目性,有效把控智能机器人在劳动服务市场的合理规范运行。
因此,建议成立劳动领域的智能机器人行业协会,配合监管部门督促会员自律,维护行业利益,为会员提供服务,全面提高智能机器人服务劳动市场的能力。同时,组建政府监督部门,该部门应包含智能机器人的质量监督、行为监控及定责等职能。双管齐下,促进劳动领域的职能机器人行业发展。
(二)监管什么
国家应出台关于人工智能技术在劳动领域的产品质量标准指引,确立生产者、销售者、使用者三方的行为原则和伦理道德底线。政府监管部门应当对责任事故现场进行勘验、检查,收集证据,并就技术专业事项委托专门机构进行鉴定;根据责任事故现场勘验、检查、调查情况和有关的检验、鉴定结论,及时制作事故认定书,作为处理智能机器人发生责任事故的证据。
(三)如何监管
一是增强风险意识,建立劳动领域的机器人服务大数据平台,构建人工智能安全监测预警机制,强化虚拟环境和实体环境协同融合监管思路;二是落实人工智能产品研发设计者、销售者、使用者的道德规范和行为守则的执行监管;三是培养适应人工智能监管环境的复合型人才队伍,大力开展人工智能科普活动;四是建立行业、政府监管部门、商业保险公司连调联动运行机制,保证信息有效沟通,实现1+1+1>3的工作效率和工作质量。
四、结语
智能机器人投入到劳动市场中所引发的各种法律问题是个新课题,需要人们给予适当的理解和包容,这既关乎技术也关乎技巧,本文只是抛砖引玉,期待社会对此关注并共同解决出现的难题,尤其需要相关法律制度的完善,毕竟法律不能缺席这一改变世界的盛宴。
[1]田思路、贾秀芳.日本劳动法[M].北京:中国社会科学出版社,2013年版,第50-58页.
[2]张艳.《人工智能给法律带来四大挑战》[N]. 社会科学报,2016年8月4日第004版.
[3]齐鲲鹏.《“2017人工智能:技术、伦理与法律”研讨会在京召开》[Z].科学与社会,2017年2月.
[4]高扬、冯敏良.《残疾人就业实践探析》[J]. 绥化学院学报,2017年1月.
[5]张艳.《人工智能给法律带来四大挑战》[N]. 社会科学报,2016年8月4日第004 版.
[6]王绪瑾.《保险专业知识与实务》[M].中国人事出版社2014年版,第11-20页.
【本文系韶关市哲学社会科学规划课题“韶关中小企业劳动合规管理提质增效策略研究”(G2017012)的阶段性成果】
(作者单位:广东松山职业技术学院)