人工智能应用的伦理风险及法治应对
2022-12-17潘志玉
潘 志 玉
(山东政法学院 民商法学院,济南 250014)
在新一代信息技术革命浪潮的推动下,人工智能应用越来越广泛,尤其在以大数据和深度神经网络为代表的前沿领域取得了重大创新与突破。人工智能实际就是创造开发出能够最大程度模拟甚或超出人类大脑智力的一套原理、技术、方法及应用系统,其最终目标是让智能机器进行各种类人化操作[1]。当前,人工智能已成为新一轮科技革命和产业变革的重要驱动力量。特别值得一提的是,作为年度热词的“元宇宙”开始走上了社会产业发展舞台,(1)“元宇宙”实际就是人们借助VR技术如身临其境一般进入虚拟的数字世界,简言之,即是3D版的网络世界。2022年1月12日腾讯新闻联合复旦大学新闻学院传播系发布的《2021元宇宙年度报告》预测,在未来几年,元宇宙的核心维度将越来越强,包括算力、响应力、逼真性、沉浸性、互动性、 用户自主性、数字财产保护、数字货币支付等,在制造业、城市规划、零售业、教育、医疗、娱乐和社交等方面的应用也将越来越多。在元宇宙的世界里,人工智能也将出演重要角色,为元宇宙赋予智能的“大脑”以及创新的内容。在人工智能快速应用、快速发展的同时,它也给我们带来了诸多的风险和挑战,有必要从伦理哲学角度深入认识人工智能的法律人格,从而推进人工智能治理的法治化进程。
一、人工智能的法律人格
近年来,伴随人工智能的广泛应用,学界开始重视并持续审视人工智能技术与人的关系,对人工智能进行伦理反思。这一反思首先要探讨的就是人机关系的定位问题,即人机关系属于一种平等的人际关系,还是人类主宰机器的主客体关系?根据马克思主义物质和意识的辩证关系理论,人工智能在本质上是由人类创造的,是人们在认识和改造世界过程中通过实践活动所创造的一种工具。人工智能的生成原理是模仿人的思维及人脑的作用进而设计相应的算法运作,人工智能仍然是人的意识的反映,是人脑的智慧创造的结果。人类创造智能产品的目的是使其更好地为人类服务,而一旦人工智能产品通过高端科技形成类人化意识,存在控制人类或加害于人类的现实可能性时,人机关系就可能产生倒置错位[2]。因此,在人工智能的发展和应用过程中,人工智能产品只应该作为服务于人类的客体而存在,人机关系应当是目的与手段、利用和被利用的关系,唯有如此,才能推动人工智能的研发运行于正确的轨道,才能保证人的道德主体地位。从法律的角度来看待人机关系的定位问题,首先要厘清的就是人工智能的法律人格问题。
所谓法律人格,是指由国家法律所认可的一种享受权利、承担义务的资格,具体分为自然人主体人格和法律拟制主体人格。随着人工智能技术的进步和变革,其自身的功能及应用在现实生活中与许多法律问题相互交织,因此,规范人工智能的法律人格具有重要意义。对于是否承认人工智能享有法律主体资格,目前学界主要存在否定说、代理说、电子人格说、有限人格说、新主体说等多种界定,其中否认说为主流观点。否认说认为,具备法律上的人格或者成为拟制法律人,需同时具备生理学、心理学和社会学等要素。人工智能产品(如智能机器人)尽管有一定的意思能力,甚至能够担当一定的职业任务,但其仍然属于物的范畴,不能成为民事主体,其能拥有的仅仅是经由人类制造的无限靠近自然人意思能力或水平的民事法律地位。如果人工智能产品给社会带来安全隐患或风险,再或者给他人的人身或财产造成实际损害,应当适用民法上的产品责任规范[3]。
然而,对于人工智能究竟能发展到何种程度,是否永远不能拥有法律人格,现下定论还为时尚早。根据人工智能的发展,大体可以将其划分为弱人工智能、强人工智能和超人工智能三个阶段。目前的人工智能的发展尚处于弱人工智能阶段,也即这些智能机器没有自主意思,不会真正地推理和解决问题,其能够从事的工作领域依然很有限。而强人工智能机器不仅是一种工具,还具有知觉、思维或自我意识,有真正推理和解决问题的能力,其智慧程度相当于人类大脑,可以基本完成人类的全部工作。(2)强人工智能阶段机器的智力已经与人类相当,但科学家还没有真正掌握这种技术。而美国谷歌公司开发的人工智能程序“阿尔法围棋”已经迈出了坚实的一步。现在还有一种智能的数据分析平台,可以根据输入的信息给出投资建议。超人工智能则在综合智慧力、聪明度、算法、认知、创意、思维、通识、社交等几乎所有领域都能赶超人类大脑的智能阶段。(3)超人工智能将打破人脑受到的维度限制,其所观察和思考的内容,人脑已经无法理解,人工智能将形成一个全新的社会。我们应该根据人工智能发展的不同阶段,对人工智能的法律人格作出不同的认定。在弱人工智能时期,人工智能产品犹如民法上的“物”,与其所有权人具有一定的依附关系,此时无需相关法律来判定它的人格地位。而在强人工智能甚至超人工智能阶段,就需要对人工智能的法律人格给予重新审视和考量,因为否定说无法完全解决无人驾驶、智能医疗等领域引发的侵权问题。(4)无人机驾驶、人工智能医疗事故等侵权案件涉及的责任主体较为复杂,不能把事故产生后的责任完全推给生产者或者设计者,单靠产品责任规范力有不逮。另外,人工智能之所以不被认为具有独立法律人格地位,还因为其意思表示能力受限。但是,从我国民法典的最新立法精神来看,母体怀孕期间的胎儿可以享有一定的民事权利、具有一定的民事权利能力,那么,由此可以看出,试图通过无意思表示能力来限制人工智能的法律主体资格也不具有完全的说服力。
所以,承认人工智能的法律人格,在强人工智能和超人工智能时代具有重要意义。可以预见,随着人工智能技术的不断进步,人们对于人工智能在法律体系中的主体资格会有认知上的转变,即由从法律关系的客体到法律关系的主体的转变。虽然当前人工智能还处于弱人工智能阶段,但是十分有必要未雨绸缪探讨超强人工智能的法律人格问题。以下四种学说虽然还很不完善,但对于解决未来人工智能的法律人格问题具有一定的借鉴价值。
(一)新主体说
该学说认为,伴随发展,人工智能将来会具有一定的独立意识和思考能力,能够独立进入法律关系之中作为新的主体而存在,故可以将人工智能作为一种新的主体赋予其法律人格。法人和非法人组织也是随着立法的进步与完善在自然人之后逐渐成为法律关系的拟制主体的。而且人工智能的发展目的是为人类服务,所以认可人工智能的法律人格地位不仅可以保障既存民事主体的合法权益,也可防止出现因人工智能的民事法律地位不明而给既存民事主体带来损失的情况[4]。当然,该学说也注意到,法人、非法人组织仍然是由人组成的,通过内部的决议机构形成决策意见进而对外部作出意思表示,本质上还是人的组织,体现的是人的意志;而人工智能作为一种物出现,作为法律关系主体得到确立,既是对立法技术提出更高的要求,也是对立法成本的提高。
(二)代理说
该学说主张,人工智能应被认定为其所有人或使用人的代理人,按照代理法律关系处理相关争议,即人工智能产品对外实施的侵害“行为”,最终由其被代理人承担所有法律后果。该学说也具有一定的局限性,因为代理的适用前提是代理人必须具有完全民事行为能力,且无法适用于事实行为,那么对于人工智能自身运行中所产生的对外致害如何担责,又是难以自圆其说的。
(三)电子人格说
该学说主张赋予人工智能以一定的“电子人”身份人格,可以在相应的领域内参与一定的法律关系。该学说主要针对的是解决由人工智能产生的损害赔偿问题。《欧洲机器人民事法律规则》旨在通过赋予人工智能以民事主体资格,以便对其产生的损害赔偿等问题进行归责。应当说,“在对人工智能进行科学分类后,对强人工智能赋予法律主体地位具有一定科学性,但需要在实际操作中施加一定限制;同样,在分析了智能机器人的认知与行为理性后,也有必要在刑事责任层面确认其主体地位与法律人格。”[5]适用该学说似乎也有一个预想前提,即未来的人工智能应当具有独立财产,否则损害赔偿仍然无法实现。
(四)有限人格说
该学说考虑到人工智能无论智能到何种程度,本质上毕竟不同于人,其与自然人主体在意识、思维、行动、情感、认知等方面存在质的区别,故只是附条件且有限地承认其法律人格,承认人工智能有限的法律主体地位。该学说尝试借鉴法人和非法人组织的法律拟制规则,并结合登记备案制度来健全人工智能体的责任体制[6]。
二、人工智能技术应用的伦理风险与挑战
人工智能的快速发展和应用将不可避免地给社会带来更多的伦理风险和挑战,(5)人工智能伦理风险源于技术—人—社会—自然之间的复杂交互,主要包括技术伦理风险、社会伦理风险和人类生存伦理风险等,另包含技术内生型伦理风险和技术应用型伦理风险两大生成路径。这些挑战和风险应该引起我们的警醒和重视。人类对人工智能所秉持的伦理原则和价值观将直接影响其发展路径和方向,也决定着构建何种人机关系。如果我们能对人工智能技术加以科学利用、合理管控,并始终坚持维护人类命运共同体利益的最高伦理规范,人们就可以充分享受人工智能技术带来的便利和利益,人类生活将变得更加舒适美好。
(一)人类主体地位受到冲击
人与人工智能的关系及人类的主体地位,是人工智能发展过程要探讨的首要问题。从目前的发展来看,人工智能只是我们创造出来的产品,处于弱人工智能阶段,仍然是民法上的“物”的范畴,人类对于其享有物权或者说是知识产权。但是,放眼不远的未来,人工智能很可能具有类似人类的思维活动以及情感体系,能通过自己的内部程序表达出自己的“意志”,通过自己的“意思表示”与人类或者与其他人工智能进行交流。这样一来,就会脱离当下与人的从属关系,成为新的法律主体。那么,它们的发明能力、创造能力是否会超过我们?当它们具有思维活动和意思表达能力后,是否可以具有与人类一样的法律主体资格?在法律上,它们的地位与我们是否处于同样的位置?我们是否会被人工智能统治,主体地位遭到破坏呢?除此之外,人权是我们能够获得保障、主张权益的最基本权利。如果人工智能同样享有婚姻、人格、名誉等权利,乃至与人组成家庭,这些都将是对人性伦理的巨大挑战。(6)2017 年 10 月 26 日,一台名叫 Sophia(索菲亚)的机器人被沙特阿拉伯授予国籍,自此索菲亚成为世界历史上第一个具有公民身份的机器人。
(二)利益权衡与价值选择遇困
技术进步应始终以人为中心,当技术出错时,一些关于伦理设计和政策的前瞻性思考可以帮助引导技术发展,从而使我们人类免受其害。在具体设计人为人工智能提前设置相应程序时,将会面对价值选择与利益权衡的困难。纵使我们赋予人工智能以正义、平等、效率、秩序等价值理念,执行的效果也可能不尽如人意。比如,当人工智能汽车行驶过程中遇到行人闯红灯,它是遵循“交通信号灯”运行规则还是停车避让以保护行人的安全?再或者遇到“紧急避险”情况,人工智能汽车无论如何都会撞上行人时,它是否会选择撞向少数人一边?为实现正义、平等、效率、秩序等价值理念,人们一般会根据实际情况将原则性和灵活性相结合,进而在行动上作出一定的取舍,而且这要求遇到问题的人必须具有一定的思想高度才能实现这些价值观的“最大公约数”。反观人工智能,需要我们将这些价值的含义转换成算法植入其系统内部作为作出判断的依据,甚至算法在原有的道德规范嵌入基础上,还要不断学习新的道德规范,通过持续增强其道德能力水平,才能让其在风险来临之际作出更为合理的道德选择[7]。总之,让人工智能在关键时刻作出在道德价值判断与伦理规范上的权衡和取舍,将是人工智能应用中不可回避的伦理风险和挑战。
(三)个人信息安全风险剧增
人工智能技术的广泛应用离不开海量大数据的采集与精准的算法设计。所以,人工智能技术一旦被滥用,也必将造成可怕的后果。随着数字化技术的迅猛发展和进步,算法推荐技术正将人们带入个性化、定制化、智能化更强的信息传播时代。在这个新的时代,我们每个人的喜好以及购物、上网习惯都会被大数据精确地发现。据《中国大安全感知报告(2021)》显示,有七成受访者认为算法能获取自己的喜好、兴趣,从而“算计”自己,近五成受访者表示在算法束缚下想要逃离网络、远离手机却又很难。日常生活中,人们对于在线支付、图像采集、生物识别、卫星导航以及社交软件等的运用已经习以为常,但商家、政府、网络平台等采集的这些数据是否能够被合理利用、是否得到充分保护,还没有形成透明的机制,还没有完善的程序和规制措施。因此,隐私及个人信息泄露仍然是人工智能技术发展应用中亟待解决的关键问题。除此之外,人工智能若被滥用于非法集资、非法经营、窃取情报、泄露国家秘密等违法犯罪方面,也将会给个人合法权益以及国家利益、社会公共利益带来重大损害。
(四)安全责任主体缺失困境
近年来,伴随着网络技术的更新换代,责任伦理逐渐步入学界视野、走入时代舞台。“新的道德思维是责任伦理精神中最深层次的东西,责任伦理所具有的他者思维、复杂思维和境遇思维等特点,使其能够突破传统道德思维的局限,有可能解决当代人类社会所面临的道德难题。”[8]人工智能应用离不开算法,而算法设计也很可能会被滥用而引发纠纷,甚至在某些领域出现人类不能预见又不能克服的安全风险和隐患。那么,到底哪些主体应该为这些不确定性的安全事故买单,是人工智能体本身还是研发者、设计者或应用者,其所引发的责任归属问题一直困扰着人类,一时还没有得到解决。(7)依据群体划分,一方面是算法设计者、使用者应当担负的重要责任,另一方面是人工智能体应承担的责任;依据主要环节划分,责任归属则体现在人工智能设计阶段的伦理责任嵌入和人工智能体的伦理责任监管,即所谓的“前端嵌入”与“后端规约”。例如,无人驾驶汽车应用后,谁应为汽车事故负责?人工智能代替医生进行医学诊断时,如果出现诊断失误,谁应为这些医疗事故承担责任?如果这些责任事先没有明确划分,那么当人工智能在应用中出现事故时,就会出现责任主体缺失问题,研发者、设计者或应用者各方相互推卸责任,不利于人工智能的进一步应用和社会的稳定。安全责任主体多元复杂以及主体责任的缺失或不明,是新一代信息技术伦理困境的总源头。尽管国家已经制定了一些有关人工智能应用的规范,但仍然缺少完备的、体系化的必要执行机制。
(五)劳动者面临失业挑战
人工智能的迅猛发展对于劳动者具有多方面的威胁和挑战。其一,人工智能具有对于简单、机械工作的高频率重复特性,能够在短时间内完成人力所不及的生产数量,而且能够忍受更为艰苦的工作条件和生活环境。与人力劳动力相比,人工智能体具有低成本、高效率、普适性的优势。在市场经济高速发展的今日,用人单位为了获取更多的利益,更青睐于选择人工智能这一新兴的“劳动力”。由此,便出现人工智能取代普通劳动力的情况,特别是一些从事简单生产劳动的底层劳动者将丧失劳动机会,从而引发严重的社会保障压力,进一步拉大贫富差距,影响社会和谐稳定[9]。其二,人工智能作为一种技术、一种高级资源,在市场竞争中,掌握了人工智能便是占据了资源的优势,从而容易形成“马太效应”,即优势企业公司可以利用自身掌握的算法来识别、打击弱势企业进而形成行业垄断,造成强势企业更强、弱势企业更弱的局面[10]。由此,弱势企业被强势企业兼并,强势企业取得垄断地位,小企业的生存发展空间减少,劳动者的就业机会也会大大减少,对社会保障也形成挑战。其三,根据人工智能的“拟人性”,如若人工智能获得相应的法律人格,那么在人工智能参与劳动就业时,对其是否应该坚持民法的主体平等、意思自治原则,受到与自然人劳动相同的保护呢?这也是人工智能快速发展应该面对的问题。
四、人工智能应用伦理风险的法治应对
人工智能技术具有突飞猛进的发展和变革态势,将对我们所处社会的政治、经济、文化、教育等各个方面都带来不可预估的影响。为了确保人类的主体地位,科技绝不能凌驾于伦理之上,面对在人工智能发展过程中产生的伦理风险和挑战,必须以法治思维和方式最大限度地加以管控,通过立法对人工智能技术发展的边界作出限定,确保人工智能的安全、可控、健康发展。
(一)确立和发展“数字人权”理念
新兴的智慧社会催生了 “第四代人权”——“数字人权”,(8)数字人权是2020年7月全国科学技术名词审定委员会批准发布的大数据新词,但实际上在2019年6月张文显教授于“知识产权与相关权利的法理”学术研讨会上即首次提出“数字人权”概念,引发学界热议。也有学者认为,“数字人权”既缺乏宪法的规范基础,也不符合“人的尊严”标准和“最低限度基础性”标准,无法被证立为宪法未列举基本权利。其本质是在数字经济和智慧社会发展中作为人而应该享有的权利[11]。随着互联网、即时通讯、线上课堂、在线支付、云计算、智能机器人等成为人们日常生活的重要组成部分,社会大众对数字网络形成惯性依赖。如果把人们对人工智能产品的利用作为其享受生活便利和舒适的一项权利看待,在此背景下普及数字人权理念就成为一种必然。为适应新兴数字时代的客观发展要求,必须推动从传统物质世界人权观到新兴数字世界人权观的提级转变。要发展数字人权,首先在基本价值理念上要坚持科技以人为本,贯彻以人民为中心的发展理念,人工智能技术的应用不能背离人性,不能伤及人类尊严。其次,在制度上,要求我们的政府以及参与人工智能研发、设计的主体必须坚持社会主义核心价值观,切实承担起尊重和保障人权的责任和义务,让科技遵循人文主义,符合伦理规范,并积极向广大群众普及法律知识、科学知识、智能技术的使用方法等内容,不断提高人民群众的数字化应用水平,从而填补、弥合社会公众特别是弱势群体面对高科技智能产品的“数字鸿沟”,真正让人工智能技术始终掌握在人民手中并造福于民。
(二)强化对算法伦理的法治监管
一些恶意软件运用算法偏差、算法黑箱、算法垄断等进行“大数据杀熟”“用户画像”和“算法推荐”,引发了公众对算法推荐技术伦理风险问题的恐慌和忧虑。对于这一涉及个人信息自动化决策的热点问题,《个人信息保护法》给予了明确回应,即规定个人信息处理者应当确保决策的公开透明和结果的公平、公正,不得对个人在交易条件上实行不合理的歧视性差别待遇。2022年3月1日起生效施行的《互联网信息服务算法推荐管理规定》,更是对于算法推荐服务作出了全面细致的规范,着重强化对算法相关数据、模型等进行评估审查,细化用户知情权、退出个性化推荐等权利内容,明确了算法推荐服务提供者的信息服务规范和算法治理体系,合理构建了网络平台问责机制,实行事前事中事后全流程、全链条政府监管。然而,毕竟该管理规定在形式上属于部门规章,强制效力较低,内容上条文数量不多,还有继续完善的空间。比如在责任主体方面,该管理规定只限定了算法推荐服务提供者这一单个主体,而对于算法推荐技术运行、管理时的其他参与主体以及政府监管部门的责任承担却有疏漏。另外,算法推荐也会参考流量收益、用户喜好、用户人群量等方面进行计算与运行,对于具体的算法推荐的“滥用”“排除限制竞争”等方面,还需要拿出可以量化的具体标准来进行规制。总之,要实现对算法伦理审查和治理的制度化、标准化、规范化、法治化,要建立健全人工智能伦理安全风险评估、算法审计及认证、大数据缺陷检测、人工智能技术监管、备案管理等配套制度体系[12],促成全社会形成“法网大于互联网”“国法高于算法”“算法不能算计”的集体共识和行动,真正形成政府监管、企业履责、行业自律、网民维权、社会监督的多元共治体系。(9)2022年2月28日,中国互联网协会法工委副秘书长胡钢在接受《新民晚报》记者采访时表示:“我们要行正算、惩滥算、倡公算、促同算、致上善。算法歧视、大数据杀熟、诱导沉迷等算法滥用因践踏权利、压榨利益而成为普通网众的心头之恨,而‘算法邪恶’甚至成为扭曲真相、撕裂社会、祸乱宇内的罪恶之源,必须严惩不贷。”
(三)以立法阻却人工智能应用对个人信息权益的侵害
如前文所述,在人工智能技术应用过程中不可避免地存在海量个人信息的收集、存储、使用、加工、传输、提供、公开、删除等现象,生物识别技术实施过程中也将采集大量公民的个人图像、身份识别等敏感信息甚或隐私信息。这些信息一旦被泄露或者非法使用,很容易导致公民的人格尊严受到侵害或者人身、财产安全受到危害。(10)《个人信息保护法》第28条规定,敏感个人信息包括生物识别、宗教信仰、特定身份、医疗健康、金融账户、行踪轨迹等信息,以及不满十四周岁未成年人的个人信息。从法律规制方面看,随着《网络安全法》《民法典》《个人信息保护法》以及《数据安全法》的陆续出台,基本实现了对公民个人信息权和隐私权的保护,也填补了人工智能技术应用对个人信息权侵害的立法空白,一定程度上为个人信息保护提供了较为安全可信的客观预期。然而不可否认,立法具有一定的滞后性,现有立法步伐永远跟不上人工智能技术跨越式发展的脚步,随着人工智能技术的不断推陈出新,现有立法必然要不断修补完善。当前我国互联网领域专门立法较多,相关规定较为零散,还没有形成体系,尤其对各类技术主体的法律责任的规定,基本都是重事后惩处、轻事前预防。未来立法应在阻却人工智能对个人信息权侵害上适度引入侵权惩罚性赔偿和保护奖励制度,建立健全统一的多元化侵权责任体系。
(四)推进人工智能治理法治化进程
从伦理学角度来看,道德与法律同属于上层建筑,它们所体现的价值目标是一致的,又都是实现社会伦理精神的重要手段或工具。道德是内心的法律,更是法律的最高追求;法律是成文的道德,也是最低限度的道德;法律以道德为基石,道德以法律为保障。因此,在信息技术迅猛发展以及全面依法治国的时代背景下,建立完备的人工智能法律制度刻不容缓。2018 年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018 版)》,针对人工智能伦理提出了人类利益和责任两大基本原则;2019年6 月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,进一步明确了为确保人工智能安全可靠可控,共建人类命运共同体,人工智能发展相关各方应遵循的八项原则;(11)八项原则包括和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理。同年9月25日,国家新一代人工智能治理专业委员会又发布了《新一代人工智能伦理规范》,旨在使伦理道德规范融入人工智能研发、管理、供应、使用等环节的全生命周期,并充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,对从事人工智能相关活动的各方主体提出了六项基本伦理要求和四方面特定伦理规范。从这一系列规范文件的出台可以看出,国家非常重视伦理入法,正努力通过伦理规范来引导人工智能技术稳步健康发展。当然,这离人工智能法治化目标还相差甚远,因为这些文件层级较低,至多算是行业内的自律性规范,没有强制约束力。建议国家立法机构组织人工智能技术、伦理、法律等相关方面专家学者尽早启动人工智能治理的专项立法工作。立法源于实践,又要指导实践。鉴于“法不溯及既往”原则,事前的行为不能用事后制定出来的法律进行调整和规制,这容易让那些违背人工智能技术安全应用标准的不法分子钻法律空子,进而进一步增大危害性。相比于发现问题之后的“亡羊补牢”,问题产生之前的“未雨绸缪”应该受到重视。我国应该尽快开展对人工智能应用的立法,明文规定人工智能技术研究和应用的领域、应当遵循的伦理原则,明确规范人工智能技术的伦理要求、安全标准、监管机制,界定人工智能研究开发、设计、制造、生产、销售、使用、管理等各方参与主体的权利、义务以及侵权责任的归责原则、责任主体、责任承担方式等。正像Uber无人驾驶汽车导致损害一案,立法设计要按照人工智能的有限人格进行责任承担与追责,同时也要根据具体情况追究其设计、开发、制造、使用等环节的人类主体责任,避免某单一主体的责任风险成本过高[13]。总之,要增强立法前瞻性,着重加强无人驾驶、智慧传媒、智慧医疗、智能教育、智能家居、智慧风控等人工智能领域的立法,逐步建立起一整套规范人工智能应用的法律体系。