人工智能的风险防控与法治保障
——专访天津大学法学院院长、天津大学中国智慧法治研究院执行院长孙佑海
2018-06-12徐青青
文/徐青青/
孙佑海 天津大学法学院院长、教授、博士生导师,天津大学中国智慧法治研究院执行院长;天津大学法学院互联网政策法律研究中心主任;天津大学数据科学研究院学术委员会委员。兼任中国网络空间安全协会网络治理与国际合作工作委员会副主任委员;天津市法官检察官遴选委员会主任委员等。曾任国务院法制局副司长,全国人大环境与资源保护委员会法案室主任,最高人民法院研究室第一副主任兼中国应用法学研究所所长,最高人民法院互联网司法研究中心主任。人民法院报社党委书记兼社长。
近年来,人工智能技术快速发展,“阿法狗”“无人机”“机器人公民”等相继进入人们的视野,丰富了人们的生活,促进了经济社会发展,但同时也带来诸多方面的风险。对此,如何在法治方面进行应对与防范是亟待研究和解决的问题。就人工智能技术带来的若干法律风险以及如何防范等问题,本刊专访了天津大学法学院院长、天津大学中国智慧法治研究院执行院长孙佑海。
《人民法治》:人工智能技术引领世界科技新潮流,在极大促进经济社会发展的同时,据说也可能带来若干风险,请您谈一谈对人工智能发展的认识?
孙佑海:人工智能是当今社会的热点。从去年“阿法狗”横扫世界顶级棋手,到后来“阿法元”100比0全胜“阿法狗”,再到前不久世界首位机器人公民的诞生,人工智能以迅猛的发展势头不断冲击着人们的日常生活。人工智能是现代工业文明发展的必然产物,其发展进程始终与工业文明的发展相伴而行。当人工智能极大地强化了人类能力时,现有的法律制度就会呈现出其局限性。在对待人工智能发展问题上,如何调整“促进”与“规制”人工智能发展的法律价值目标?如何应对人工智能技术带来的各类风险?如何设计人工智能时代的调控规范体系?都是法学界面临的紧迫而重大的课题。
《人民法治》:随着人工智能技术日新月异并投入使用,其所引发的各种法律风险也接踵而至。您可以举例说明吗?
孙佑海:好的。以无人机的发展为例。一方面,民用无人机在创新驱动发展战略和军民融合战略下具有重要意义,是一个发展潜力巨大的朝阳产业,中国在无人机领域处于世界领先地位,因此应当予以扶持促进发展,使我国的这个产业在国际上继续处于引领地位。另一方面,民用无人驾驶航空器产业的迅猛发展,给我国的国家安全、公共安全、飞行安全以及公民隐私保护和企业商业秘密保护带来了极大的挑战,我国现有的空域管理体制、法律规则已经远远不能适应民用无人驾驶航空器发展。因此,法学研究要在规范无人驾驶航空器的生产、销售、使用以保障国家安全、公共安全、飞行安全以及公民和企业的合法权益等方面作出自己的贡献。再如无人驾驶。无人驾驶汽车非常方便,据说百度公司大力发展无人驾驶汽车,认为无人驾驶可以避免人工错误,减少事故发生。但是,无人驾驶也有很大的问题,前不久有无人驾驶汽车在美国公路上行驶,结果把人撞死了。各种人类不可预见的事情还有很多。撞死人怎么办,责任由谁来承担?这些都需要论证。再如机器人。大家用起机器人来十分方便,但也存在风险,如发生机器人伤人事故,责任由谁来承担?这样的问题今后会发生很多。其他与人工智能发展相关的问题还有很多,例如涉及到种族问题、民族问题、政治问题。由于机器人学习能力很强,通过深度学习可以训练机器人,如果教它搞民族歧视,教它谩骂政府,就会引发政治问题。
以上种种实例也告诉我们,发展人工智能如果不注意防范,会给社会治理、安全保卫等领域带来很大风险。
《人民法治》:在人工智能大力发展的同时,可能有哪些重大风险需要我们密切关注?
孙佑海:我概括了一下,主要注意以下十大风险:
(一)意识形态和国家安全风险。通过人工智能深度学习的手段,灌输并传播错误的观点,这对我们党的宣传工作是严峻的挑战。相应地,给国家安全也带来很大的风险。(二)军事风险。机器人和无人机的强势开发使用,将会大大提升有关方面的战斗力,必将给我国的军事管理和军力对比,带来很大的风险。(三)公共安全风险。机器人勒死人,无人驾驶汽车撞死人,无人机升空进行攻击,会有很大的风险。(四)社会不稳定风险。现在人工智能大发展,许多就业岗位被机器人的各种新设备取代。很多会议,原来还要请打字员打字,现在不需要了,因为语音设备去了,打字员职业逐渐丢失了。人工智能大发展后,大量裁员的问题会很普遍,这会引发社会不稳定风险。(五)伦理风险。用机器人搞色情服务,机器与人类结婚。去年沙特阿拉伯赋予机器人公民的资格。这些事都涉及到很复杂的伦理和法律制度问题,引发大量的伦理道德和法律等方面的风险。(六)个人隐私风险。无人机等不加限制地使用,泄露个人隐私的问题很严重。目前,很多问题都在暴露之中。(七)算法歧视和数据歧视。算法就是标准。有些标准,政治上不合格,引发民族不平等、种族歧视、年龄、性别等问题,带来很大风险。(八)知识产权风险。人工智能时代,剽窃行为更加容易,知识产权风险大大增加。(九)信息安全风险。目前很多信息公司搜集大量信息,公民个人的一举一动都在他们的数据库里。有的家庭刚生了孩子,马上就有人打来电话,问你要不要购买他们的“月子”产品;刚刚买了房子,马上就有人打来电话问你要不要购买他们公司的装修装饰用品。这是为什么?因为数据被搜集之后,个人信息安全遇到巨大风险。(十)未成年人身心健康风险。未成年人,特别是少年儿童终日沉溺于网络和人工智能机器,养成网瘾和人工智能瘾,不利于他们的成长进步。加之人工智能有深度学习功能,如果不抓紧预防,很容易让少年儿童养成不良习惯。
以上,是当前已经发现的风险。未来还有更多的风险,需要我们认真研究对策方案。
《人民法治》:面对人工智能发展的诸多风险,从法治的角度看,我们应当如何应对?
孙佑海:解决上述问题,首先要明确正确的指导思想。第一,指导思想就是“两手抓”。一手抓人工智能的发展,这是不可阻挡的趋势;另一手,我们要防范风险。防范风险是对发展最大的支持。第二,法学领域有两个重要理论,一是损害者担责,但在人工智能问题上“确责”比较难。二是预防为主。也就是说,不要等到问题出现之后,再去处理事故,而要尽量往前赶。第三,人工智能发展给大学法学教育提出更高、更新的要求,各地法学院要培养以人工智能为代表的高科技的法律人才,培养又懂法律又懂人工智能的高素质人才。
《人民法治》:人工智能问题上的“确责”在实务方面需要如何去做,以及我们怎样才做到预防为主?
孙佑海:在立法执法司法领域。一是建议有关方面加紧研究制定“人工智能发展与风险防范法”。二是落实发展人工智能的执法,主要是制定人工智能领域配套的各种技术规范、技术标准,为执法部门开展工作提供依据。三是司法机关要及时依法“确责”和“问责”。在依法“确责”领域,首先是刑事、民事审判两大“确责”领域,其次是行政审判领域。既要支持行政部门开展工作,又要支持老百姓依法告政府和有关部门,保障各级政府依法行政。
在守法领域,我主要想强调一下,作为人民的科学家,在设计人工智能产品的时候,应当对国家、社会、民族和人类的未来有强烈的责任感和强烈的使命感。企业家不能唯利是图。不能市场需求什么就设计什么产品,应该有个道德的底线。