APP下载

人工智能领域的民事责任初探

2019-03-27

福建质量管理 2019年13期
关键词:民事责任机器人人工智能

(西南石油大学法学院 四川 成都 610500)

一、人工智能技术的风险

(一)人工智能的现状

自50年代以来,人工智能已经发展了几十年,远远超过人类的预期,并出现了一些令人难以置信的新情况。例如,2017年9月,浙江警察破获了该国第一起利用人工智能犯罪的案件。涉及的平台使用人工智能技术快速识别验证码,拦截和销售超过10亿公民的个人信息,以便合作团伙进行在线欺诈。2015年7月英国《金融时报》报道了德国大众公司的机器人“杀人事件”,一名工作人员被正在安装的机器人突然起身抓起重重摔在金属板上不治身亡。一个是利用机器人的自主学习提升识别能力实施的犯罪,另一起是由于机器人完全自主的行为导致的人员死亡。因此,人工智能所带来的风险是可见一斑的,也对我们的现行法律提出了挑战。根据传统的分类方法,人工智能分为三个层次,主要包括弱人工智能作为工具,具有自主权的人工智能,以及超越人类的强大人工智能。

(二)人工智能的现实风险

人工智能的现实风险,作为高精尖技术的运用,其影响主要表现在两个方面,即侧重于影响法律和社会道德以及侵犯个人隐私。首先是影响法律和社会道德。例如,2017年10月26日,沙特阿拉伯王国授予由美国汉森公司开发的智能机器人索菲亚作为公民。智能机器人的法律问题逐渐从纯理论问题转变为实际问题。索非亚的公民是否可以代表作为普通的人类公民的合法权利,法律义务和责任,沙特国王没有做进一步的解释和规定。由此带来的伦理和社会问题存在极大风险。二是侵犯个人隐私,主要集中在人工智能通过识别,拦截,模仿,授权等侵入许多信息库的方式,可以追踪用户的信息。从某种程度上说,在人工智能的脸,人们似乎透明,没有任何隐私可言,个人信息已被严重侵犯,以及数据收集过程的公开性,透明性和合法性受到威胁。甚至在很多情况下,即使隐私权遭到了侵犯也没有察觉,更谈不上如何维护自身的合法权利。

二、民事责任在人工智能领域的作用

(一)民事责任对人工智能的调整不足

吴沈括、罗瑾裕指出,现阶段的人工智能面临着技术和制度的双重风险,主要是安全保障技术的不够完善、高密度的关联风险增加、安全责任归则问题、技术标准不统一、与网络安全监管不匹配等方面。笔者认为这个风险的关键在于技术的不确定性和复杂性,因为在高精尖科技领域,倘若调整不足或者引导不当就会造成不可挽回的损失,最终必定会危害到人类。目前出现的基因编辑婴儿就是一个很好的例证,不仅严重违背了伦理和学术,而且一旦进入运用到商业领域,带来的社会不公平和伦理问题会越来越严重。人工智能不同于一般的技术主要在于其自主能力和深度学习能力比很多科技都要强大,不确定性的原因主要在于人工智能的自主性越来越独立,可以不依赖人类完成一系类的行为方式。在人类的发展历史上,就人类这一个整体而言,并非都是可以进行自主约束的,每个人都是独立具有自主意识的个体,当某些科学家或者研究人员背离了研究目的和宗旨,为谋求个人私利或者某种不具有普遍价值的追求的时候。他就有可能完全不受道德、伦理、法律的约束,进而违背科学技术研究的准则,利用机器人的一些超人类功能,创造出损害人类甚至毁灭人类的人工智能技术,最终导致无可挽回的后果。尽管根据马克思历史唯物论,人类的认识水平是不断变化的,也是受制于历史发展的制约,但是人工智能的智力水平可是无法估量的。许多学者认为人工智能始终是人类创造出来的,运用过程一直处在人类的控制之中,对于这类观点不置可否,但是需要明确的一点就是人工智能的高级功能就是深度学习。这一点和人类相比,在某种程度上说,已经完全超过了人类,还有一点值得注意的就是人工智能在自主学习过程还会不断改进具体的运算方法和优化性能,也就是说,人工智能是在模拟人类特有的学习功能,学习知识和技能,人工智能也在不断地努力进步。可以看出,在未来,人工智能技术将变得越来越发达,甚至超过了人类的智力水平。如果人工智能的发展进入一个无序的状态,必定会为社会带来极大的危害。

(二)民事责任对人工智能的调整

人工智能是具有法律基础的,着眼于人工智能发展可能会带来的损害,无论是人工智能本身还是人工智能的智力成果的运用,我们的关注都在于未来的危害,因而民事责任是对人工智能进行调整的主要方式,从这一点上看,人工智能是属于民法意义上的法律客体,也就是物本身。关于人工智能的智力成果法律地位,法学界和人工智能界对于其在民法上关于其分类有三种说法,分别是人、物和准人。人工智能变得越来越智能化,并与人类的差异正在逐渐缩小。在未来,它可能有一个生物的大脑。从法律制度的发展来看,人工智能的法律主体与权利的发展的历史规律。有其他学者认为不应当赋予其独立的民事主体资格,杨立新指出,人工智能的运行是由算法决定的,尚不具有自主意识,也不能独立享有权利、承担义务。所以仍然应该讲人工智能纳入法律客体范围。笔者认为在人工智能飞速发展的时代,包括将来人工智能的发展会越来越超越人类的想象,人工智能永远也不可能成为法律资格的主体,甚至于准人格主体都不可能,即使索菲亚具有公民的身份,也不能完全和人类一样拥有正常的生命权、财产权和身体权等。换言之,人工智能只是人类的一个工具,永远属于物的范畴。在民事责任中,首先应当是划清人的责任和物的责任,倘若是人的责任,被侵权的人可以采取直接让侵权人承担责任的方式,无论是因为违约还是侵权,都可以适用于人的责任。如果是对象的责任,它应该是所有者,管理者和使用者的责任,无论是直接造成的损失或间接损失,如建筑物,挂饰等,即使这是一种间接的行为,相应的管理人员应该承担一定的责任和违约责任也不例外。当然,无论是人的责任还是物的责任,最终也只能由人来承担责任,现在社会,绝不会出现像美国那样由物来承担责任的情况。澄清的设计者,生产者,销售者和用户之间的关系和责任,确定它是否是人工智能产品的责任或对象的责任,其次,确定相应的责任为己任根据人的责任或对象的责任,再次,责任实体的民事责任是准确地确定。总而言之,应当对人和物的行为进行划分,然后明确相应的民事责任,不仅要制裁违法者,也要制裁同行者和其他人。

三、结语

不可忽略的是现在人工智能的发展已经超越了我们的想象,由此带来的问题也非常现实紧迫,民事责任在人工智能的发展中应该具有其基础和核心地位,确定了民事责任的承担主体,也就是可以规范人工智能新技术的发展,并且对现实风险进行管控,让人工智能的运用和进步在正确的轨道上进行。按照法律设计的路线和规范,最大限度的减少人工智能带来的一切不利影响,朝着有利于人类的方向发展,势必最终会造福人类。在新技术的发展和运用当中,人类一定要清醒的认识到可能带来的不确定因素,做好管控和规范。

猜你喜欢

民事责任机器人人工智能
民法总则规定民事责任的必要性及内容调整
2019:人工智能
人工智能与就业
民事责任能力问题的探讨
数读人工智能
民法总则规定民事责任的必要性及内容调整
下一幕,人工智能!
机器人来帮你
认识机器人
机器人来啦