APP下载

人工智能的伦理调适与法律规制

2019-12-13

桂海论丛 2019年5期
关键词:伦理人工智能人类

□ 可 晓

(烟台大学,山东 烟台 264000)

一、人工智能的发展与争议

1956年的达特茅斯科学家会议上,斯坦福大学计算机科学家约翰·麦卡锡率先提出人工智能(Artificial Intelligence,简称AI)的概念,科学界对它的普遍定义是:研究、开发用于模拟、延伸和拓展人类智能的方法论以及具体算法系统的技术科学[1]。人工智能尝试着生产出面对具体问题时能够和人类智能做出相似反应机制的智能机器,期待机器可以独立完成从前只能由人类完成的任务。

目前,AI技术促使医疗、通信、交通、金融支付等众多产业进行技术改革,国外的一些保险公司、金融公司,甚至律师事务所,都开始引入具有认知能力的人工智能系统来替换人类雇员。从智力竞赛、国际象棋到围棋、德州扑克,再到医疗诊断、图像和语音识别,人工智能在越来越多的领域开始达到甚至超过人类的认知能力,从而出现其辅助甚至代替人类进行决策的现象。

科技界意见领袖比尔·乔伊曾发表一篇题为《为什么未来不需要我们》的文章,他指出:我们最强大的技术,将使人类在物种意义上受到威胁,未来的一个困境在于智能机器人也许不仅会比人类聪明和强大,而且将逐渐具备了独立自我的意识不受人类所控制,最终给人类带来灭顶之灾。霍金曾担忧的指出:从短期来看,人工智能的影响力是由使用它的人来决定,而从长期来看,它的影响力取决于是否一直甘心被人类所使用,也许有一天一切将会发生根本性的颠倒[2]。在此背景下,防范和化解技术带来的风险,是负责任的发展人工智能的应有之义,这也正在成为越来越多人的共识。近年来,人工智能给网络技术的发展提供了充足的动力,但是这种发展却逐渐模糊了物理与虚拟现实主体与客体之间的界限,原本稳定的社会秩序受到了来自各方面的冲击,进而衍生出诸多复杂的伦理困惑和法律问题,这已经成为智能时代不可回避的问题,因此,本文将从伦理和法律这两个角度开出化解人工智能风险的药方,希望让人工智能在规范中发挥更大的科技优势。

二、人工智能的伦理调适

由于人工智能技术的应用越来越普及,人们的日常生活和工作也会更加依赖于数据信息算法和智能系统的选择和决策,比如,医疗诊断、证券交易、司法裁判、无人驾驶等,而“脑机接口”更是直接把人脑和外部设备连接起来进行信息交换,从而形成数据主义对人类自由意志的渗透和控制,对于正在研发的强人工智能甚至超人工智能来讲,它们更是对人类智慧的超越。但无论技术怎样发展,维护人类赖以存续的是人文精神、人格尊严,这些是不能被人工智能所代替或统治的,这是人类发展和利用人工智能的起点和终点。但是,人工智能在应用中会遇到一些具体的伦理问题,如自动驾驶中紧急避险的利益衡量、性伴侣机器人的伦理审查等等,因此,在人工智能研发过程中应当引入机器伦理,促进技术设计伦理开发,要引导智能产品“负责任”的为人类服务。

理清这个问题的思路,首先要反思算法设计的客观性,重新审视开发者的价值选择在其中的影响。我们知道人工智能的本质就是算法和数据处理的集合,而数据的采集与算法的设计不是纯粹客观和无偏见的,相关主体的价值选择将无孔不入。例如,在智能“视频鉴黄”时,其原理是通过智能化识别对视频进行理解,虽然智能化识别中的算法和数据处理是客观的,但是对于艺术和色情的界限是一个仁者见仁、智者见智的问题,人工智能仅仅是具备了事实层面的分析认知能力,而对于价值判断这种深具伦理色彩的工作却无法很好地胜任,对此,有人提出“人工镶嵌”技术,即把人的伦理道德镶嵌到算法之中。但是,假如真的能把伦理规范镶嵌入人工智能,那么这种技术是否会被居心叵测的科学家利用,从而将不道德和反伦理轻而易举地植入其中?笔者认为,不管是主动在智能系统中安装伦理代码,还是让智能系统在环境中被动适应伦理规范,最后都存在算法和数据处理的“黑匣子”,即技术的客观中立性之中总渗透着一些无法轻易察觉的“伦理代码”。为此,笔者提出三个方面的伦理调适思路:

(一)寻求算法决策和数据处理的公正性

随着人工智能化的推广,它正在悄无声息地形成一种“算法权力”,从日常生活中的产品推荐、信用评分,再到如火如荼的共享服务,这种算法权力影响着每一个个人和团体。客观和科学是算法决策一直被标榜的特征,然而如同人类的决策总受到个人价值影响一样,绝对铁桶般的客观严密是不存在的,算法从一出生就承载着价值判断,当面临社会关系的解读时,总会受到利益分配和既有权力格局的深刻影响,所以这种客观和科学仅仅是相对的。因此,在人工智能时代的信息不对称问题愈加严重的情况下,如果对这种算法权力不加警惕,那么偏见和歧视将逐渐放大,权力的黑箱又将日益形成。实际上,智能产品给我们带来便捷服务的同时,也给我们施加着微妙的歧视和某种经过“度量”的不公,例如,亚马逊会根据算法推测,针对曾经多次购买《三体》的用户,他们更有可能对《人类简史》产生兴趣,因此,对于这类用户要报以更高的报价;车站在随机安排停车位的时候,会为那些收入较高并且宁愿通过多付小费来换取快速停车的客户提供更近更方便的车位[3]。这种算法权力能够换取极大的利益,所以非常容易得到误用和滥用,对此,笔者设想在算法和数据处理的过程中施加一种“伦理审计”,即从用户体验到的算法决策的歧视与不公入手,检查在决策过程中人为植入的利益因子,纠正结果中存在的不正确、不包容和不公正现象。算法权力的执行者在这个环节中应被施加严格的责任,例如,建立利益披露与利益冲突公开机制,以期达到公正行使其权力的效果。

(二)探寻更加透明、可理解和可追责的智能系统

当今世界,计算机、大数据和AI系统成为社会发展的三驾马车,其中AI系统的智能算法涉及面愈发广泛,其被赋予的权力越来越大,但它却变得越来越不透明、难以理解甚至无法追溯责任。在无人驾驶、医疗机器人等智能系统中,牵扯到很多的智能决策问题,这些决策往往关乎着人身安危,公众不能在一无所知的情况下交托人身安全,有必要对运行的过程具备起码的了解。笔者认为,在智能决策时,应该赋予公众一种“获得解释权”,此权利旨在使公众实时获得必要的解释,尤其是当智能系统做出影响公民权益的决策时。这样的权利设计可以对开发者形成一种监督,督促算法设计与评估阶段优先考虑透明性、可理解性和可追责问题,从而稳固人工智能时代的交易安全和社会秩序。在人类社会分工日益精细的今天,我们同样要对于学科进行精细的责任划分。比如,科学问的是:什么是我们能够做的。但是在这里,伦理学和法学要问的是:什么是允许做的。其言下之意在于:面对科学技术日益精进,社会飞速发展的今天,我们不得不回到伦理学的原点,拿出勇气,发动对这个时代人工智能泛化的批判,警觉以人工智能作为纯科技手段为借口的推卸责任行为。因此,为安全考虑,人工智能的尖端技术及其核心平台,是不宜让任何个人或者私企把控的,否则就会出现极少数人便能攫取大部分资源,控制经济命脉和文化宣传的危险境遇。因此,对于人工智能的责任划分,有一个基本原则就是政府干预原则。政府对此不应该听之任之,而应该积极承担责任,为民众安全计而对于人工智能市场设计好合理的制度监管框架。

(三)追问人工智能的理性

当今时代,看似人工智能的智能化与人类的理性化相得益彰,但深思之后就能发觉,人工智能的理性更多的是一种工程理性,它的理性是机械的、无善恶观的,也许它将给人类带来更深远的不合理性,例如,智能的力量能否被人类的正面力量所掌控?由于智能算法的复杂性,它是否会长期将人类蒙在鼓里,最终把人类置于巨大的风险里?我们已经察觉到的是:智能机器人的引入使得普通的机械劳动者岗位流失,劳动与就业保障方面的压力加大,那么,人工智能进一步的发展是否会抢走更多可怜的饭碗,进而对人的存在价值产生一种难以调和的冲突呢?创造的确是人的巨大优点,可是面对智能机器——人类最伟大的创造,创造与被创造的关系却发生了一种本末倒置的变化,人类在其创造物面前总有那么一点自愧弗如与自惭形秽的失落与无助。对此,人类应该时刻警惕人工智能的理性,对其潜在的风险做好防范。

总而言之,自从2015年以来人工智能的发展在整个世界范围内产生了巨大的冲击、引起了广泛的讨论,尤其值得我们关注的是2017年1月在阿西洛马会议上提出的“阿西洛马人工智能原则”,即“安全、透明、负责、可解释、为人类做贡献和多数人受益”原则,其倡导的伦理价值包括过程的安全性、故障的透明性、审判的透明性、恪尽职守、与人类价值观保持一致、保护隐私、尊重自由、分享利益、共同繁荣、人类控制、非颠覆性以及禁止人工智能装备竞赛等[4]。

伦理规范对于人工智能社会关系的调整发挥着一种先导性作用,这是因为立法的繁琐性、法律的滞后性特征使得法律规范对于迅速发展的社会关系难以做出第一时间的反应,而伦理规范恰好可以弥补这种不足,对于已经发生变化的社会关系迅速作出反应。一言以蔽之,在新事物的初期,法律规范不健全的情况下,伦理规范要肩负法律的重任,例如,把道德准则镶嵌入智能机器人、为智能产品建立正确的伦理指引、规定智能技术研发与应用的共同伦理道德标准等等。

三、人工智能的法律规制

通过上述伦理规范问题的讨论,我们可以明确这样一个思路:对于如火如荼的智能技术,我们必须进行一些监管和控制,而在早期最适宜登上舞台的就是伦理规范,通过伦理规范的探讨和调适,为后续法治建设提供了重要的法源,当一切成熟的时候,伦理规范便可转化为法律规范,实现道德的法律化。

目前来说,人工智能技术作为一项崭新的事物,它缺乏完善的法律框架来约束,人工智能技术在应用过程中的侵权行为频发,例如,医疗护理机器人、无人驾驶应用过程中致人损害发生的侵权责任、产品责任;智能系统中出现的隐私与个人信息泄漏等等。在这些情况下出现的侵权问题往往是对于我国传统侵权规范框架的挑战,被侵害者的利益往往难以得到及时的救济,这可谓是人工智能技术发展的一大障碍。因此,接下来本文的任务就是针对其中比较突出的一些法律问题进行探讨,并给出一些立法建议。

(一)智能产品致损的责任承担

依照传统的侵权责任法,产品致损应该适用有关产品侵权责任的规定,即向产品的生产者和销售者或者不当的使用者主张赔偿,但是对于那种具有自主处理和决策能力的智能产品,比如,无人驾驶、医疗机器人,其责任承担的主体和损害赔偿的机制尚需进行讨论。在智能产品致人损害时,我们有必要分清究竟是智能产品的固有漏洞,还是智能机器使用者的错误使用,抑或是人工智能系统偏离算法程序进行自主决策下的“自身行为”,当分清真正的致损事由之后,才能查找出真正的责任主体,并分担赔偿责任[5]。

笔者认为,要解决智能产品的归责问题,避免用户因责任顾虑而因噎废食,必须为人工智能量身订做一套程序上的归责路线,立法机构在立法时应当阐明智能系统开发过程中的法律权利与义务、归责与救济方式等问题,同时考虑到面向群体的多样性,要从法律制度上明确人工智能产品的设计研发者、生产者、销售者和使用者的责任,在损害发生时不至于出现责任空白。其中需要探讨的是对于那种具备自我学习和决策能力的强人工智能系统的归责问题,假如这些高智能化的人工智能产品的“自身行为”致人损害,这种情形由于技术限制,属于不可控制与不可预见的范围,那么是否可以依据损害的不可预见性、科学技术水平的局限性来免除相应主体的责任?在此,笔者认为考虑到产品使用者在消费过程中往往处于弱势地位,而在意外情形发生后,如果不能给予充分的救济,这不仅不利于维护使用者的权益,而且非常容易挫伤其消费积极性,从长远看这也不利于人工智能产品市场的开拓。

因此,我们可以借鉴欧盟议会法律事务委员会在2017年1月发布的《机器人民事法律规则的立法建议报告》中提出的两个建议:第一,为智能产品建立强制保险机制,由其生产制造者购买。第二,要设立赔偿基金,以确保强制保险不能覆盖的损害能够获得赔偿[6]。我们期待通过保险机制分担风险,这样做不仅有利于受损一方得到及时的救济,也可以减轻人工智能产品开发商和制造商的赔偿负担,避免其由于过高的注意义务和过于严格的无过错责任承担而裹足不前,从而支持人工智能产业的长足发展。此外,我们还应该建立有效的监管机制,对于人工智能产品的设计开发、生产、销售和使用的全过程进行持续的监管,以此保证责任的可追溯性。我们要针对设计、生产建立起严格的检测审批制度,对于出厂销售之后要完善使用和保养以及维修情况的跟踪记录,甚至可以参考车辆年检制度对人工智能产品进行年检。逐渐建立起严密的监管体制,哪个环节的监管者没有尽到监管职责,就该为人工智能产品损害承担相应的责任。

(二)人工智能服务中的隐私与个人信息安全

人工智能本质上是一种数据处理的算法,因此,较高质量的大数据,包括与个人隐私相关的敏感数据的采集,是它发展的命脉。而在数据采集的过程中,难以避免对公民个人隐私造成安全隐患,这些数据一旦遭到披露,隐私权的保护将成为一纸空谈。根据媒体报道,2017年5月,谷歌公司旗下的DEEPMIND获取了英国皇家济慈NHS信托基金运营的三家医院160万病人的医疗数据,其中包括HIV感染状况、吸毒史和堕胎信息等隐私数据。在当今时代,我们几乎没有绝对安全的私人空间,我们的隐私受到无所不在的窥探[7]。

而与社交网络相比,人工智能产品储存的数据规模更大、范围更广、私密度极高,一旦发生窃取、泄露或者遭到不正当的利用,不仅直接危害个人信息及隐私安全,还可能危及用户的人身和财产利益,妨害社会秩序的稳定和人工智能产业的发展。因此,隐私与个人信息保护是世界各国立法长期以来关注的核心议题,其本质要求就是在设计和应用人工智能系统时,要以尊重隐私、保护个人信息为前提。

笔者认为,目前法律在应对隐私与个人信息保护问题上可从三个方面发力:

1.严格确定人工智能系统采集用户数据的界限与范围

在人工智能时代,大部分用户为了享受相应的服务不得不提供相应的信息或者牺牲部分隐私,用户自己往往会成为最大的泄密者,但是这不能够成为任意采集和滥用用户信息的借口。我们要加强信息采集方面的专门立法,构建起清晰的隐私权权能内容、救济方式,清楚界定人工智能服务所能够采集的用户数据的范围,为用户设立可提供的个人数据范围的判断标准,加强用户的危机意识、防范意识和维权意识,明晰其救济途径。

2.采取措施应对数据不对称的不公平现象

电气和电子工程师协会在其首份人工智能报告中指出,数据不对称问题是导致个人信息保护不力的重要原因,大量的信息数据被保存在系统后台,形成一个多维度、全面性的智能数据库。对于人工智能系统而言,它不仅能够实现数据的智能搜索和调取,还能进行加工处理,勾画出某个完整的个人形象,生成所谓的“数字化人格”。而反观作为信息与数据源头的用户,往往难以了解自己个人数据的存储、管理和利用情况,甚至对个人信息和隐私遭受侵害都毫不知情。针对这种客观存在的障碍,笔者认为法律必须采取一定的措施给予弱势群体倾斜保护,要充实个人用户手中掌握的信息,其中的首要措施就是保障用户的知情权。我们可以通过法律规定在个人信息的收集处理和利用时,必须告知权利主体并征得其同意,建造一种双向知情机制:人工智能系统获取用户信息,同时用户能够获取信息采集者和管理者的信息。通过这种双向监视形成的相互制衡,能够让信息采集者和管理者在披露和滥用用户数据时感受到增加的信息成本,从而起到一定的约束作用。正如《Wired》杂志主编凯文·凯利2016年在广州“联接未来”的主题演讲中说到,保护隐私最好的办法是让侵犯隐私的人必须以自己的隐私做交换,为了在大数据的使用中尽可能给予隐私尊严和保护,要从采集到使用的全程做到双向知情,数据的采集者和使用者要同样被监督。

3.规制、监管数据处理者和使用者

现阶段,人工智能系统的数据处理者和使用者的主体是多元化的,它既有可能是提供人工智能服务的企业,也可能是拥有访问和上传用户数据能力的第三方主体,这种主体的多元化给数据流通的规制和监管增加了难度。笔者认为,可以借鉴1990年联合国发布的“个人隐私与数据保护原则”要求,数据的使用应该符合可持续发展的目标,数据的采集方式应当公平且合法,获取、分析或将数据另作他用都应该征得用户的同意,对于弱势群体的个人数据或者其他敏感信息要制定更加严格的保护措施等等[8]。除此之外,对于那种掌握原始数据资料的人工智能企业要采取适当的安全防护措施,协助其建立严格的保密机制并且向其明确一旦数据泄露之后的责任问题,从而防止用户的个人数据被第三方不法利用。在此,苹果公司引入的“差分隐私”算法值得借鉴,该算法通过加入虚拟数据,避免数据与特定主体之间建立联系,同时还可以对第一手数据进行预处理,使得而后的主体在不读取数据内容的情况下仍然可以对数据做进一步的应用,通过这些技术手段可以很好的为数据的使用保驾护航。而在监管方面,可以借鉴已经确定的隐私与个人信息保护与监管条例,明确在数据流通各个环节中的监管主体、职责划分,对于数据的处理、使用以及销毁进行全程的监管。不过,正如英国《人工智能:未来决策的机遇和影响》报告所指出的,政府固然是保护和监管公民个人信息最重要的防线,然而我们不得不思考在政府使用公民的数据时,是否能够同等对待每个公民的数据,在面对某些利益冲突是否会以牺牲公民信息利益为代价,为此笔者认为政府不仅是监管者,也需要作为数据使用者接受第三方的监督,毕竟政府侵害公民才是最危险最无可防备的侵害。

四、结语

人工智能技术在21世纪飞速发展,而各国的技术水平不一,发展起步早、技术水平高的国家暴露的问题和矛盾较多,引发的各种争议促使它们先行探寻解决问题的措施。对于我国来说,人工智能技术还在发展阶段,与这一新兴技术对应的法律规范尚不健全,缺乏相应的监管机制,现阶段主要由伦理规范和社会舆论进行约束,然而舆论是多变的甚至是偏颇狂热的,而伦理规范也需要一个好的价值观去引导,为此,本文专门探讨了人工智能技术的伦理调适,以期形成一个客观公正符合人类共同利益的伦理规范,从而引导我国相关人工智能技术的立法实践,建立起一套完善的人工智能法律法规。因为法律的使命不是为科技成就树碑立传,而是始终冷静警醒地观察科技将会带来的非理性后果,并且预先设计好科技发展伴随而来的危险境遇防范机制。在一个越是轻信科技和经济至上的社会环境中,法律的这种先见之明就越发重要。

但与此同时,我们也应当认识到法律的局限性,立法者总是竭尽所能地想要给社会生活的方方面面以细致的引导和规范,但社会生活的变化如此之快,我们的法律切不可闭目塞听,而应该想尽一切办法将科技的智慧之光与法律的理性之光融合在当今这个价值多元化,科技发展不确定性极大的世界面前,我们要更加珍惜人类文明的价值,探索并完善属于全人类的人工智能时代。

猜你喜欢

伦理人工智能人类
《心之死》的趣味与伦理焦虑
人类能否一觉到未来?
护生眼中的伦理修养
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
医改莫忘构建伦理新机制
婚姻家庭法的伦理性及其立法延展