APP下载

深度伪造技术:伦理挑战与反思

2020-02-25田少波

关键词:伦理深度人工智能

田少波,田 骞

(武汉理工大学马克思主义学院,湖北武汉430070)

“假新闻”是当今社会的常态,人们虽然不喜假新闻,但也未曾对其有过太多关注,因为假新闻没有给人们的个人生活带来真正或是巨大的影响。近期,一款名为ZAO的人工智能换脸APP在国内推出,通过这款软件可以把影视剧中演员的脸换成自己的,并生成视频,还可以通过社交媒体传播。这款APP大获成功,在国内迅速流行起来。然而,人们在狂欢过后也发现了这款APP背后隐藏的巨大问题。很快,相关公司因为网络数据安全问题被工信部约谈。这款产品所依托的一项AI技术——Deepfake技术引起了人们的广泛关注。深度伪造技术是什么,它对人们的生活带来了哪些影响,如何看待和解决它所产生的影响?这都是亟待解决的重要问题。

一、深度伪造技术

深度伪造(Deepfake)是一个组合的新单词,它来源于“深度学习(Deep learning)”和“伪造(fake)”。是一种伪造的镜头、图像、音频或视频。其操作过程为将图像、视频、音频片段进行合并、替换或叠加,从而创建出作者需要的看起来是真实的,但事实上从未说过和做过的假的音频、视频等。这一类视频、音频可以看作是人工智能、深度学习技术或机器学习应用等技术的产品。深度伪造技术具有很强的商业价值,如在影视行业,对深度伪造技术的最初运用应当源于好莱坞,好莱坞将其运用于电影制作之中,它能够塑造科幻形象、制作人脸特效以及完成演员无法完成的特技动作。比如《星球大战》中凯丽·费雪的影像。不过,在当时这种技术并不叫作深度伪造技术,而是“图像合成”。长期以来,人们一直在用不同的工具进行合成,如19世纪60年代一张著名的照片中,林肯的头部被换到了奴隶制倡导者卡尔霍恩的身体上。这种合成图像的制作难度很大,且制作金额庞大,因此在当时没有被广泛运用。而随着人工智能等具有时代特色的技术不断涌现,图像合成技术变得十分容易。深度伪造技术应运而生,且不再需要花费大量的金钱,或是具备高超的技能,深度伪造技术变得平民化,每个人都可以轻易制作出深度伪造产品。在深度伪造技术被滥用之前,它的应用范围和目的都要单纯许多,比如用来再现影视作品中已逝的人物。在日本,一家人工智能(AI)公司Data Grid开发了一种AI应用,它可以自动生成不存在的人的全身模型,并可以将其应用到时尚和服装行业。此外,它在娱乐、教育、生物医学等方面也提供了益处,如博物馆应用、医学影像等。不可否认,深度伪造技术给人们的生活带来了许多好处,未来还可能会造福更多领域,但这一切都有一个必要的前提,即合法。但就目前而言,深度伪造技术在应用方向上出现了问题。Philip Fried在他的诗集中这样形容Deepfake:AI辅助的面部交换应用程序,可将某人的脸庞放在别人的身体上……我们总统的头自然地坐在乔治·华盛顿的身上,没有穿着富丽堂皇的长袍,而是穿着装饰着鹰头纽扣的西装[1]。

二、深度伪造技术的伦理挑战

深度伪造在技术方面给人们带来了许多便利,但深度伪造不仅只是技术问题,更关乎安全、信任和美德问题,不论是对个人隐私、网络、社会或是国家而言。

(一)安全问题

深度伪造技术严重危害了个人隐私安全。一家名为Deep Trace Labs的公司发现,目前网上有14 678个Deepfake视频,其中96%是色情视频,并且大部分都是著名女演员的脸,被转移到色情明星的身体上。不难想象,随着“ZAO”“一键脱衣”等深度伪造技术APP的应用,出于恶搞、报复等目的,普通人的脸也将出现在类似的色情视频中。印度作者Rana Ayyub在发表了一篇具有挑衅性的报道后,网络上就开始流传出一段以她为主角的色情视频,这段视频被成千上万的人传播,而后,她的家庭住址等个人信息被曝光在网络上,收到了大量的强奸威胁,这对她的生活和工作都造成了巨大影响。而这段色情视频就是被人利用深度伪造技术合成的。所以,随着该技术的普遍化,每一个人一觉醒来都有可能发现自己的脸随着某段深度伪造的视频传遍了整个网络,名誉将严重受损,个人隐私也随时可能受到侵犯,这会毁掉一个人的工作、生活,甚至生命。

深度伪造技术同样会严重影响国家安全和公共安全。2019年美国众议院情报委员会召开关于人工智能深度伪造的听证会,美国外交政策研究所研究员Watts指出:深度伪造技术可以让虚假的信息以高度可信的方式呈现给社会公众,从而操控人们情绪,引发社会广泛的不信任。且很有可能被竞争对手利用,成为进行诋毁、煽动等行为的工具。学者Tim在2018年就讨论了使用机器学习软件生成的假冒视频可能破坏2018年美国的政治竞选活动[2]。还有一些学者认为深度伪造技术会被应用到2020的美国大选上,通过深度伪造技术来夸大候选人资格、歪曲事实来伤害对方候选人、干扰个人行使其选举权的自主权等。此外,深度伪造技术还可能对公共安全产生一定的影响。2018年,印度有20人因为在网络上被人谣传绑架小孩或涉及其他罪案而被暴力打死。在国内同样也可能产生由于深度伪造技术带来的公共安全问题,其主要表现为对新闻媒体的冲击,利用深度伪造技术篡改的人物形象、口型真假难辨,如果有人利用新闻联播的视频,合成一段假新闻,就会引起大众的恐慌,影响社会稳定。

除了社会方面的安全问题,深度伪造技术的不控制发展还可能影响国际关系。Robert和Danielle认为数字音频和视频编辑技术的发展,特别是深度伪造的东西或者数字操纵的录音带或录像带会对国际关系造成危险,因为这些技术会显示出从未发生过的事件[3]。2016年美国总统大选佛罗里达州候选人卢比奥就曾将Deepfake与核武器相提并论[4]。或许现状并没有像卢比奥说得这样夸张,但事实上,深度伪造技术的发展,很有可能被不法分子利用,用来发表极端主义言论、散播虚假战争消息、煽动暴力等影响国家与国家之间的关系,从而引起全球战争。

(二)信任问题

Deepfake视频最有害的后果是:新闻报道中公众信任度的进一步削弱。以往人们往往是通过新闻媒体获取信息,对权威媒体有着很高的信任度,但随着“假新闻”的出现,人们开始对部分新闻报道产生怀疑,开始有选择的相信。而深度伪造技术导致人们对媒体报道的不信任程度加剧。因为深度伪造技术导致眼见不为实,耳听不为真。一段奥巴马嘲讽特朗普的视频曾流传网络,但事实上,那段视频是利用深度伪造技术把奥巴马的脸覆盖在了好莱坞导演Jordan Peele的脸上。在西班牙,犯罪分子利用深度伪造技术来模仿某公司CEO的声音,对公司员工进行诈骗,成功诈骗该公司22万欧元……世界各地太多的案例使得人们无法再轻易相信他们所看到、所听到的一切信息。这与马里兰大学法学教授Citron在关于人工智能深度伪造的听证会上提出的“信任衰退效应”不谋而合。

其次,该技术的存在会不利地影响其在法庭上的证明价值[5]。在法庭上,视频、音频等常常被作为有效证据。但在深度伪造技术盛行的现在,视频、音频是否还能作为有效的证据加以支撑?如何判断安防监控下的视频说的内容,做的行为具有可信度?以往都是销毁证据,把有变成无,这只是为查案增加了些许难度。而深度伪造则是“无中生有”,把证据送到警察面前、法庭之上,这类“证据”就很可能影响法官的判断和整个案件的走向。另一方面,深度伪造技术可能会成为犯罪者摆脱罪行的工具。即对于不利于自己的信息,即使该信息没有经过任何加工处理,犯罪者仍可以宣称该信息是伪造的,从而混淆视听。

(三)美德问题

深度伪造技术的不断进步,有可能使人丧失勤奋、诚信、自信等美德。

以娱乐行业为例。一位演员不再需要基本的演员素养,不需要背台词,琢磨演技,只需要一张漂亮的脸蛋,再利用深度伪造技术等AI技术进行视频、音频的合成,就可以完成大部分操作。更甚者可以直接由替身演员完成整部戏,最后用深度伪造技术把当红小生或当红花旦的脸替换上去。这从商业角度来看,似乎实现了演员和出品人的双赢。但实际上这是出品方对观众的不尊重,和演员没有职业操守的表现。这会使得娱乐行业不良风气盛行,不利于该行业的发展,也不利于社会勤奋美德的传承。同时,对于即将加入该行业、或还没有明确目标的人而言,这种风气就会使得他们不再为了梦想努力丰富自身,而是选择投机取巧,比如去整容。选择用一张漂亮的脸去敲开梦想的门,而不是用自己的专业性,这是很可怕的现象。此外,这种没有职业操守的行为会助长路人的不满。一方面,行业资源有限,十分努力但长得一般的人无法获得好的资源,会对自己产生怀疑,会对该行业产生厌恶等心理。没有进入该行业,但长相普通的人也会对娱乐明星产生怨恨等心理,认为其没有资格拥有大笔的社会财富;另一方面,对于普通观众而言,粗制滥造的作品浪费了他们的情感、金钱等。

诚信问题主要体现在两方面。一方面,深度伪造技术的发展本身使得人们的诚信度降低,不论是出于主动或被动,都有可能传播假的信息;另一方面,深度伪造技术的发展使得人们不再注重自己的言行,会逃避自己犯的错误。如在安全问题中提及的,犯罪者很可能不承认视频或音频的真实性,宣称自己是无辜的,即使该视频或音频没有受到任何处理。最后,深度伪造技术还会对人们的自信感产生影响。在网络上,不少人通过合成各色的视频来吸引观众,视频越搞笑、越疯狂,就有越来越多的人给UP主(upload的简称,指在网站上上传视频、音频或其他资源的人)点赞、打赏。UP主从大量的粉丝中获得金钱、自信和成就。然而这种自信和成就是建立在对他人音视频的剪辑上,是对他人进行玩笑的基础上。这或许是现代职业的一种成功,但也是对他人的不尊重。

三、深度伪造技术的伦理反思

人类在改造外部对象时往往会遇到力不能及的情况,于是人们开始试图制造一些工具、运用一些技术,来增强自身的某种能力,或更直观地来说,延伸人类的某种人体器官。如为了缩短在路程上花费的时间,从利用马匹、骡子等动物,到制造出可代替双腿、动物的汽车车轮,解放了人的双脚。同样的,锤子、机器都可以视为双手的延伸,解放了人的双手。深度伪造技术似乎也一样,解放了人的脸,甚至整个人体,即一个人根本无须真的出现,只要有他的照片,或一些视频,该技术就能让其出现在任何需要他出现的地方,做着任何需要他做的事情,发表着任何需要他说出的言论。这真的是人类通过“延伸”实现对外部对象的改造吗?这种改造是否真的有益于人类,是否能带给人类“好的生活”?倘若改造带来了不好的“后果”,人类又当如何应对,是否该直接放弃技术的研发?这些问题都值得深究。

深度伪造技术是对人体器官的有益延伸吗?从最初来看,是的。当深度伪造技术还不被称作深度伪造技术时,它被运用于影视业,让导演大脑中天马行空的想象得以实现,是人类想象力、创造力的延伸。但随着技术的快速发展,应用门槛的降低,该技术被许多人滥用,如A将明星B的脸安到色情视频当中,A的想法得到了延伸,但对于B而言,她是被迫延伸,更像是技术对人类的改造。这种被迫性,这种本末倒置的改造,似乎都预示了深度伪造技术相比带来“好的生活”,可能会更多地带来“不好的生活”。这种“不好的生活”也就是上文中提及的安全问题、信任问题和美德问题。从技术后果来看,一方面,深度伪造技术确实在许多方面为人类提供了便利,但这种便利性是可以用其他技术来替代的。另一方面,它也给人类、社会带来许多不确定性,如该技术被人用作混淆总统的言行,这就意味着深度伪造技术所带来的安全问题不再只是存在于个人中,也对国家安全造成了威胁。而技术造成的问题不应该比技术所解决的问题更大[6]。由此,基于伦理原则中的安全原则,不论何时、何地、何人、何种理由,都不能利用深度伪造技术对任何人的身体、精神或其他方面造成伤害。该技术的应用范围应为:个人只能应用于个人或已告知人的视频或音频制作,商业应用只能应用于需要运用该技术的领域发挥积极作用,不得应用于恶搞、虚假信息等。同时,从预防原则来看,要制定切实可行的安全防范措施来督促深度伪造技术的应用,在音视频发布之前,对于音视频的内容要加以审核,同时需主动告知音视频中涉及的人物,并获得其许可。对于深度伪造技术实际运用的过程中,应当坚持伦理优先于技术的原则。如在人工智能领域,学者就指出“应该始终把人工智能对社会负责的要求放在技术进步的冲动之上[7]”。同理,深度伪造技术也应如人工智能一样,其社会伦理问题思考应当优先于技术的发展。

不难看出,深度伪造技术给人们的生活带来了许多困扰,人们渴望避免或减少技术应用带来的负面影响。如何减少负面效果?“亡羊补牢”是远远不够的,技术伦理的新分支预判性技术伦理或许能有所帮助。在人工智能领域,学者们普遍认识到:“现阶段探讨人工智能伦理,主要是指加强人工智能设计伦理,旨在保证优先发展造福人类的人工智能,避免设计和制造出不符合人类价值和利益的人工智能[8]。”这一认识也同样适用于深度伪造技术。当前科技快速发展,带给人类巨大利益的同时也带来许多伦理问题,如何解决这些伦理问题?关键的一步就在于避免设计和推行违背人类价值观和人类利益的技术。在技术得到实际运用前,如何知晓该技术是否存在伦理问题?一项技术的发展历程包括研发、引入、扩张、权威、衰落五个阶段,其中研发阶段是技术发展的最初阶段,因此我们需要从技术的最初阶段入手,对该技术未来有可能出现的伦理问题进行预判,才能实现技术符合人类利益的最大化,满足人们要求减少或避免技术负面影响的诉求。深度伪造技术的发展不可逆,但我们可以从研发阶段入手,不研发不利于人类发展的以深度伪造技术为基础的产品,即可以研发该技术于电影行业的应用,不研发“ZAO”“一键脱衣”等产品。

基于技术发展的争论,往往会出现两大阵营,即技术进步支持者和技术保守主义者,而随着国内外各种深度伪造事件的发生,学者们对深度伪造技术的发展更多是持以否定态度。那么是否意味着应该暂停、或者放弃这种技术?赫费曾说:“应该发展一种新型的意义能力,那种未来能力是对新的、使其他意义远景保持开放的能力[9]。”也就是说,不能因为某种技术的弊端而轻易放弃它,要寻求新的人与技术的关系,尤其在充满未知的时代,要具备与风险共存的能力。另一方面,我们也不能无限制地发展技术。康德说要有使用理性的勇气和胆量,因此,要用批判精神去衡量技术的限度在哪里。即哪些是我们能够超越的界限,哪些是我们不能逾越的。或许我们可以用尤纳斯的“审慎”来回答,但这里的审慎不再是基于一种恐惧,恐惧只会阻碍技术的发展和创新。因此,我们需要赋予“审慎”新的时代含义,即对技术的力量进行正确的自我评估,使其行为一直保持在合理的限度内,不盲目信仰,不断自我完善和发展。

四、深度伪造技术的伦理对策

(一)技术治理方案

深度伪造技术正在平民化、大众化,深度伪造技术的门槛越来越低,价格越来越便宜,只要有网络、无线网络布局的地方,深度伪造产品就会随着其网络传播速度,传遍人类社会的每一个角落。因此,必须加快“反深度伪造”技术的研究。

为防止深度伪造音视频的传播,需要在传播渠道的前端进行部署,对其进行审核,禁止其发布。杨子江博士建议可建立全网“数字水印或签名”系统,所有播发的视频、图片等在播发前,需打上数字水印或签名,如果被伪造篡改,这些印记就会被破坏,从而立刻被标注为虚假信息。

网络传播具有太多不确定性,对于一些逃脱了前期识别的深度伪造音视频,或是已经存在的深度伪造音视频,需要一些技术来对其进行甄别。Haya R.和Khaled提出了“智能合约”来应对视频中的伪造内容,即不断向前跟踪数据内容的来源和历史,直至发现它的最原始来源,若原始来源方是可信任的、信誉良好的,则判定其内容是真实的。同时他们表示这一技术不仅适用于视频内容,也适用于其他任何形式的数学内容[10]。美国国防高级研究计划局(DARPA)设立了“媒体鉴证”项目,以开发能识别深度伪造视频的工具。该项目的吕思伟教授团队成功开发了一种非常简单的识别技术,即深度伪造技术生成的人脸很少眨眼,一旦眨眼,眼球运动则很不自然。该项目的其他团队也在捕捉类似技巧以鉴别深度伪造视频[11]。DARPA还计划投入大量资源来构建具有常识推理和逻辑的人工智能机器[12]。无独有偶,美国南加州大学和加州大学伯克利分校的研究人员合作研发出了新AI工具,该工具也通过每个人讲话或做表情时面部各器官的特定细节动作,来识别深度伪造虚假视频[13]。但也有学者表示,目前科技对面部有着充分的了解,通过观察身体部分的协调性等更容易分辨真假。2018年,由德国海德堡大学图像处理合作实验室(HCI)和科学计算跨学科中心(IWR)的计算机视觉教授比约恩·奥默尔(Bjorn Ommer)博士领导的研究小组,发表了一篇关于教授机器以逼真形态渲染人类身体运动的论文。奥默尔指出,由于数码相机或智能手机中面部检测技术的应用,为深度学习研究提供了大量的数据,所以对脸部的研究已经到了瓶颈阶段。由此,基于大量的数据集组装、数据整理和获取面部图像的换脸技术已经炉火纯青,很难分辨真假了。庆幸的是,奥默尔同样也表示说,脸部研究已经十分透彻,但身体有更多的可变性,处理起来也更复杂。由此,还有可能从身体部分、整体协调性来分辨真假。但事实上,这对普通人来说,进行细微的分辨相当困难。

(二)伦理和思维教育方案

技术的发展是为了更好地利用和改造自然,从而造福人类。发展技术的同时坚持一定的伦理原则,才能为技术的正确发展保驾护航。从后果论角度进行伦理思考是十分有必要的,必须要利用实践推理能力,预见一项技术在未来应用中有可能带来哪些技术和伦理问题。其次,要能够根据未来应用中可能出现的技术伦理问题的预见来决定是否继续该技术的研究,或调整该技术。从“好的生活”角度出发,以深度伪造技术为代表的技术应有一些评估标准,如技术造成的问题不应该比解决的问题更大;技术应为人类创造更多的选择,而不是剥夺人类的选择,或是让人类被迫选择;技术应具备和人类一致的价值观,符合人类利益。除此之外,正义、义务等原则也十分重要。正义能揭示利益和风险的分配是否合理,义务能揭示该技术对权利和义务的影响[14]。

社会心理学认为,我们接触到符合我们世界观的信息越多,我们越倾向认为该信息是真的。试想一下,当一则深度伪造信息出现在我们眼前,而该信息和我们认知中的信息相当符合,那么我们就很难去怀疑它。解决这一问题的有效方案就是建立批判性思维。在以往的案例中,假新闻之所以能够流传甚广,是因为它获得了主流媒体的转发,而人们对主流媒体拥有较高的信任度,因而认为该信息是真的。在当前AI技术肆虐的现在,即使是主流舆论,我们也不能盲目相信,而是应该多质疑,经过多方面印证后,再做出自己的判断。同时,还要认识到,深度伪造技术很可能被犯罪者用来逃脱罪行,因此,不能听取犯罪者的片面之词,出于同情等因素而相信罪犯。

(三)法律治理方案

从伦理学角度来看,法律手段或许并不能归为一种伦理对策。但对于一项技术的发展来说,法律手段必不可少。对于技术制约技术解决不了的问题,或是借由技术出现的错误举动,就需要采取更强硬的法律监管手段。

深度伪造技术是AI技术的一种,其他AI技术可能也存在着潜在危机,其表现出一些令人不安的范式转变[15]。因此,在每一件AI产品,如各色的APP发布和投入市场之前,必须进行伦理和法律评估。欧盟于2018年就颁布实施了通用数据保护条例(GDPR),以此将个人数据置于现行的欧盟法律的保护之下。美国加州也立法,将制作、散播“深度伪造”(deepfake)视频列入非法行为,以防止错误信息对选举产生影响。由此,国家必须制定相应的法律法规,一方面对人们的权益,如隐私安全进行有效保护,另一方面对AI产品的发布和投入进行严格审核和把控,对AI产品可能造成的伦理和实际伤害进行评估,并针对性地逐条制定法规。同时,人工智能等相关伦理委员也要充分发挥自己的作用,对技术公司发布的AI产品进行审查,该委员会应由多方面代表组成,如工程师、律师、社会学家等等。此外,AI技术公司自身也要及时自查,不能只顾眼前效益,而忽略了技术背后可能带来的社会问题。

对深度伪造技术为代表的AI技术的科技伦理和法律的审查,不是阻碍和桎梏科技的发展,而是要审视技术背后的责任和意图,以及运用技术实施的行为本身[16],为科技创新划定正确的航道和必须遵守的价值底线。同时,不能向人们隐瞒这些技术,必须将技术展示给人们,让人们保持警惕性,这才是符合道德的做法。只有这样才会真正促进科技发展,共创文明社会。

五、结语

目前,深度伪造技术在国内还没有被滥用,但从该技术在国外的应用情况来看,深度伪造技术已经相当成熟,并且严重影响了国外的社会现状。我国是人工智能发展大国,不可避免地要面对人工智能发展所带来的各种问题。随着我国国内以ZAO为代表的相关APP的推出,也代表着我国即将面临深度伪造技术的巨大冲击,我国必须即刻行动起来,从国外的案例中汲取经验,全面审视深度伪造技术在应用中所产生的一系列伦理问题,结合我国的经济、政治、文化背景,提出切实可行的伦理原则、法律法规,以及其他措施,为AI技术的发展和管理提供有效的依据,避免严重后果的产生。

猜你喜欢

伦理深度人工智能
《心之死》的趣味与伦理焦虑
深度理解一元一次方程
护生眼中的伦理修养
深度观察
深度观察
2019:人工智能
人工智能与就业
深度观察
数读人工智能
下一幕,人工智能!