“深度伪造”的风险与法律规制
——兼论《民法典》相关规则适用
2020-01-08黄家星
石 巍,黄家星
(南开大学 法学院,天津 300350)
“深度伪造”,又称“AI 换脸”,是一种基于“对抗生成网络”模型(简称为GAN)实现的技术。它可以通过对“源数据”的学习,用特定人的声音、外貌和动作拼接出虚假的声音、图片或视频。训练数据越丰富,得出的结果就会更加的难以辨别。目前“深度伪造”技术在实践中的应用较为广泛且形式多样。从输出形式来看,可以分为图片、音频、视频等形式。从被应用的对象来看,“深度伪造”既可以用在现实中存在的特定人物上,也可以“创造”出现实中并不存在的“人”,如在LinkedIn(一款社交网络应用)上一位声称为美国国际战略研究中心的研究员Katie Jones,被美联储证实只是潜伏在网络上的大量虚假人物之一,其存在目的是为了收集更多有关美国的政治情报[1]。“深度伪造”技术克服了传统“生物性识别数据”伪造技术的局限性,大大拓展了此类技术的使用范围。它的出现为社会生活提供了很多便利和崭新的可能性。例如可以使已经故去的人物在电影中高质量地“重现”。在电影《速度与激情7》中就利用了此类技术使已故的演员保罗.沃克在荧幕上“复活”。此外大众可以通过“一键换脸”等应用程序制作表情包以丰富业余娱乐生活。
值得注意的是,“深度伪造”在为社会生活带来便利的同时,也带来了显而易见的一些风险。面对这些风险,即使有学者主张,“深度伪造”不当使用的本质属于传播虚假言论,优胜略汰的法则自然会将传播中的虚假信息淘汰[2]。但类似于Katie Jones 的虚假人物,可以成为搜集情报破坏国家安全的手段。另外Deep-Nude(深裸)等应用程序的出现也让人们也不禁更加担忧个人信息安全:如果自己的照片被“移植”到色情图片或视频上并被广泛传播,又当如何处理?因而必须回答的问题是,面对“深度伪造”这种风险与受益并存的新技术,法律应该采取何种态度?我国又应当如何有力应对人工智能时代这一新挑战的出现?
目前我国针对“深度伪造”等技术可能带来的风险已经开始着手制定相关规则。《民法典》人格权编中不仅规定了处理个人信息的基本原则,同时还明确规定不得利用信息技术手段伪造等方式侵害他人的肖像权、不得任意处理他人的私密信息。《网络音视频信息服务管理规定》等法律法规更是直接针对“利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播非真实的”音视频信息做出管理规定。然而这些规则是否能够有效规制“深度伪造”风险,是否有更加完善的空间,则值得进一步探讨。有鉴于此,本文拟对“深度伪造”的发展和应用的过程进行梳理,并充分分析其可能带来的风险,以及对国外相关规则做出分析,在此基础上对我国的“深度伪造”相关规则做出评价并提出建议。
一、“深度伪造”的发展与风险
“深度伪造”中的“伪造”主要是指对于“生物识别数据”的伪造。而“生物性识别数据”指的是基于特别技术处理自然人的相关身体、生理或行为特征而得出的个人数据,这种个人数据能够识别或确定自然人的独特标识,例如脸部形象或指纹数据①。另外“深度伪造”这一概念的发展离不开人工智能时代的大背景,并建立在计算机“机器学习”的基础上,即通过“机器学习”中相关算法从大量训练数据中挖掘出隐含的规律,并将这些规律用于预测或者分类。简而言之,“深度伪造”是人工智能时代利用计算机技术对“生物识别数据”进行拼接伪造的一种新方法。
(一)“深度伪造”的出现与发展
公众对于伪造“生物识别数据”的了解和关注往往是从近几年的娱乐信息开始的。包括将明星的脸叠加在另一段视频中(例如之前广泛传播的“杨幂换脸朱茵”视频),或者使用应用软件将自己的脸拼接在明星的照片上(例如应用软件ZAO 的火爆下载)。而事实上,“深度伪造”及相关技术的发展要远远早于这个时间节点。
1.先人工智能时代的“生物性识别数据”伪造技术
在“深度伪造”出现之前,通过电子信息手段进行“生物识别数据”伪造的相关技术就已经出现并得到了运用。如在1995 年获得奥斯卡最佳视觉效果奖的电影《阿甘正传》中,主人公阿甘打乒乓球并获得总理接见的相关镜头就是通过抠像技术合成的。这一阶段的“生物性识别数据”伪造主要通过计算机图片的人像处理技术实现。该技术最早可以追溯到19 世纪50年代的光学抠图。并随着视频重构等技术的实现,得到完善和发展。
但是总体来看,这一阶段的“生物性识别数据”伪造技术并没有在社会生活中得到十分普遍的应用。首先,技术发展程度使得效果呈现水平有限,人工识别与手动抠图呈现的成像效果并不能尽如人意。其次,高额的成本决定了这一技术并不能被广泛应用,应用主要局限在电影等具备高额资金支持的领域。最后,电子技术的整体所处发展阶段决定了这一技术的风险有限。即使“生物性识别数据”可以伪造,但由于个人生物特征数据获取的渠道有限、成本较大且范围较窄,因而并不能在客观上造成相当程度的风险隐患。
因而,先人工智能时代的“生物性识别数据”伪造技术在一定程度上为“深度伪造”的出现和发展提供了技术基础和发展平台,但是由于其发展水平和所处环境的限制,并没有引发相关的社会问题和风险规制思考。
2.人工智能时代的“生物性识别数据”伪造技术
如上所述,“深度伪造”是利用计算机技术对“生物识别数据”进行拼接伪造的一种新方法,而作为“深度伪造”基础模型的GAN 技术(GAN 属于“机器学习”中“强化学习”的模型之一),由Ian J. Goodfellow 等人于 2014 年 10 月在 Generative Adversarial Networks 中提出,其核心思想来源于博弈论中的二人零和博弈。简单来说就是GAN 包括一个生成模型,一个判别模型。判别模型用于判断一个给定的图片是不是真实的图片(从数据集里获取的图片),生成模型的任务是去创造一个看起来像真的图片一样的图片。这两个模型一起对抗训练,生成模型产生一张图片去欺骗判别模型,然后判别模型去判断这张图片是真是假,最终在这两个模型训练的过程中,两个模型的能力越来越强,最终达到稳态[3]。
从2017 年起,“深度伪造”技术逐渐进入大众的视野。有一个名叫“Deepfaker”的用户在Reddit 网站利用“深度伪造”技术将色情视频中女主角的脸部与知名女演员进行替换,这一行为引起了广泛争议并最终导致用户“Deepfaker”在该网站被封号。但是这一应用趋势并未因此受到打击。用户“Deepfaker”随后直接开源了项目代码,更多效仿者随之而来。追随者们为了纪念该用户在这一领域的“贡献”,便用他的名字“Deepfake”代称“深度伪造”技术。
从2018 年开始,相关应用程序在国内外开始上线。在国外,2018 年 1 月,一个名为 FakeApp 的软件在美国开始上线,号称可实现“一键换脸”,激发了用户极大的参与热情,一时间包括恶搞名人或将自己与名人“换脸”的小视频比比皆是。同年,号称可以实现“一键脱衣”的应用程序DeepNude(深裸)也被开发了出来,然而由于巨大的风险隐患,仅仅上架几天后,研发团队就将这一应用程序下架。在国内,2019 年8 月上架的应用程序“ZAO”,一经发布便得到了大量下载,上线不到一天就出现了服务器满负荷的情况。
相对于先人工智能时代的伪造技术,“深度伪造”具有新的特点。首先,“深度伪造”技术产物具有高度真实性,使人难以分辨。人工智能背景下,通过运用机器“对抗——辨别”模型,极大提升了伪造视频等产物的外观“真实性”和辨认的难度,以肉眼的方式辨别真伪越发困难。其次,该应用具备操作简易性,即使是非专业人员也十分容易掌握和参与。虽然“机器学习”抑或“GAN 模型”对于计算机从业人员以外的非专业人士知识壁垒较高,但是相较而言“深度伪造”的应用程序却非常容易上手。如DeepFaceLab 是“深度伪造”技术的一个开源软件工具包,所有人都可以查看源代码也能免费使用,安装简单,使用方便,即使是初学者也可以顺利下载使用,在GitHub 上已获得超过5000 多星的评价。另外,“深度伪造”的应用广泛、应用成果传播范围广。同时其在互联网传播应用的背景环境决定了一旦“深度伪造”的成果在上传至网络,传播速度将十分可观,故而即使造成了不良影响也很难通过迅速的“下架”或其他方式及时应对或消除不良影响。
(二)“深度伪造”风险分析
“深度伪造”技术的不当使用可能会造成对个体、社会、国家三个层面的影响:
1.个体层面的风险
首先,“深度伪造”可能对个人的人格权和财产权带来威胁。从人格权保护看,个人的隐私权、名誉权等都极有可能因为“深度伪造”的不当使用而受到损害。现代社会中,个人的信息隐私权不再局限于对私生活秘密的消极保护,而是更加注重对于个人信息的控制和自决,德国将此种权利称为“控制自己资讯的权利”或称为“资讯自决权”[4]。即个人有决定自己个人信息使用的方式,而“深度伪造”其训练替换样本的获取往往并没有取得相应权属人的同意,对其信息隐私权造成了侵犯。另外被传播的“深度伪造”技术制作成果,由于一些不恰当的使用方式,从而可能该内容具有贬损他人名誉、降低他人社会评价的性质,对个人的名誉权造成损害。从财产权保护来看,由于形象声音逼真、辨认难度大,利用“深度伪造”这一技术进行诈骗的事例并不罕见。据《华尔街日报》报道,今年3 月份,有犯罪分子使用AI 技术成功模仿了英国某能源公司在德国母公司CEO 的声音,诈骗了220,000 欧元(约1,730,806 人民币)。
另外,“深度伪造”技术的使用有可能对特定人群造成更大的风险和压力。虽然“深度伪造”使所有人都有暴露在受到侵害的风险中的可能性,但是从目前的实践情况看,“深度伪造”的实践应用涉及到的具体群体并不相同。例如类似于DeepNude(深裸)利用“深度伪造”技术合成色情视频的应用程序,会对女性造成更大的影响。根据关于深度追踪的一份报告的内容,该报告在2019 年6 月和7 月的最新统计中显示了14698 个深度伪造视频,该数量在七个月内增长了84%。其中绝大多数(96%)包含以女性为特色的色情内容[5]。而当运用这种应用程序进行“一键合成”的色情视频在互联网上发布传播后,其中“被露脸”的当事人不可避免的将会受到就业、人身安全等诸多方面的困扰,正常的生活秩序势必被破坏。正如佛兰芒广播公司驻外记者汤姆·范德韦格所言,“受威胁最大的不是大人物,而是像你、我、女记者这样的普通人,以及某种程度上的边缘群体,他们可能成为或已经成为深度伪造的受害者。”
2.社会层面的风险
“深度伪造”可能造成社会信任层面的风险。“眼见为实”这一俗语准确的表述了人类长久以来的信赖判断标准:如果亲自看到或听到了一件事,那它必然是可信的。同时视频和音频等传播载体的出现极大的拓展了经验判断的来源基础。但“深度伪造”的技术的出现,使这一标准从根本上被动摇。“深度伪造”通过“生物性识别数据”的拼接和伪造,以“训练——替换——对抗”的方式,制造出“高仿真”的成果,其试图实现的最终目标就是“以假乱真”。而肉眼和人工智能的对抗,显然人类处于这场“真假博弈”的下风,必须在“深度伪造”的时代接受这样一个事实:你所见的并不一定是真的,你所听的不一定是存在的。
在瓦解传统信赖判断标准的同时,信任风险必然有所上升,从而对社会的诸多方面造成压力。首先,从社会秩序看,“深度伪造”应用传播的虚假信息可能对正常的社会秩序造成破坏,大众很容易被误导,因而形成不必要的恐慌。其次,“深度伪造”对于传统信赖标准已经形成了挑战,但是相应的新的信赖标准却并未出现,这就导致了“标准缺位”的情形,在这种情形下,个人判断很容易走向极端。另外,传播速度之快,加深了这些风险的威胁。其传播影响和传播过程具有同步性,即使迅速采取应对,也几乎不可能在影响形成之前采取行动,因而只能采取一种“事后性”的被动弥补方式处理。
3.国家层面的风险
“深度伪造”在国家层面带来的风险主要包括三个方面:国内政治风险、国家间关系风险、恐怖主义的威胁。
“深度伪造”技术对国内政治稳定的威胁并非“天方夜谭”。哈佛大学肯尼迪政府学院下属的Belfer 研究中心曾在《AI 与国家安全》报告中指出:“敌对国家的网络间谍在窃取一国的真实机密文件后,同时泄露真实文件和一些伪造文件,然后再利用深度伪造技术合成相应的音、视频材料来佐证这些伪造文件。通过这种途径,伪造文件的可信度将极大提升,因而可以借以操纵公众舆论,影响国家政权稳定。”当然实践中可操作的形式远不止用于伪造文件的辅证,而政治参与者们似乎寻求从中获取不当收利且无意抵制“深度伪造”的不良影响。正如一名法新社记者所说“政客没有改变这种状况的动机,并且存在利益冲突,因为这些分发假材料的平台会帮助他们赢得大选”[6]。甚至一些国家已经开始将“深度伪造”技术作为“信息战”的手段之一加以大力开发。美国陆军网络司令部负责人斯蒂芬·福格蒂中将曾表示:“我们需要具备攻击性和防御性的自主能力。事实上,我们能够实时捕捉在互联网上发布的有误导性质且有影响力的内容,并迅速以其人之道还治其人之身”[7]。
同样的,“深度伪造”的应用可能对国家间的关系造成影响。比利时的社会党安德斯曾运用“深度伪造”技术于2018 年5 月在Facebook 上发布视频,内容显示特朗普嘲讽比利时继续加入巴黎气候协议。当然这一事件由于视频制作较为粗糙,真假辨别难度较低因而并未真实的影响到比利时与美国之间的关系,但试想随着“深度伪造”技术的发展和应用的深化,若被别有用心的人士应用,则很难预计最终的影响。不仅有可能威胁国家间的正常关系,还有可能被用作“舆论战”的手段,恶化国家间的关系,最终甚至走向战争。
此外,“深度伪造”如果被恐怖组织加以利用,将对世界和平安全造成极大的威胁。例如米德尔伯里国际研究中心恐怖主义、极端主义和反恐中心(CTEC)的研究人员认为,恐怖组织可以利用GPT-2(一种利用“深度伪造”技术的应用工具)和其他类似的组织来宣传白人至上主义、伊斯兰圣战主义和其他具有威胁性的意识形态。可以说,“深度伪造”技术为恐怖主义的提供了新的舆论混淆手段和宣传手段,恐怖组织可以通过利用其真假难辨的特性,散步虚假信息,制造动荡局面,进而威胁国际安全。
二、“深度伪造”的规制与评价——以美国为例
(一)规制的可能性与必要性
技术作为一种对于自然运行客观规律的捕捉和利用手段,本身的客观性是毋庸置疑的。正如布莱恩·阿瑟所言:“本质上,技术是被捕获并加以利用的现象的集合,或者说,技术是对现象有目的的编程”[8]。“深度伪造”这一技术也不例外。它可以被应用至电影制作、人像复原等领域,也可以作为诈骗、勒索、色情传播的手段危害社会。从这一点看,正如“技术中立”价值论倡导者的判断,“深度伪造”技术本身不应当成为被限制的对象。
然而,技术是否可以排除其主观性的一面,答案是否定的。存在主义哲学大师海德格尔认为:“人尽皆知对我们这个问题有两种回答。其一曰:技术是合目的的手段。其二曰:技术是人的行为。这两个关于技术的规定原是一体的,因为设定目的,创造和利用目的的手段,就是人的行为”[9]。技术追求对客观规律的捕捉和利用,只能说明其来源和内容是客观的,而技术之所以存在和之所以被应用,则体现了技术创造主观性的一面。技术一旦进入社会领域,必然会被社会制度、社会组织和社会群体的各种利益、诉求和价值判断所塑造和限制[10]。如果片面的强调“技术中立”,将会不可避免的导致技术功能与实践后果的分离。也就是说,技术为人所创造使用,但是发明人和传播使用者等却能完美规避一切来自法律的负面评价。这显然是不合理的。
由此可见,技术本身由于其来源和内容,具有客观性;同时由于其用途和使用目的,具有主观性。从风险规制的角度,应当主要从其主观性一面入手,也就是以对技术发明者、使用者、传播者为切入点,合理规制技术风险。
因而具体到“深度伪造”的规制判断问题。首先,应当肯定这一技术存在的客观合理性,“深度伪造”本身不应当直接受到法律的负面评价,脱离使用而单纯的对于“深度伪造”进行规制既无必要也无可行性。其次,“深度伪造”技术不应当直接被法律所禁止,但并不等于“深度伪造”的参与者不应当受到来自法律规制。换句话说,对于“深度伪造”的规制应当从其参与者入手,包括发明者、应用者、传播者等方面,以规制“深度伪造”发明使用目的为路径,实现“深度伪造”的合理使用,避免该技术对个人、社会、国家造成的诸多方面的风险。
(二)“深度伪造”的规制路径——以美国为例
目前各国已经开始在法律层面采取手段寻求规制“深度伪造”的应用风险。其中以实践较为典型的美国为例。
1.既存规则体系简介
美国是最早开始对“深度伪造”进行规制的国家之一。2018 年以来,随着“深度伪造”技术的广泛应用与风险事件的不断提示,美国在“深度伪造”的法律规制方面也加快了步伐。目前,既存关于“深度伪造”的规则来源较为复杂,主要分为以下几类:第一类,是从“深度伪造”自身的角度进行规制,包括《2019 年深度伪造报告法案》、《深度伪造责任法案》等;第二类,是以“生物信息保护”的角度进行规制,包括伊利诺伊州颁布在2008 年颁布的《生物信息隐私法案》、德克萨斯州在2009 年颁布的《生物识别信息获取使用法》②等;第三类,是从具体风险(如色情传播、选举影响等)规制的角度进行规制,包括弗吉尼亚州2019《非同意色情法》修正案、德克萨斯州《关于制作欺骗性视频意图影响选举结果的刑事犯罪法案》等。
2.规制的起点与变迁
如何看待“深度伪造”决定了其规制的起点。一方面,对“深度伪造”进行规制,显而易见的一种规制路径是以其本身作为规制切入点,即直接围绕“深度伪造”的不当应用进行规制。另一方面“深度伪造”的本质是“对生物识别数据进行伪造的一种新技术”,通过以“生物识别数据”的保护实现抑制“深度伪造”不当使用带来的负面效应,也是一种可行的路径。
美国对于“深度伪造”的规制经历了两个阶段的路径变迁。在2019 年以前,美国对于“深度伪造”的规制,主要是通过对“生物识别数据”的保护实现。无论是伊利诺伊州的《生物信息隐私法案》还是德克萨斯州的《生物识别信息获取使用法》等均是在此之前制定。在2019 年以后,美国对于“深度伪造”的规制,主要是通过直接规制实现,例如《2019 年深度伪造报告法案》和《深度伪造责任法案》等。
造成这一情况的原因主要由于“深度伪造”技术虽然从2014 年开始就获得了技术上的突破,但是直到2017 年才开始被广泛应用,之后在实践中逐步暴露的风险引起了人们的广泛注意。因而“深度伪造”带来的是全新的挑战。同时基于法律滞后性的固有特点,开始针对“深度伪造”进行法律规制的时间必然更加后置。相对而言,对于“生物识别数据”的保护意识觉醒的更早,所以试图实现对“深度伪造”的风险进行最及时有效的规制,显然应当在既存规则中寻求答案,故而第一个阶段的选择是被动的选择。这一阶段针对“深度伪造”的规则存在诸多不完善之处。如伊利诺伊州在2008 年颁布的《生物信息隐私法案》,其目的在于规范“生物标识符和信息的收集,使用,保护,处理,存储,保留和销毁”,但是却明确的将“照片”等形式明确的排除在该法的限制范围之外。这样一来,使用照片进行“深度伪造”应用的方式就无法得到有效的规制。
如果说在第一个阶段对于“深度伪造”的规制是被动的,那么当充分掌握了“深度伪造”的运行机制及使用可能性后,美国重新站到了选择的“十字路口”:是选择“深度伪造”作为规制主体抑或是继续以“生物识别数据”作为规制主体。不同于欧盟始终将“生物识别数据”作为规制主体的路径选择,美国转而开始积极尝试针对“深度伪造”的直接立法。这主要反映了美国对于“深度伪造”带来巨大风险的担忧,以及直面修复这些风险危机的决心[11]。同时需要明确的是,“生物识别数据”的范围以及涉及的法律问题与“深度伪造”有重叠但不重合,美国对“深度伪造”选择的直接规制路径并不代表对“生物识别数据”的立法规制的放弃。事实上,例如《2019 商业面部识别隐私法案》等关于“生物识别数据”新的立法正在进行中。
3.针对“深度伪造”应用风险的具体规制安排
《2019 年深度伪造报告法案》直接以“深度伪造”为主要规制对象,在这份法案中,首先规定了“数字伪造”的定义,即“通过使用新兴技术(包括人工智能和机器学习技术)来制造或操纵音频,视觉或文本内容,以期产生误导”。可以看到在这份关于“深度伪造”的报告中并未直接使用“深度伪造”的定义,采用了概念外延略大于“深度伪造”的“数字伪造”定义,在有效涵盖“深度伪造”概念的同时合理扩大了该法案的适用范围。其次规定了关于“数字伪造”技术的“定期报告”制度,根据该法案,国土安全部的秘书处应在该法案公布的一年内公布第一份报告,并在其后的每五年进行报告。报告的内容包括基础技术评估、类型描述、损害国家安全评估、用途等八个方面的评估内容。这些方面涉及的范围较广,几乎包括了实践对于“深度伪造”使用较为关切的所有问题。采用报告的形式进行监督,在主动掌握“深度伪造”的发展趋势的同时并不对“深度伪造”本身产生不合理限制,平衡了技术的发展和监管的需要。
另一个关于“深度伪造”的最新实践是2019 年6月12 日美国国会众议员Yvette Clarke 提出的《深度伪造责任法案》。该法案主要要求视频创作者对发布修改视频负责,并通过不同形式的“自我披露”以实现与真实视频的区分,否则将会根据产生的不同后果受到刑事或者民事处罚。其目的是“通过限制深度伪造视频更改技术来防止虚假信息的传播”,在制度设计上更加严格,并且在一定程度上实现了与其他法律部门的衔接,使“深度伪造”不当使用行为的法律责任更加明确。
在具体风险的规制方面,对于政治方面风险的规制主要集中在“深度伪造”对选举等政治活动的影响上。加利福尼亚州的AB 730 法案规定,将在2023 年1月1 日之前禁止个人、委员会或其他实体,在选举中出现选民候选人的选举之日起60 天内,分发带有实质性的具有欺骗性的音频或图像的恶意内容,否则将面临诉讼和赔偿的风险。但是如果媒体等传播主体做出了如实披露或提示,则可视具体情况得到豁免。但由于其只适用于开始选举之日起60 日内具有“真实恶意”的“深度伪造”内容,使其适用范围和实际效力不得不大打折扣。此外德克萨斯州也通过了保障选举安全的专门的深度伪造法,即《关于制作欺骗性视频意图影响选举结果的刑事犯罪法案》,将利用Deepfake等技术制作或发布“深度伪造”视频企图伤害候选人或干扰选举的行为定义为刑事犯罪。
对于个人权利的保护主要体现在规制“深度伪造”色情产物传播上。例如弗吉尼亚州2019《非同意色情法》修正案将“深度伪造”的情况纳入非自愿色情禁令的范围中。该法禁止“意图胁迫,骚扰或恐吓”他人传播裸体图像或视频,否则可能构成一级轻罪,最高可判处12 个月监禁和2500 美元罚款。这一安排针对的是目前实践中“深度伪造”在色情视频传播中的不当应用趋势,通过将“深度伪造”的情况纳入非自愿色情禁令的范围等手段能够遏制这一趋势,从而保护女性等容易在这此过程中受到影响的群体。
(三)现有规则的评析
总的来说,目前美国面对“深度伪造”的风险作出了较为及时有效的回应,但是其制定的相关规则仍然存在着以下不足之处。
首先,对滥用者惩罚力度不足。对“深度伪造”行为进行规制的完整逻辑链可以表述为:行为——识别——规制。对于“深度伪造”滥用者的规制,效应不仅体现在“规制”端,而且可以通过法律的指引作用将监管力度延伸至“行为端”,从而实现较好的实践效果。但是目前关于美国“深度伪造”滥用者的惩罚力度存在着一些的质疑的声音。例如Deep Instinct 的罗森伯格认为,“滥用者被抓到的风险很小。因为风险低,所以制造深度伪造几乎没有威慑力。而这会加剧散布深度伪造的假冒者的胆识”[12]。当然这不仅需要法律规则的完善,同时还需要技术的配合,提高滥用者违法行为的风险,改善“深度伪造”滥用低成本、低风险的现状。
其次,平台责任的设置不尽合理。正如前文所述,“深度伪造”的成果传播平台是互联网。而互联网无形性、迅速性的特点决定了“深度伪造”的不良应用一旦开始传播就很难停止并消除其不利影响。而传播平台作为重要媒介,如果在传播伊始就能够及时制止,那么“深度伪造”的负面应用风险就会大大降低。技术公司在虚假信息辨别的问题上,扮演者重要的“守门员”角色[13]。但在这一点上仅凭传播平台的“自觉性”是远远不够的。虽然一些网站已经开始积极采取措施应对“深度伪造”,但是基于《传播净化法》中的第230 条的免责规定,这些网站仍然缺乏来自法律上动力应对“深度伪造”的产物,许多“深度伪造”视频目前仍在网络上广泛传播[14]。有学者提出可以以修正案的方式对此进行修改[15]。但是到目前为止,还没有进一步的实践进展。
最后,整个体系应进一步完善。目前保护的并不全面。尽管刑法为伪造传播虚假信息的行为编织了貌似严密的法网,但实际上,只要视频信息并非承载特定的内容(如军情、险情、色情等),或直接从事违法犯罪(如诈骗、盗窃等),现有“换脸视频”的绝大多数情形都在刑事法网之外[16]。这一点与现实的迫切性形成了鲜明的对比,因而必须做出以联邦刑法为基础,以”深度伪造“色情产物为中心的国家对策,因为每个人都会是潜在的受害者[17]犯罪。(尝试xxx 罪美国)总体来说,“深度伪造”仍然属于比较新的问题,需要规则与实践进一步互动与改进。
此外,针对“深度伪造”的风险进行规制同时,也必须考虑规制手段与其他价值的互动与界限,以避免损害规制手段的有效性。例如,立法机构必须在表达内容本身和内容表达的中介或来源的特点上划清界限,以保证言论表达的自由[18]。
基于已有资料及图件,采用地统计学、空间叠置等空间风险方法,依次叠置求交集划定相关类别单元的边界,最后划定为相对均一的风险评价单元。在地理单元的基础上,对受同一污染源影响、且污染程度相似的区域原则上划为同一风险评价单元,具体需综合考虑点位风险评价结果、区域污染源类型因素,结合土地利用方式、地块边界等因素综合确定风险评价单元的区域和边界(图2)。
三、我国对这一问题的应对
目前我国已经充分认识到随着“深度伪造”等新技术新应用在网络音视频领域的运用,传播违法和不良信息、侵犯人民群众合法权益等风险隐患进一步集聚、放大,可能被利用从事危害国家安全、破坏社会稳定、扰乱社会秩序、侵犯他人合法权益等法律法规禁止的活动,造成政治安全风险和国家安全、公共安全风险,对社会稳定造成不良影响③。并及时制定了相关规则进行规制。规制方式与美国较为类似:一方面通过“生物信息”的保护以避免“深度伪造”的不当应用,另一方面直接针对“深度伪造”的不当应用做出限制(通常以“虚假音视频”、“非真实音视频”等名称指代)。
通过“生物信息”进行规制的相关法律涉及数据收集、数据主体同意、数据传播等各方面。《民法典》第1034 条以及第1035 条规定,包括生物识别信息在内的自然人的个人信息受法律保护。处理个人信息的,应当遵循合法、正当、必要原则,不得过度处理关于数据收集的目的限制,《数据安全管理办法(征求意见稿)》第24 条规定,网络运营者不得以谋取利益或损害他人利益为目的利用大数据、人工智能等技术自动合成信息。
除此之外,关于“深度伪造”等技术对“生物信息”不当使用的风险规制,《民法典》第1019 条规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。从而扭转了《民法通则》规定下“非盈利肖像使用”追责难的局面,并充分限制了以“深度伪造”为代表的信息技术伪造手段对个人肖像权的侵害。而就“深度伪造”在色情应用上的风险,《民法典》第1033 条规定,除法律另有规定或者权利人明确同意外,任何组织或者个人不得处理他人的私密信息。从“私密信息”的处理限制入手,以实现“深度伪造”等色情应用的传播。
对“深度伪造”的不当应用的直接规制,我国仍处于初始探索阶段。2020 年1 月1 日起施行的《网络音视频信息服务管理规定》规定“利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播非真实音视频信息的”必须进行标识。对于其中违法违规内容网络音视频信息服务提供者应及时停止传输该信息,并采取消除等处置措施,防止信息扩散。并且明确了和其他部门法规的衔接关系,明确了法律责任。其中第十八条规定,网络音视频信息服务提供者和网络音视频信息服务使用者违反本规定的,由网信、文化和旅游、广播电视等部门依照《中华人民共和国网络安全法》《互联网信息服务管理办法》《互联网新闻信息服务管理规定》《互联网文化管理暂行规定》《互联网视听节目服务管理规定》等相关法律法规规定处理;构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
另外,我国在应对“深度伪造”风险规制方面,与美国相比,优势之一在于明确传播平台的审查责任。关于传播平台的审查,网信办已经会同有关部门制定出台了《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》,其中规定各互联网信息服务提供者需要自行或者委托第三方开展安全评估。这一规定明确了互联网信息服务提供者的责任,但不足在于适用范围较窄,仅限于具有舆论属性或社会动员能力的互联网信息服务的平台。更广泛的平台责任安排,则由《网络音视频信息服务管理规定》直接规定:网络音视频信息服务提供者基于新技术新应用上线具有媒体属性或者社会动员功能的音视频信息服务,或者调整增设相关功能的,应当按照国家有关规定开展安全评估;网络音视频信息服务提供者应当加强对网络音视频信息服务使用者发布的音视频信息的管理,部署应用违法违规音视频以及非真实音视频鉴别技术;网络音视频信息服务提供者针对深度学习、虚拟现实等的虚假图像、音视频应建立健全辟谣等机制等。
可以看到我国对于“深度伪造”的风险规制尽管处于初始阶段,但是仍然建立起了比较完善的规制机制。在信息收集阶段,通过目的限制与征得数据收集主体同意等要求,使数据主体增强对个人生物特征信息的掌控。在“深度伪造”技术的使用阶段,在安全评估、信息标识、违法违规信息处理、辟谣机制的建立等多角度完善了网络音视频信息服务提供者的责任机制,以有效遏制“深度学习”可能产生的负面影响。在未来关于“深度伪造”的规制完善方面,应着重注意以下几点:
(一)在知识产权保护等问题上还需要进一步的完善
按照我国知识产权的相关规定,视频作品的作者享有作品的完整权,不受任意修改的权利。当原始视频被曲解、编辑、修改之后,原作者的知识产权就受到相应的侵害[19]。因而“深度伪造”的不当使用也很可能使权利人知识产权被侵犯,但是就目前的立法现状来看,不论是我国还是其他等已经开始针对“深度伪造”的不当使用进行规制国家,都很少关注“深度伪造”的不当使用与知识产权保护之间的问题。关于这一点,应当参考《网络音视频信息服务管理规定》第十八条中关于“深度伪造”不当使用行为与刑事责任等进行衔接的方式,在未来的立法中将“深度伪造”的不当应用与知识产权法上的相关法律责任加以关联。
(二)需要注意平台责任的平衡
需要注重进一步发挥行业自治规范的效力,尽快完善相关技术标准。关于“深度伪造”等新技术的风险规制,就像是一场“猫鼠游戏”,随着“深度伪造”技术的“日臻完美”相应的检测技术也必将随之一同发展。为了使检测辨别方法更加有效,除了例如在《网络音视频信息服务管理规定》中强调的“深度伪造”内容主动标识义务,同时还应当促使相关辨别技术标准逐步完善,并充分发挥行业自治效应。目前我国的互联网企业还没有采取相关行动,但是谷歌和微软等国外大型互联网公司已经采取了一些积极的方式加以应对,例如发布深度伪造视频数据集,帮助识别AI 换脸视频;培养专门人员进行“深度伪造”内容识别工作等。这将不仅有助于“深度伪造”的风险防范,还有助于互联网企业的自身发展。
在人工智能时代,诸如“深度伪造”等新技术带来的风险对人类构成了一些新的挑战。面对这些风险,从法律的角度进行规制仍然是一种十分有效且必要的方式。而对任何一种技术带来的风险进行规制都必然面临技术中立和价值判断的矛盾。技术本身不应当成为限制的对象,否则将打击技术发明的热情甚至限制科技的进步。但是科技的使用必须受到合理的限制,面对技术过于“怯懦”的态度将会放任科技风险对人类社会的威胁。实现这二者间的平衡,是规则制定者长期必须面对的难题。
注 释:
①欧盟《一般数据保护条例》第4.11 条。
②具体位于《德克萨斯州商法典》(BUSINESS AND COMMERCE CODE)第11 节个人身份信息。
③《国家互联网信息办公室.国家互联网信息办公室有关负责人就〈网络音视频信息服务管理规定〉答记者问》,http://www.cac.gov.cn/2019-11/29/c_1576561821173892.html.