可怕的“深度伪造”技术
2019-12-10苗争鸣
苗争鸣
人工智能、大数据、深度学习等新兴技术的广泛应用深刻影响着国际安全的各领域:一方面,技术变革为国家间交流融合提供机遇;另一方面,新技术的不当使用冲击现有国际秩序和规范。其中,借助机器学习系统、操纵图像视频和音频内容,更改人脸、物体或环境呈现方式的“深度伪造”(Deepfake)技术,借助海量训练数据,生成众多虚假视频和音频新闻,使辨别信息真伪变得困难,人类已无法信任看似真实的视频内容,若不能及時规范此类行为,国际信任体系面临崩塌风险。
“深度伪造”技术的起源
“深度伪造”是使用被称作“生成式对抗网络”(Generative Adversarial Networks)的机器学习模型,将图片或视频合并叠加到源图片或视频上,借助神经网络技术进行大样本学习,将个人的声音、面部表情及身体动作拼接合成虚假内容的人工智能技术。这种技术能对声音、图像或视频进行数字处理以模仿某特定人物,并且随着输入神经网络的训练样本量不断增加,训练生成的数据和图像会越来越逼真,以至于观察者最终无法通过肉眼明辨真伪。
“深度伪造”已经成为“视频换脸”的代名词。一般来讲,面部伪造分三个步骤:首先,提取来源图像和目标图像数据;其次,借助神经网络编码器和解码器训练面部替换模型;最后,生成伪造图像。当前“深度伪造”技术主要有四种类型:第一种是借助软件更换面部,也是目前为止用得最多的,例如已被我国禁用的换脸软件“ZAO”;第二种是操纵人脸动作,重塑表情、口型和速度,让其发表非其真实意图的言论,如特朗普在推特上转发并大加嘲讽的美国众议长佩洛西说话结巴的伪视频;第三种是借助深度学习技术,创建在现实生活中并不存在的面部图像,如在职场社交平台领英(LinkedIn)中被称为“数字间谍”的凯蒂·琼斯(Katie Jones),就是人工创造的虚拟头像,目的是收集政府官员信息;第四种是将面部表情与声音结合,借助深度学习,创建声音模型,如最近有犯罪分子创建德国某集团公司总裁的声音模型,成功骗取其英国分公司几十万欧元的案例。
美国一个视频网站展示的使用“深度伪造”技术生成前总统奥巴马发表谈话假视频制作过程。
面部伪造技术可追溯至20世纪60年代,当时计算机生成图像首次出现,到80年代,好莱乌制片商开始使用“换脸”特效技术,比如在电影《阿甘正传》中男主角受到肯尼迪总统接见的片段。1997年出现了视频重构技术,能将音频和视频同步。2014年,美国蒙特利尔大学研究人员将两个神经网络放在模块中竞争学习,一个是伪造图像的生成模型,另一个是鉴别模型,在几乎没有人类监督的情况下,通过博弈相互训练,极大地发展了“深度伪造”技术。目前“深度伪造”技术被情报部门、电影厂商和技术公司日益广泛地使用,普通民众也可借助软件制作视频在网上散播。
对国际安全的影响
“深度伪造”技术能够搅浑舆论场。社交网络的信息传播速度远超传统媒体,“深度伪造”的视频借助病毒式传播手段快速扩散,即使有关产品被中途封杀,也能在起初的很短时间内造成社会影响。研究表明,政治类假消息比经济、科学、自然灾害类更易被关注,而现在世界各国司法系统均已接受依赖视频及音频作为可采证据。这种技术如被不法分子利用,有计划地进行虚假宣传,将能把持舆论走向。“深度伪造”技术还可根据用户偏好,有针对性地向特定目标推送加工过的合成视频内容,塑造和加深标签用户的价值观和态度,诱导其放弃区分事实真相的意愿。
“深度伪造”技术增加误判几率和战争风险。信息已成为新兴资源和数字财富,网络空间不断发生着利益冲突和信息战争,加上网络空间追踪溯源技术仍比较弱,也就成为虚假视频的温床。未来,一条合成的虚假视频可能撬动国际安全秩序,增加战争爆发的风险和对国际局势误判的几率。比如,伪造白人虐待有色人种视频可煽动起种族冲突,伪造一国政要和明星煽动性言论可激化国家间矛盾,散播关于生物病毒、核打击和恐怖活动的假新闻可引发社会恐慌和动乱,甚至能在投票前夕最关键阶段直接影响一国选举结果。
“深度伪造”技术也能侵蚀国际信任体系。信任是国家和社会运行的根本,也是国家间交往的基础,自音频与视频技术记录了众多历史事件,塑造了社会价值观和思想。欺骗者可以借助“深度伪造”技术制造传播伪造的声音、图像及视频,或将真视频指鹿为马为假视频,以达到欺诈公众、进行污蔑性宣传、颠覆政府公信力的目的。当广大民众开始下意识地怀疑所看到的一切影像资料时,国家和世界信任体系的崩塌就开始了。
如何应对
可借助技术手段进行前期甄别。如何跟踪和验证数据内容来源,是国家在网络空间面临的重大挑战,掌握检测、识别、追踪溯源和打击伪造数字内容的尖端技术能力至关重要。若通过可信的技术手段追踪数字内容(包括虚假视频、图像、音频等)的历史,就能追溯并证明其原创性和真实性,帮助用户进行识别。美国国防部高级研究计划局已着手研究如何检测虚假视频,提出使用递归神经网络和胶囊网络技术检测和鉴别伪造视频,并借助区块链技术,追溯视频来源。也有网络巨头和视频网站设置了检测虚假视频的算法,在视频上传时进行筛选和拦截,还通过设置视频水印和“数字指纹”等办法确定视频来源。政府部门也可借助“数字取证”技术,如检查视频是否存在因修改视频构建方式产生的生理性结构不一致现象,包括视频中人物皮肤颜色和背景变化是否协调、所记录的声音与场景是否一致等。
必须依靠法律和规范来进行事先预防和事后惩治。技术使用的本身并无对错,但必须有相关制度和法律配套。传统的法律和政策无法及时惩治非法使用“深度伪造”技术的行为。2018年12月,美国国会定义了“深度伪造”概念,并通过《禁止恶意深度伪造法令》。2019年6月,美国国会众议院情报常设委员会召开关于人工智能操纵媒体和“深度伪造”技术对国家安全挑战的公开听证会,专门了解“深度伪造”和其它人工智能合成数据的隐患。纽约立法部门也在推动一项将数字资源定义为个人财产的法案。新加坡最近通过立法,允许政府下令删除社交媒体平台上的虚假内容。
构建国际技术联盟和共同维护网络安全社会的文化。一国法律手段能够对国内犯罪人员追究诽谤罪或传播虚假信息罪,但对跨境散布的伪造视频却难有约束力。所以,应推动建立国际技术联盟和区域性技术应急组织之类的机制,合作解决“深度伪造”可能带来的问题,未雨绸缪布置跨国应对之策。
由于网络空间的特殊属性,追溯和定位视频发布者存有难度,且由于视频传播具有时间空隙,无法及时消除虚假视频带来的危害,网络空间防御的成本远大于进攻,且防御措施未必能确保奏效,在信息化时代应对新技术给社会稳定和国际安全带来的冲击任重道远。技术从业者,专注于解决工业界具体的需求和问题,对技术伦理和社会影响关注较少,面对技术的快速更新换代,明确新兴技术对伦理道德和国际安全的影响,需要由社会科学工作者参与把控。计算机科学、社会科学和人文学科研究人员应跨越学科界限,协同营造技术文化的生态圈,把“深度伪造”技术的威力限制在笼子里。技术检测和法律管控的手段必不可少,也需要科技巨头以及各国间达成共识,促进数据和隐私保护,并推广能够鉴别虚假信息的系统,提高社会公众的风险和防范意识。