利用AI变脸技术违法犯罪的应对对策
2020-03-12翁杰吴洁虹
翁杰 吴洁虹
(潮州市公安局网警支队,广东 潮州521000)
AI变脸技术,简单来说就是人工智能脸部替换,和PS不同的是,这项技术不仅可以生成图片,还可以生成视频,而且并不需要懂得那么多的技术,只要收集到足够素材,程序的AI就可以帮忙自动完成,完成后表情和口型会非常自然。但是,随着这项技术的发展及普及,给案件侦办、电子数据取证等带来不容忽视的隐患。本文立足网警工作实际,通过梳理该项技术的概况,分析可能给公安机关带来的挑战,就更好地防范应对提出思考性意见。
1 AI变脸技术的概况
研究发现,最早出现AI变脸技术是2017年12月,一个名为“DeepFakes”的用户在Reddit上发布了一个“假视频”,视频中的艺人其实是后期加上的,但是看起来几乎毫无破绽。随后,更多人对深度学习的AI新技术进行深入研究,笔者从中了解到利用该项技术,只需要把一个视频或者上百张人物的样图输入至一个算法,就能完成人脸交换,制作出非常逼真的视频效果。
而随着AI变脸技术被开源,大量开发者对该项技术进行解读及优化,相关人员也开发出不少“傻瓜式”的工具,如Openfaceswap、Faceswap、Fakeapp、Myfakeapp、DeepfaceLab等应用程序,并且还有很多人编写了变脸的教程。笔者通过下载Fakeapp及教程进行测试,发现这类“傻瓜式”的工具有如下特点:
(1)硬件要求非常低,软件通过优化,对GPU要求已经非常低,2G的nvidia显卡已经能运行该软件;
(2)操作极其简单,点鼠标就能完成整个过程;
(3)素材要求不高,只要目标对象一段几分钟的视频,它就会自动提取脸部特征,自动计算,并自动换脸,变脸后效果还可以。
通过这些可以预见:AI变脸技术开源后大量“傻瓜式”的程序被开发出来,人人都可以实现深度变脸。
2 利用AI变脸技术违法犯罪的种类
通过调查研究,笔者发现“AI变脸技术95%的换脸视频无法被识别”。而在2019年1月,荷兰DeepTrace实验室发布了一份Deep-Fake发展报告,数据显示2018年“deepfake”关键词的谷歌搜索次数比2017年增长了1000倍,也就是说,AI变脸技术正在被越来越多人使用,而且用途不明。
在这种前沿技术面前,每个人都可能成为潜在的受害者。如果被不法分子利用,将可能进一步衍生各种网络犯罪、网络安全事件,给公安机关带来更大的挑战。
2.1 侵害公民人身权利
随着该项技术被开源及“傻瓜式”的工具的开发,“变脸”功能开始被公众使用,甚至是被有心人士广泛用于涉黄视频。据调查,不少国内外一线小花被人工合成的视频都被不法分子上传到了色情网站上。尽管谷歌于2018年9月在其搜索引擎名单中添加了针对“非自愿合成色情视频”的屏蔽选项,但这对于阻止这些色情视频的创作和传播仍无能为力。随着操作的进一步简易性,可以预见,每一个人都很有可能成为黄色视频的受害者。如果任由AI变脸技术被广泛用于类似于黄色等各种非法用途上,将会对公民的人身权利造成严重的侵害。
2.2 给“人脸识别”加密的技术带来新的隐患
经过长期发展与技术迭代演进,人脸识别技术已经相对成熟,在智能交通、安防、电子商务等领域都有广泛应用。但在AI变脸技术面前,这一加密技术将变成最大安全隐患。据调查,AI变脸技术不仅能骗过人,还能骗过人脸识别系统。支付宝、银行卡人脸识别,都很容易被人拿去用于不法用途,造成各种经济损失甚至是人身安全。更甚者如果是政府要员、重要信息系统运维人员等,一旦加密匙被不法分子掌握,更有可能造成严重网络安全事件。
2.3 助力造谣诽谤的滋生
AI变脸技术一旦被人非法使用,真实照片与语音模拟器或语音合成系统相结合,就可以生成任意谣言,也可以对他人恣意诽谤。2017年,国外就有人通过AI变脸技术制造政治家或公众人物的假视频,特朗普、希拉里等名人都曾中招。而在国内,虽然当前仅出现明星被“变脸”。但是随着AI变脸技术的普及,如果被不法分子进一步使用,诽谤便随之而来,若将其用于制作政府人员或权威公众人物的“假新闻”、“假视频”,那不仅会造成谣言满天飞,甚至会影响我国的政治稳定。
2.4 使网络诈骗犯罪活动更为隐蔽
前文提到“95%的换脸视频无法被识别”,也就是说可能某天诈骗分子就用AI换脸技术换脸成你的亲人,向你索要钱财,而你浑然不觉,而当公安机关要进行打击时,也没办法通过视频去掌握犯罪分子的真实身份,甚至该技术还可能大大损坏视频作为证据的可信度。可以说,AI变脸技术可能会使网络诈骗犯罪更为隐蔽,让犯罪分子更加有恃无恐。
3 如何更好应对利用AI变脸技术的违法犯罪活动
2019年4月20日上午,《民法典人格权编(草案)》二审稿提请十三届全国人大常委会第十次会议审议,专门增加规定:任何组织和个人不得以利用信息技术手段伪造的方式侵害他人的肖像权。草案第八百零三条也被修改为:其他人格权的许可使用和自然人声音的保护,参照适用本章的有关规定,说明:脸、声音等都不能随便换。这就给“随意使用”AI变脸技术设定了一道门槛。然而,法律的出台也仅仅是让人们不再轻易使用AI变脸技术,但对于利用AI变脸技术从事的违法犯罪活动,仅靠法律远远不够,例如有网友评价,“以后视频也能做假,如果没有鉴别手段,视频证据将失去意义”。那么作为一名网络警察,在AI变脸技术盛行的当下,如何更好地应对其所带来的挑战。下面笔者将结合网警职能,提出几点建议。
3.1 强化技术升级,研发AI取证工具
当前,公安机关网警部门对于辨别视频真伪的取证方式依然是个空白,面对使用AI变脸技术制作而成的“假视频”、“假新闻”,目前尚未有真正适用的取证技术。虽然也有人不停进行研发,如美国国防部(DARPA)研发出的“反AI变脸刑侦检测工具”,但由于这类工具或应用的可扩展性和稳健性都无法完全满足实务中的需求,还是无法完全适用于涉及到取证、证据分析和鉴别等关系重大的应用方向上。但这种结合AI技术的检测方式,却为鉴别真假视频提供了新的方向,这其中涉及到的一个重要原理是生成式对抗网络(GAN),运用这一原理进行更多的研究来确保AI识别技术能够检测到最新的AI造假技术,这也是未来视频真伪鉴别研究的重点方向。因此,作为公安队伍中的技术警种,必须不断加强自身技能建设,要争取相关领导支持,成立研发专班,不断升级现有电子数据取证技术,研发出AI取证工具,有效鉴别视频真伪,甚至是还原原始视频,为案件成功侦办奠定证据基础。
3.2 强化技能培训,提高鉴别精确度
AI换脸技术,是基于人工智能的人体图像合成技术,生成的假脸。据调查分析,目前,市面上常用的视频真伪鉴别方法有:针对视频文件参数、视频内容、视频数据信息、时频分析、监控视频的完整性和帧间复制粘贴盲检测算法等进行真伪鉴别,并由此开发出各种辨别真假视频的工具或应用,但由于每个鉴别方法都有其优点和不足,辨别真假视频的工具或应用缺乏广泛的适用性,因此鉴别时应采用多种方法结合鉴定。故作为网警办案人员,要适时“温故而知新”:适时开展培训,及时掌握新的鉴别方法;适时进行技能演练,熟悉掌握、熟练融合各种鉴别方法,这样不仅为侦办非法使用AI变脸技术从事违法犯罪活动提供可靠的技术方法,又能避免由于各个方法的侧重点不同而生成错误的鉴别结论的情况出现,提高对网络造谣诽谤等违法犯罪活动鉴别结果的精确度,确保精准打击。
3.3 强化宣传引导,提高网民素质及警惕性
随着互联网云端服务的普及,普通人的隐私岌岌可危。虽然当前我国使用AI变脸技术的人还比较少,但如果被那种心思邪恶的人盯上,普通人也有可能成为谣言、流言的主角。一旦陷入流言蜚语之中,势必会对公众日常的工作和生活带来恶劣的影响。因此,网警部门在发挥自身职能优势,加强网上巡查监控工作,及时发现、处置“假视频”、“假新闻”的同时,更要充分利用“网警巡查执法平台”等加强宣传引导,及时披露这一新兴技术带来的严重危害,及时引起公众的警惕。如果去传播“假视频”、“假新闻”,就都是谣言、流言制作者的帮凶。不非法使用、不去看、不去传播,才是对他人,以至于对自己最大的尊重。同时,还要鼓励公众、网民对这种行为进行举报,使非法使用AI变脸技术违法犯罪活动无处可匿。
4 结语
总之,打击网络犯罪分子是一项长期的的斗争,需要每一名网警民警做出大量艰苦而细致的工作,特别是在互联网技术的发展日新月异的当下,更要求技术民警要时刻掌握新兴技术、时刻研发创新手段。网络安全,任重而道远。