APP下载

基于深度伪造技术的AI 诈骗风险与预防

2023-11-23张俊杰张纯琍

广西警察学院学报 2023年5期
关键词:反诈犯罪分子诈骗

张俊杰,张纯琍

(中国人民公安大学,北京 100038)

电信网络诈骗犯罪因其与信息技术关系紧密,信息技术领域中的每一次变革都会对电信网络诈骗的手段、时空分布等产生重要影响。以深度伪造(Deepfake)技术为基础的人工智能(Artificial Intelligence,简称AI)软件的快速发展和普及大大促进了电信网络诈骗犯罪的智能化转型。犯罪分子通过使用各类先进软硬件设备,对自身的诈骗工具进行了迭代,从使用传统的电话与短信发展到使用最新的AI 软件。同时,犯罪分子在诈骗对象的选择方式上也发生了变化,从过去的“广撒网多捞鱼”式向“精准捕捞更具价值的个体”转变。基于不断演化的诈骗犯罪现状,学术界和反诈工作者必须提前对其做出发展方向的预判、风险评定和方案预置。当前,AI 诈骗尚未在我国出现爆发式增长和普遍式发展,但已经发生的零星AI 诈骗个案涉案金额巨大,因此,对基于深度伪造技术的AI 诈骗风险进行讨论与研究,是做好未来反诈工作的重要课题。

一、深度伪造技术与AI 诈骗

美国在2018 年发布的《2018 年恶意伪造禁令法案》中将深度伪造定义为“以某种方式使观察者错误地将其视为某人真实言语或行为的真实记录的可自由创建或更改的音视频记录”,其中“音视频记录”包括图像、视频和语音等多种数字内容[1]。深度伪造是基于深度学习的内容合成技术,以利用生成对抗网络(Generative Adversaria Network,以下简称GAN)的深度学习算法为主,来达到实现原初内容和目标内容的模拟、合成和替换的目的。“‘深度伪造’可以创建全新的内容或操纵现有的内容,包括视频、图像、音频和文本。”[2]在以深度伪造技术为基础的各类软件中,发展最为迅猛、推广最为迅速的正是各类“换脸”软件,其通过人脸定位和人脸转换等多个步骤实现对人脸的模拟与替换,生成作品具有高度的拟真性。在深度伪造技术的发展过程中,“换脸”软件不仅取得了技术上的进步,还获得了资本的支持,其独特的娱乐特质迎合了大众与市场,带来了可观的经济效益与市场份额。“换脸”软件操作简单的特点更是降低了深度伪造技术的使用门槛,使得更多的普通民众得以随时享用深度伪造技术成果。但与此同时,深度伪造技术的正面特点造成了一系列的负面效果,使用深度伪造技术的低门槛造成了此项技术不负责任的滥用,引发了个人隐私安全、国家安全、人身安全等众多问题,同时该项技术产出的高度拟真作品也造成了“真相衰败(truth decay)”问题。

关于我国电信网络诈骗,2020 年立案95 万件,全国公安机关共破获电信网络诈骗案件32.2万件,累计挽回损失1876 亿元 。2021 年,立案96万件,破获44.1 万余件,抓获罪犯69 万余人,追缴返还人民群众被骗资金120 亿元[3]。从全国范围来看,电信网络诈骗犯罪依然是破坏人民群众财产安全的首要犯罪形式,其犯罪收益大、犯罪风险低的特点导致了电信网络诈骗犯罪分子不断主动更新自身软硬件技术,不断升级诈骗话术与手段,这对公安机关的预警、定位、布控、抓捕等各项工作提出了巨大的挑战。因此,以电信网络诈骗犯罪为对象的学术研究必须具有足够的警觉性、敏感性,要能提前发现电信网络诈骗犯罪的演化路径与方向,帮助公安机关实现对诈骗发展态势的预先封堵。

本文讨论的AI 诈骗犯罪是基于深度伪造技术提供的各类人工智能软件,如“换脸”、声纹模拟等智能软件伪造他人信息,骗取被害人的信任,实现犯罪意图的新型诈骗犯罪形式。2022 年5 月,有诈骗集团利用深度伪造技术冒充马斯克生成了谈话视频,以骗取受害者投资其加密货币交易平台[4]。2023 年5 月22 日,包头警方发布了一起利用AI 实施电信诈骗的典型案例,引起了众多网友的关注与讨论。该案例中提到,福州市某科技公司的法人接到好友微信视频后,其好友表示其在外地竞标,需要430 万保证金,且需要公对公账户过账,想要借该法人公司的账户走账,该公司法人因惯性思维而对微信视频的真实性和实时性毫不怀疑,相信了犯罪分子的言辞,分两笔将钱款转到了其“好友”银行卡上[5]。与以往网络诈骗犯罪不同,AI 诈骗具有更强的真实性、可信性、不易识别性,打破了以往公众识别诈骗犯罪时采用视频通话、语音通话来确认真实身份信息的常规思路,换句话说,AI 诈骗恰恰是利用了大众“眼见为实”“耳听为实”的惯性思维提高了诈骗的成功率。

二、AI 诈骗问题生成的原因

随着我国反诈工作的持续深入推进,截至2022 年11 月底,该年全国共破获电信网络诈骗案件39.1 万件,同比上升5.7%[6]。在我国对电信网络诈骗犯罪的打击力度不断加大、打击精度不断提高的形势下,诈骗分子对自身诈骗活动进行了智能化转型,尝试使用各类新兴技术降低犯罪风险和犯罪成本,在此客观环境下,AI 诈骗成为诈骗犯罪未来发展变化的必经之路。

诈骗手段是随着时代技术的进步而不断更新迭代的,然而无论是利用何种AI 软件,其本质都是为了骗取被害人的信任。在长期的反诈宣传工作中,大众逐渐生成了对电信网络诈骗的警惕心理防线,这使得绝大部分传统的诈骗方式无法保持稳定增长的犯罪收益,但是大众已有的警惕心理防线是建立在“眼见为实”“耳听为实”的判别诈骗犯罪原理之上的。而基于深度伪造技术的各类AI 软件可以实现人脸、人声的自由变换,对诈骗分子来说,这无疑为其突破大众警惕心理防线找到了合适的工具。通过利用各类AI 软件,犯罪分子可以轻易制作与被害人具有亲近关系者的视频,或者利用声纹模拟软件制作被害人亲属的语音短信,骗取被害人的信任。

在Web3.0 时代背景下,各类人工智能换脸、拟声软件出现了爆炸式增长,各类人工智能软件借助国家鼓励发展各类信息技术的政策红利,在各类互联网平台上得到推广,大幅度降低了用户的使用门槛。这一方面在一定程度上刺激了深度伪造技术的发展与普及,另一方面也为这一领域犯罪的滋生提供了土壤。传统诈骗犯罪主要是通过文字或电话的形式与被害人寒暄,有意或无意透露被冒充者的个人隐私信息来构建与被害人之间的“真实”关系,骗取被害人的信任。此类传统诈骗方式的最大缺陷在于惧怕实时人脸验证,而深度伪造技术的运用为诈骗分子填补了这一缺陷。AI 诈骗犯罪虽然技术手段更先进,但是与传统诈骗犯罪仍存在着一定的相似性,只不过其利用的是更加逼真的音视频信息来骗取被害人的信任。

《网络音视频信息服务管理规定》(2019 年11月18 日颁布)第十条规定:“网络音视频信息服务提供者基于深度学习、虚拟现实等新技术新应用上线具有媒体属性或者社会动员功能的音视频信息服务,或者调整增设相关功能的,应当按照国家有关规定开展安全评估。”2022 年11 月3 日,国家互联网信息办公室2022 年第21 次室务会议审议通过了《互联网信息服务深度合成管理规定》,其中第二十一条规定:“网信部门和电信主管部门、公安部门依据职责对深度合成服务开展监督检查。深度合成服务提供者和技术支持者应当依法予以配合,并提供必要的技术、数据等支持和协助。”从近年来出台的相关规定来看,我国对深度合成服务和深度伪造技术的相关管理在不断收紧,相关行业在不断精细的管理规定中,技术开发活动更加规范、产品功能更加齐全、市场竞争力更强。然而现有各类规定都是从行业管理的层面出发,对人工智能技术、深度伪造技术等相关行业单位进行管理。对于电信网络诈骗犯罪分子来说,其不仅未受到相关行业规定的影响,反而在一定程度上利用了此类规定带来的正面效果。

三、AI 诈骗演化方向预判

(一)精度不断提高,广度不断扩大

AI 诈骗并非零成本,犯罪分子必须同时获取同一个人的生物信息和一般个人信息,确定诈骗对象具有较高的“经济价值”,才能实现犯罪收益的最大化。为了达到这一目的,犯罪分子将会大规模窃取个人身份信息,包括个人生物信息、财务信息、社会关系信息、家庭成员信息等。从犯罪分子的角度看,制作AI 换脸视频并不困难,难点在于伪造身份的选择和话术的选用;从犯罪成本的角度考虑,其伪造的身份必须具有较高的经济收益、日常存在较多的转账支付行为等特征,而诈骗对象则需要具备与其伪造对象存在较亲密的关系、较多的经济往来、较多的可用于支付的现金储备等特征。在网罗和分析这一类信息后,犯罪分子才能实现金额巨大、效率极高的诈骗犯罪目的。

随着诈骗精度提高而来的便是诈骗广度的扩大,当越来越多的AI 诈骗被成功实施后,会有越来越多的诈骗分子加入AI 诈骗犯罪之中。在AI诈骗发展的初期,犯罪分子必然会通过调整诈骗对象来实现更高的犯罪收益,将AI 诈骗的矛头对准辨别能力更低的老年人群体。在AI 诈骗发展的初期,受制于较高的犯罪成本和较高的技术门槛,诈骗分子将会按照“提高精度—扩大收益”的思路实施诈骗。而当AI 诈骗发展到一定阶段后,犯罪成本降低,技术门槛下降,犯罪分子会更多地选择“扩大广度—提高收益”的思路实施诈骗。如此一来,AI 诈骗犯罪的涉案金额幅度将会扩大,从巨额案件到小额案件均有发生。涉案金额的变化也意味着被害人群体的改变,也就是说,AI 诈骗犯罪将会以高收入群体为突破口,向中低收入群体蔓延。

(二)“影”与“音”深度结合

为了获得被害人的信任,回应被害人提出的声音辨识要求,犯罪分子会将“影”与“音”深度结合,即将人脸伪造与声纹伪造深度结合。声纹深度伪造技术与人脸的深度伪造技术相类似,如果说人脸的深度伪造技术是通过AI 技术合成、转换、替换他人肖像,那么声音的深度伪造技术就是通过AI 技术来合成、模拟某种声音,区别于人脸的深度伪造技术,对声音的深度伪造可以脱高现实模仿对象的声纹基础,实现对不存在的声音的合成与制作。斯坦福大学的Ohad Fried 等人使用基于声码器的深度语音伪造技术,将其嵌入到视频的伪造中,使视频中的人物发声口型与篡改的语音口型基本一致,提高了深度伪造视频的真实性和说服力[7]。在技术应用上,声音与影像的结合水平已经得到了进一步的提高,同时这种技术的使用门槛在不断下降,这就意味着犯罪分子经过信息的充分准备和骗术文本的有效设计后,可以通过伪造的视频与音频之间的自由切换和组合,突破更多的身份验证防线。

从诈骗犯罪的宏观角度来看,“影”与“音”的深度结合是深度伪造技术的又一突破,也是未来AI 诈骗的发展趋势;从诈骗犯罪的微观角度来看,二者的深度结合将会给社会公众带来巨大的诈骗风险。面对深度伪造技术日趋成熟完善的形势,诈骗分子必定会选择不断突破自身的技术瓶颈,制作与被害人具有亲近关系者的伪造音频,将其嵌入实时视频或制作完成的视频中,同时更新诈骗文本,以新技术为矛,以新文本为盾,将伪造的音视频作为攻克大众警惕心理防线的强大武器。

(三)深度伪造与AIGC 相融合

2022 年9 月,中国信息通信研究院和京东探索研究院共同发布了《人工智能生成内容(AIGC)白皮书》,将人工智能生成内容(Artificial Intelligence Generated Content,简称AIGC)定义为“既是从内容生产者视角进行分类的一类内容,又是一种内容生产方式,还是用于内容自动化生成的一类技术集合”[8]。AIGC 具有更强的虚拟创造属性,使虚拟信息更加真实,而GAN 的出现则进一步加强了AIGC 生成内容的拟真度。GAN 包括两个模型:生成模型和判别模型,生成模型产出与被模仿对象极为相似的模型,判别模型则对其真假性进行检验,两个模型相互对抗,从而提升最后产出内容的拟真度。GAN 是深度伪造技术最主要的算法,现在这一算法又融入AIGC 中,同时,视觉Transformer(一种神经网络模型)正在逐步成为视觉领域的基础网络构架,此类新型大模型架构的发展,将会使图像分类等众多图像视觉领域实现关键性技术突破,反哺深度伪造技术。当技术的融合与突破实现了向应用式软件的转向时,深度伪造的生成速率和生成作品的拟真程度将会大幅提高,与此正面效果伴随而来的将会是技术滥用风险的飙升。

AIGC 技术的飞速发展会大幅降低诈骗分子编辑处理虚拟图像和生成文案的时间成本和人力成本,通过AIGC 技术大批量生成虚假信息,再通过其他软硬件设备投放此类信息、图像、影像、音频等,将在短时间内对广大民众造成巨大的损失。当AI 诈骗度过发展的初期后,诈骗犯罪分子必将选择通过扩大覆盖面来实现犯罪收益的增长,使用生成式人工智能软件大批量生成诈骗文案、图像甚至视频将成为AI 诈骗在其发展中期的演变趋势。AIGC 的开发、训练等具有较高的技术门槛,同时需要更多真实信息作为基础,诈骗分子基本无力涉足此项技术的上游区域,仅能通过AIGC技术的下沉来达到与诈骗犯罪的融合。因此,如何在AIGC 发展的上游就做好风险评估与安全防范是AIGC 和深度伪造技术未来发展过程中必须考虑的重要问题之一。

四、AI 诈骗风险预防路径探索

虽然深度伪造技术与AIGC 的发展拓展了诈骗犯罪手段的有限边界,使诈骗犯罪拥有了更多难以把控的风险形式,但是从诈骗犯罪的逻辑上看,使用此类技术的各类门槛是较高的,因此到目前为止AI 诈骗并未大面积爆发。虽然犯罪分子能利用人工智能技术大幅度提升信息的搜集和复制效率,使大众受到更多的AI 诈骗的侵扰,提高了诈骗的成功率,但是AI 诈骗并非天衣无缝,对于一般的AI 诈骗,社会公众可以通过下文提及的简易识别方式进行防范。

预防AI 诈骗风险,必须牢牢抓住AI 诈骗黑灰产业链条和发展门槛的生成机理(如图1 所示),从源头入手,根据AI 诈骗演化路径上的可能障碍增设防范壁垒。AI 诈骗的发展门槛包括伪造门槛、信息门槛、监管门槛、技术门槛、警惕心理门槛。一方面,当犯罪分子不断突破以上五道门槛后,AI 诈骗就会开始大面积流行;另一方面,正是以上五道门槛的存在,才使AI 诈骗犯罪风险有了可识别、可把控、可预防的切入口。

图1 AI 诈骗产业链及发展门槛示意图

(一)伪造门槛:根据人脸与声纹的畸变漏洞进行预防

预防AI 诈骗,首先要寻找到社会大众普遍可以采取的一般性预防手段。AI 换脸和声纹模拟软件在生成拟真图像和音频时,会存在一定的缺陷。以深度伪造技术为基础的AI 软件从宏观上可以分为两种:一种是“进行时”伪造软件,如Swapface(指一种实时换脸的AI 工具),即在同他人进行视频直播过程中,时刻保持使用者的脸部图像或声音与被模仿者一致;另一种是“完成时”伪造软件,即输入照片、声纹等信息后,软件自动生成一段有着固定内容的视频或音频作品。从诈骗犯罪的角度分析,前者更易获得被害人的信任,但难度较高,一旦视频时间太长,就会出现破绽,容易被识别;后者需要搭配与视频或音频作品匹配的情景文案,但由于其文案是诈骗分子精心设计过的,所以破绽较少、不易被识别。

对“进行时”伪造软件诈骗来说,我们可以要求对方将手掌划过脸部或要求其眨眼,通过观察其脸部图像是否发生畸变来判断是否为伪造影像,同时,在实时视频通话过程中,犯罪分子会以“在开会,不便说话”等理由掩盖实时视频难以时刻保持与其换脸对象语音信息匹配的问题。而对于“完成时”伪造软件诈骗来说,其背景、语音内容、动作内容等大部分是由其他视频嫁接过来的,在伪造视频过程中,输入的人像视频或人像照片素材一般都需要人物背景以纯色为主,因此,我们可以向其提出更换杂乱背景的要求,以此验证图像或视频中的人脸、肢体等边缘部分是否发生畸变。有时,犯罪分子为了防止换脸视频的破绽过多,会选择通过声纹模拟软件来与被害人进行纯粹的语音通话或者发送语音消息,相较于图像,声纹的模拟更不易识别,被害人很容易被犯罪分子模拟出的声音所迷惑,因此,在与亲近者进行大额转账交易时,最优的防范AI 诈骗方式就是进行“共同经验认证”,即提出仅存在于两人之间的共同私密问题或经历,由对方给出相关回复作为认证密钥。通过人脸与声纹的畸变漏洞,我们可以对一般性的AI 诈骗进行识别和预防,尤其在AI 诈骗尚未发生实质性的技术进步和骗术演化之前。当然,伪造门槛以后必将伴随着深度伪造技术的发展而降低,这也意味着以上预防措施可能会在AI 诈骗未来发展的某个阶段被击破。

(二)信息门槛:从诈骗犯罪上游控制AI 诈骗蔓延

诈骗犯罪的上游以盗取与售卖个人信息、售卖电话卡、恶意注册和虚假认证等黑灰产业为主。在AI 诈骗的生成过程中,信息获取是最为关键的一环,为实施精准、成功率高的AI 诈骗,犯罪分子需要盗取或购买个体的生物信息和一般个人信息。生物信息反映的是个人的生理属性,包括人脸、指纹、声纹、虹膜等;一般个人信息反映的是个人的社会属性,包括姓名、身份证号、社会地位与身份等。目前生物信息已被广泛应用于个人身份的确认、个人金融账户密码的解锁、社会身份的确认,与一般个人信息实现了相互勾连,可以说,两种信息数据在某种层面上已融为了一体。在生物信息中,人脸与声纹信息的应用最为广泛,最易泄露也最易获取,这两类信息正是犯罪分子用来进行AI 诈骗犯罪的重要信息。

从正面看,生物信息与一般个人信息必须进行一体化保存,如此才能避免出现公民在使用信息过程中二者无法匹配的情况。这种信息的保存方式带来的负面影响就是犯罪分子只要获取了两类信息中的一种,就能爬取该公民的全部信息。因此,在生物信息和一般个人信息进行一体化保护的同时,我们要采取隔断式保护的策略,将生物信息与一般个人信息,以及两类信息中的不同敏感类信息进行隔断,在使用每一级信息时单独设立信息密钥,在各类信息认证平台和手机软件使用过程中更多使用动态身份认证系统,加强对个人生物信息和一般个人信息的保护,从AI 诈骗产业链条的源头实现对整条诈骗产业运作空间的压缩。

从个人信息保护的角度来看,面对日渐成熟的AI 诈骗犯罪,社会公众应当更加注重对个人信息,尤其是个人生物信息的保护,应当尽量避免在公共平台曝光个人信息,变被动泄露为主动保护,从自身层面尽可能地降低受到AI 诈骗的风险。

(三)监管门槛:对深度伪造和AIGC 开展多元共治

当下,深度伪造技术已经发展到了相对成熟的地步,而AIGC 的发展态势较深度伪造来说更加迅猛,在二者共同发展和交叉融合过程中,引发了一系列社会问题,如诈骗犯罪、肖像权问题、隐私侵犯等,造成了法律界、社会学界、伦理学界等各界的热烈讨论,如何对二者进行合理规制成为学界的重要课题。深度伪造与AIGC 等技术涉及人工智能、大数据等前沿信息技术领域,其引发的问题是多方面的,因此在对两项技术问题进行治理的过程中,不能只由一个部门操刀,其他部门旁观,而需要多个部门携手配合,实现多元 共治。首先,各部门治理力度需要寻找到一种平衡,使深度伪造与AIGC 的发展处于一个动态平衡的稳定状态中。其次,多元 共治要突出社会力量的作用,将社会批判力量转化为抑制技术滥用的重要手段。最后,要加强不同治理主体之间的对话,公安机关、网信部门、企业等多个治理主体要积极合作,共同协商解决深度伪造和AIGC 造成的AI 诈骗风险问题。

在多元共治过程中,对深度伪造和AIGC 进行法律层面的规制尤为重要,在这方面,我们可借鉴国际上的成功经验,从更加长远的视角出发看待深度伪造与AIGC,避免出现制度刚性对技术发展带来的暴力损伤。多元共治不是一时的共治,而应当是持续性、长久性、预判型的共治,治理的核心原则应当是保证技术以安全、健康的路径稳步发展,填补AI 诈骗风险漏洞。此外,现有的跨国电信诈骗一旦加入AI 技术的加持,将会带来更多的社会风险,届时AI 诈骗的目的可能不仅仅局限于物质层面,还有可能附带政治离间、主权颠覆等涉及国家安全的非法目的,因此从国际层面开展对深度伪造与AIGC 的共治是预防AI 诈骗的更长远、更高层次的举措。

(四)技术门槛:深度伪造检测技术的开发与用户普及

深度伪造检测技术的开发热度并不逊于深度伪造技术。从目前的技术发展角度看,深度伪造检测技术的难点在于多模态数据的使用,常规的深度伪造检测技术仅仅将视频作为其伪造检测视频数据集,而面对音频的介入,深度伪造检测技术需要融合多模态数据来提升自身的检测能力与检测效果。面对AI 诈骗风险的扩大化,无论是基于空间特征的检测技术,还是基于时空融合特征的检测技术,或是基于生物特征、区块链的检测技术,都必须要尽快开发出适合与反诈骗软件、反诈骗系统进行关联和融合的深度伪造检测技术。相较于基于深度卷积神经网络等被动性技术,主动性抵御技术,如添加视频水印、应用区块链等更具现实使用前景。将区块链应用于深度伪造检测技术具有很好的应用前景,它可以创建一系列唯一的不可更改的元数据块,是用于数字来源解决方案的出色工具[9],但是目前此类研究较少。在积极开发深度伪造检测技术的同时,我们还应当注意对此技术的共同治理与监管,防止在数据采集、模型训练、软件开发过程中出现海量信息泄露和关键技术外流的情况。

针对AI 诈骗犯罪,深度伪造检测技术需要增强其检测的实时性,并将其内置于移动终端系统中,才能实现对可能出现的AI 诈骗风险及时予以提示和封堵。目前,深度伪造检测技术的普及相较于深度伪造本身来说较为落后,虽然英特尔公司针对深度伪造推出了FakeCatcher 软件,腾讯云发布了换脸甄别(Anti-Deepfake,简称ATDF),但是均没有能够达到与深度伪造软件相等同的便捷性、简易性和普及性。因此,除加大深度伪造检测技术的开发力度外,还要注重应用门槛的下沉以提升普及率。在普及过程中,可以考虑将深度伪造检测技术同AI 软件或反诈软件捆绑,使用户在享受AI 软件的便利与娱乐性的同时,还能够对他人的诈骗行为及时进行识别。

(五)警惕心理门槛:反诈宣传内容与方式的更新与迭代

《中华人民共和国反电信网络诈骗法》第八条明确规定,各级人民政府和有关部门应当加强反电信网络诈骗宣传,普及相关法律和知识,提高公众对各类电信网络诈骗方式的防骗意识和识骗能力。反诈宣传应当走在诈骗犯罪发生重要变革之前,在诈骗犯罪刚刚出现新苗头、新套路、新态势时,通过权威平台发布相关反诈知识。应当注重反诈宣传内容的时效性,将AI 诈骗列入宣传重点内容清单,注意将线上与线下的反诈宣传工作相结合,注重反诈宣传的有效性。在现实反诈宣传工作中,相当比例的被宣传者存在抵触、厌烦、不信任反诈宣传人员的情况,这一现象也在提醒公安机关:要规避“指标式”的宣传模式,不以数量为标准,不以频率为要求,而是将内容的含金量、感染力和公众知悉度等作为评判宣传效果的新标准。

考虑到AI 诈骗风险将会在未来相当长的时间内持续存在并不断增加,反诈宣传工作不能等待具体案例出现后才将其作为宣传的抓手,否则宣传工作将会持续处于被动状态。我们应该对AI诈骗的演化方向做出合理预判,对可能产生的AI诈骗方式、套路进行合理预估,提早建立公众对AI 诈骗的心理防范机制,使公众提前了解AI 诈骗的基本套路。公安机关进行反诈宣传应当借助技术红利,运用AIGC 生成更加有效的反诈宣传文案,不仅要对自身反诈宣传文案进行语言分析,还要对诈骗分子采用的各类话术进行分析,结合诈骗犯罪文本的演化形势,有针对性地拟写反诈宣传文本[10],再通过大数据平台向高风险个体进行精准投送,以AI 对抗AI,实现反诈工作的长足进步。

五、结语

面对AI 诈骗风险的与日俱增,学界对深度伪造技术的讨论绝对不能止步于法律规制和伦理层面的探讨,而必须深入到具体问题之中,以问题为导向,开展对深度伪造技术带来的各类安全风险的深入研究。面对AI 诈骗风险,我们必须在萌芽状态就对其进行压制,要广泛吸收各国深度伪造检测技术的发展思路,加大研发力度与经费投入。AI 诈骗风险的控制方法不仅仅是技术问题,更是法律问题,要从法律层面实现对深度伪造技术的规制,提高AI 诈骗的各项犯罪成本,降低其犯罪收益,抓住反诈骗的底层逻辑,变AI 诈骗发展的门槛为防范AI 诈骗的壁垒,及早防范AI 诈骗风险。

猜你喜欢

反诈犯罪分子诈骗
反诈公益广告
“反诈”鸡蛋 为何上热搜
“反诈宣讲员被骗18万元”更具警示性
“反诈宣讲员被骗”更具警示性
拜访朋友
与谁接头?
关于流窜犯罪案件的分析及侦查措施的运用
论DNA技术在森林刑事案件中的应用
合同诈骗
电信诈骗