如何应对AI换脸诈骗
2023-09-08中新经纬
中新经纬
一天,你的一位熟人给你发来消息提出要借钱,随后对方发来视频通话邀请。视频通话接通后,你确认对方的形象和声音就是熟人本人的,于是毫不怀疑地把钱转了过去。但没过多久,你就发现自己被骗了,原来“借钱”的并不是你那位熟人。
这可不是鬼故事,而是已经发生在多位受害者身上的真实案例。
前不久,一则10分钟被骗子利用AI(人工智能)騙走430万元的新闻刷屏。据警方通报,受害人郭先生遇到的就是上述情形。骗子利用AI技术佯装成郭先生的好友,对其实施了诈骗。
目前,AI换脸随处可见。在短视频平台,不少用户都体验过换脸带来的新鲜感—仅需提供一张照片,你就可以变成视频中人,或用照片直接生成视频。
七七(化名)专门在网上接单,用AI帮别人生成视频。“只需提供一张背景干净的正面照,我就能生成视频。视频中的人不仅眼睛、嘴巴会动,还能时不时动动头,动作非常自然。如果你提供文字,我还可以让视频中的人物对上相应的口型,适配程度很高,可以连续播放1分钟。”七七说,他目前做这个工作已经非常熟练,一条视频“一个晚上就能完工”。
除了利用AI快速换脸,用AI手段合成或克隆声音也越来越常见。
一位商家介绍,只需要提供某人一段10分钟至30分钟的没有杂音的声音素材,就能用2天左右时间生成一个专属模型,后续输入任何文字,都可以用这个人的声音发出来。
据了解,目前制作一段能“露脸且说话”的视频成本并不高。七七表示,用照片生成一段1分钟时长的视频仅需30元左右;如果视频时间比较短,画面质量要求不高,这个价格还可以再降,甚至可以几块钱做一段。上述商家表示,生成一个声音的专属模型也只需要几十元。
这意味着,如果有人想要生成用你的形象搭配你的声音的视频,花费仅需数十元。
对于前述警方通报的案例,网友们也有一些疑问。比如不法分子是如何获得郭先生好友的照片及声音素材的?本应是即时的视频通话,郭先生的手机里播放的为何是事先合成好的视频?
“通报中没有详细说明不法分子是如何获取郭先生好友的个人信息的,但有一点可以肯定,这位好友的社交媒体账号被盗了。不法分子可能是从社交媒体里直接获取了其个人信息,也可能之前以骚扰电话的方式与郭先生的好友联系过,获取了其声音信息。” 电信分析师付亮分析。
至于为什么接通视频通话,播放的却是事先合成好的视频,付亮认为,这可能是通过插件实现的。据了解,目前用虚拟摄像头就可以做到这一点。
北京嘉维律师事务所律师赵占领表示,目前,未经他人许可使用其肖像,即使不以营利为目的,也会侵犯肖像权,但声音目前不受法律保护。“但有些具有显著性的声音申请注册了商标,这种情况下声音是受法律保护的。”赵占领说。如果将合成的视频用于诈骗,达到一定的数额标准,就涉嫌刑事犯罪了。
目前,针对利用AI进行的诈骗,各类平台已向公众发出提醒,并给出了一些防诈骗提示。值得注意的是,由于对新技术的了解不足,这种新型诈骗给中老年人带来了更大的挑战。
在日常生活中,公众除了要注意个人信息保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频外,还要增强防范意识;尤其是涉及财务往来时,务必通过电话、见面等最朴素的途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
此外,也要进一步提高辨别AI合成视频的能力和技巧。目前AI合成的视频虽已比较逼真,但在色彩分布、肌肤纹理、表情的自然连贯性等方面仍有较为明显的瑕疵。