各国立法打击利用AI进行深度伪造
2024-09-22俞飞
5月20日,好莱坞知名影星斯嘉丽·约翰逊发布声明称,尽管拒绝了向OpenAI(美国人工智能研究公司)提供声音的邀约,但ChatGPT最新发布大模型GPT-4o仍然使用了高度类似自己声音的Sky语音。
“在这个我们都在努力应对深度伪造,保护自身形象、作品和身份的时代,我认为,这些问题需要得到绝对的明确。我期待通过透明度和立法来解决这些问题,以确保个人权利得到保护。”斯嘉丽表示。
近日曝光的韩国第二起N号房事件中,61位女性在该事件中成为受害者,2名主犯涉嫌深度伪造首尔大学女生照片,大肆传播不雅照片及视频。
4月,英国司法部宣布:根据最新刑事司法修正案,未经他人同意,利用AI制作Deepfake(深度伪造,简称深伪)色情图像,且广泛发布的人将被定罪。英国成为全球第一个刑法规制深度伪造滥用的国家。
深度伪造第一个受害者
Deepfake一词是由Deep learning (深度学习)和fake(伪造)而成。基于人工智能的人体图像合成技术的应用,将现有的视频图像音频叠加到目标视频图像音频上,真假莫辨。
2017年11月2日,社交新闻网站Reddit用户Deepfakes创立了一个好莱坞女演员色情换脸的子论坛。影片使用开放源代码制作,只要具备基本知识,任何人都能效法。此后,Deepfake如脱缰野马,一发不可收拾。学界公认2017年是为深度伪造元年。
作家妮娜·席克在《深度伪造:即将到来的信息末日危机》一书中,采访了当初独家报道该事件的记者萨曼莎·科尔。
“那天,我在Reddit网站闲逛,无意间发现Deepfakes登上了热门版。事情就发生在我眼前。”萨曼莎深感震惊,“假如连一个Reddit使用者都做得到,又要如何阻止普通人们做出同样的事?”因此,她第一时间联系上Deepfakes,对方同意匿名接受访谈。
Deepfakes自称不是工程师,也不是技术专家,只是“对机器学习感兴趣的人”。无人知晓他的真实身份,也不知道他从事什么工作。
“我偶然发现了一种聪明的方法,利用开源AI工具,将女明星的脸置换到色情片演员脸上。”Deepfakes说。
站在AI肩膀上,他以一己之力创造了自己的弗兰肯斯坦:电影《神奇女侠》主角好莱坞女演员盖儿·加朵(Gal Gadot)的乱伦色情片。影片镜头中出现的不是她本人的身体,也不是她的脸,只是移花接木换脸而已,那些加工出来的色情片看起来就像由加朵本人演出的,影片在网络上不胫而走、大肆传播。
他究竟是如何成功做到的?通过Google图片检索图片视频库和油管,Deepfakes建立了一个庞大的加朵数据集,训练AI算法,让它逐渐学会如何置换人脸。没有细看的话,的确会相信片中女主角就是加朵。要是观众有耐心,仔细观察,不出几秒也能察觉事有蹊跷——加朵的口型有时并未同步。
萨曼莎随即发文,向全世界揭发色情片深度造假,引发公愤。Reddit以“包含未经同意制作的成人影片”为由,关闭了讨论版。
Deepfakes从此销声匿迹,但他早已公开分享深度造假程序码。潘多拉魔盒一旦打开,再无可能关上……
Deepfake的色情化、政治化、犯罪化
2019年,荷兰DeepTrace公司发表报告,发现深度伪造影片的数量快速增加,原因无非是“相关工具和服务商品化,降低非专业人士制作深度伪造影片的门槛”。
截至2019年9月,有1.5万部深度造假影片充斥着网络,迎合部分男性最狂野的幻想。DeepTrace老板乔奇欧·派特尼(Giorgio Patrini)指出:“深度伪造影片中,高达96%都是色情片,当事人却对此一无所知。”
2018年2月,全球第一个深度造假色情片网站成立,随后这样的网站越来越多。在这样的网站上,只要按几个键,就能免费观看所有影片。这些网站的首页毫不掩饰地宣称:“色情片任君挑选,性虐支配、恋物癖、恋足癖……你想得到的,这里都看得到!”据统计,全球前四大深度造假色情片网站浏览次数超过1.34亿万次。
深度伪造的受害者绝大多数为女性。席克问萨曼莎在调查期间,是否看过任何以男性为对象的深度伪造色情片,她直率地回答:“没有。”同一网站上,以女人为对象的深度伪造色情片动辄数百部,你能想得到的女明星、名人应有尽有。
对于女受害者而言,这一切都是骇人听闻、践踏尊严。早在2018年,女星斯嘉丽·约翰逊就告诉《华盛顿邮报》,对于这种行为,她无计可施,从网上完全移除这类影片基本上就是不可能的。
“很遗憾,这种情况,我经历了太多。每个国家都有自己关于肖像权的法律规范。即使能在美国境内采取法律行动,关闭侵权网站,同样的法规却可能不适用于德国,徒劳无功。”她警告说,“很快人人都会成为目标,因为网络是一个巨大的黑暗虫洞,终将吞噬你。”
深度造假色情片的下一个目标是所有女性——每个妻子、女儿、姐妹和母亲。
波士顿大学法学教授丹妮尔·西特龙(Danielle Citron)强调:“深度伪造技术正被用作针对女性的武器。”它将平凡的女性卷入其中,足以毁掉她们的人生。曝光、羞辱、恐惧,难以找到或保住工作,甚至不再感到安全。这侵犯了女性最私密的领域和人身安全。
早在2018年美国未来生命研究所发布的《人工智能的恶意使用:预测、预防和缓解》报告中就指出,人工智能技术存在被恶意使用的风险,深度伪造技术就是其中的一大代表。
你见过奥巴马骂特朗普是“彻头彻尾的白痴”吗?见过扎克伯格吹嘘自己“窃取了数十亿人的数据,并玩弄于股掌”吗?见过合成的“特朗普与逮捕他的警察搏斗”系列图片吗?如果你回答“是”,便是看到了政治性深度伪造。
2023年2月,美国芝加哥市长初选前夕,社交媒体上流传一个模仿候选人保罗·瓦拉斯的声音发表不实陈述的视频,声称“警察可随意射杀嫌疑人”,并呼吁削减警察预算。在瓦拉斯向社交媒体平台发出投诉之后,社交媒体删除了这段视频,但该视频在下架前已经被浏览了数千次。
2023年11月,一段印度总理“莫迪”身着传统服饰、欢快跳着印度加尔巴舞的视频在网上疯传,印度总理亲自辟谣,称赞视频做得好的同时,对滥用AI技术深度伪造视频表示担忧,认为这可能引发一场大危机。
2024年1月底,美国新罕布什尔州检察长办公室发布一份声明称,发现新罕布什尔州出现机器人自动打电话使用由深度伪造技术制作的模仿拜登总统的声音,敦促人们不要在新罕布什尔州1月23日民主党总统初选中投票。该事件迅速在美国引起了广泛关注,并激发了关于AI深度伪造对大选可能产生影响的讨论。
2023年11月发布的一份民调结果显示,参与调查的美国成年人中,有58%的人认为“AI将对2024年美国大选造成影响”,这一数字较2022年8月增长了5个百分点。此外,英国、印度、尼日利亚、苏丹、埃塞俄比亚和斯洛伐克等国去年都发现了据称利用AI制作并在网络上传播的虚假政客视频。
“候选人的图像或声音可以被篡改,选民可能被有目的地引导,根据设计支持或远离候选人,甚至放弃投票。”《卫报》认为,在误导选民方面,深度伪造的潜在危害“难以预估”。伪装成选民的社交媒体机器人、被篡改的视频或图像层出不穷,且更难被识破。
科技平台需要承担起阻止深度伪造浪潮奔涌的最大责任。《金融时报》报道,亚马逊、谷歌、元宇宙平台、微软、TikTok和OpenAI等20家科技公司,2024年2月16日在慕尼黑安全会议期间表示,将共同努力打击旨在误导选民的内容制作和传播,并针对这些内容以“迅速和适当”的方式采取行动。比如,在图片中添加水印,以明确其来源以及是否曾被篡改。
科技行业普遍采用了“内容来源和真实性联盟”(C2PA)的标准,该标准将用数字内容的来源和创建者的信息对数字内容进行编码。2024年2月初,元宇宙平台公司宣布将在其社交媒体平台上标记AI生成的图像;谷歌公司表示将为其生成式AI工具集成C2PA水印系统,OpenAI也作出了类似承诺。
对此,专家指出,添加水印的方式可能会有所帮助,但它们并不能阻止不怀好意者使用开源AI工具,也没有解决那些饱受深度伪造影响的人保护其隐私权的问题。
3月,元宇宙公司宣布调整旗下脸书与Instagram平台的数字创建和更改媒体政策,以遏制大选前利用AI制作的深度伪造的内容的传播。这一新政策于5月生效,Meta平台上发布的AI生成的视频图片音频,打上人工智能制作标签,便利用户区分。
涉及深度伪造的金融犯罪,也浮出水面。2024年2月,香港媒体报道某团伙通过“变脸”冒充跨国公司CFO,骗走两个亿!
报案人为一家跨国公司香港分行的职员,1月,他收到英国总部首席财务官的信息,声称要进行机密交易,分别邀请数名财务职员进行多人视频会议。对方在会议内显示了与现实中相同的容貌,香港分行的职员上当了,应对方要求,前后转账15次2亿港元,其后向总部查询后方知受骗。这是香港首次涉及深度伪造“多人变脸”的诈骗案。
香港专业进修学校协理副校长林森表示,随着人工智能生成引擎的种类愈来愈多,深度伪造技术持续进化,辨别真伪的难度也会越来越大,加上该技术门槛不断降低,将诱使更多不法分子利用深度伪造技术进行诈骗、发布失实资讯、制造社会舆论等。
各国立法进度不一
深度伪造内容带来最大的挑战是难以利用肉眼和耳朵识别。虽然人工智能生成的影像或许仍有瑕疵,例如,光线和阴影可能不太自然,影像边缘模糊,但当大部分公众以细小的手机荧幕观看影像时,这些细节便不易被察觉。
“过去,制作假照片、视频或音频,需要大量人力、时间和金钱。现在,使用谷歌和OpenAI等公司提供的免费或低成本的生成式人工智能服务,几乎每个人都能通过简单的文本提示创建深度伪造内容。”美联社称。
2022年1月,欧洲议会修改了《数字服务法》,强制对深度伪造视频使用标签。《数字服务法案》于2024年1月1日生效。
2023年1月,中国国家互联网信息办公室发布的《互联网信息服务深度合成管理规定》,发布了关于深度伪造和其他人工生成内容的管理方案,明确要求深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息,并规定了一系列监管制度。
早在2018年,美国参议院便提出《禁止恶意深度造假法案》草案,处罚制造欺诈视听纪录的犯罪行为,包括深度造假视听影音媒体的电子纪录、照片或电子影像等。
2019年,美国众议院提出限制深度造假影片篡改技术的《深度造假问责法》草案,要求使用深度造假技术制作影片的人负起责任。违者将处罚款或可并处5年以下徒刑。受害者有权向行为人请求最高15万美元赔偿。无奈美国两党争斗不断,加之有人担心法案侵犯宪法表达自由和创作自由,相关法案一直难以通过。各州议会于是决定自行立法!
2019年,弗吉尼亚州成为美国第一个针对未经同意的深度伪造色情内容课以刑责的州,违法者可处2年以下监禁,并处罚款。加利福尼亚州州长颁布法案,允许受害者向影片制作者提起损害赔偿诉讼,最高可要求15万美元的赔偿。
2022年,佛罗里达州就修法,将未经受害者同意传播深度伪造的色情图像定为犯罪。2023年12月,迈阿密戴德警察逮捕两名男中学生,指控二人犯有三级重罪——深度伪造女同学裸照。这起事件成为美国首例与深度伪造裸体图像有关的刑事指控。
美国哥伦比亚大学法学院教授李本(Benjamin L. liebman)介绍说:“截至2024年1月,全美50州共提出211项与人工智能相关的法案,其中一半是关注深度伪造的。”
为何美国立法总是“常听楼梯响,不见人下来”?弗吉尼亚理工大学传播学院教授凯西·迈尔斯(Cayce Myers)解释:“立法者不想制定一部新的监管人工智能的法律。制定一部太快的法律可能会扼杀人工智能的发展和增长,制定一部太慢的法律可能会为许多潜在的问题打开大门。保持平衡将是一个挑战。”
3月13日,欧洲议会批准《人工智能法》,严格规范人工智能的使用。针对深度伪造现象,新法要求AI工具提供者有义务以允许检测合成虚假内容的方式设计这些工具、增加数字水印。AI提供商必须建立有效的监督和问责机制,确保AI系统安全和可靠运行。开发人员和使用者必须对AI系统造成的损害承担责任。对违反规定的行为进行处罚,最高可达公司全球营业额6%或3000万欧元,以高者为准。
4月,英国政府推出新法草案。英国受害者和保护事务负责人劳拉·法里斯表示:“这是某些人企图贬低他人的行径,尤其是针对女性,假如相关内容广泛传播,很可能造成灾难性后果,本届政府绝不会容忍这种行为。”
英国《新科学家》网站报道,美国OpenAI公司的文本—视频模型Sora横空出世,让普通人能更快捷、更廉价地制作出视频,事实与虚构的分界线也愈加模糊,进一步加剧了人们对“深度伪造”内容的忧虑,担心其引发虚假和错误信息泛滥。如何预防和阻止“深度伪造”内容误导大众,已成为摆在各国政府和科技巨头面前的重大难题。
随着深度伪造技术的迅速发展,恐怖分子可能利用这一技术进行跨国犯罪,深度伪造产品的泛滥对全世界来说都是灾难,没有哪个国家能够独善其身,推动对深度伪造技术的全球治理符合各国的共同利益。
假视频、假音频、假照片泛滥,有心人士使用电脑或手机等大众电子设备制作出来,并通过社交媒体广泛传播,从而可能使全社会陷入一场真相与假象之间混杂不清的困境之中,造成“真相的终结”,推动人类社会真正进入“后真相时代”。
正如Deeptrace威胁情报主管亨利·阿杰德(Henry Ajder)所言:“世界越发人工化,深度伪造技术不会消失。”这场政府与技术的游戏远未结束。