APP下载

联合多重对抗与通道注意力的高安全性图像隐写

2024-02-24马宾李坤徐健王春鹏李健张立伟

中国图象图形学报 2024年2期
关键词:分析器注意力载体

马宾,李坤,徐健,王春鹏,李健,张立伟

1.齐鲁工业大学(山东省科学院)网络空间安全学院,济南 250353;2.山东省计算机网络重点实验室,济南 250098;3.山东财经大学计算机科学与技术学院,济南 250014;4.积成电子股份有限公司,济南 250104

0 引言

图像隐写术作为信息隐藏(Petitcolas 等,1999)的一个分支,一直受到广泛关注,它旨在以一种不可察觉的方式将秘密信息嵌入到载体中。根据不同的隐写机制,现有的图像隐写术可以分为基于原始图像嵌入的隐写术、无载体隐写术和生成对抗图像隐写术。

基于原始图像嵌入的隐写术可以根据嵌入域的不同分为空间域隐写术和变换域隐写术。空间域隐写术通过修改载体图像的像素值来隐藏秘密信息。一些常用的空间域隐写术包括最低有效位(least sig⁃nificant bit,LSB)隐写术(Mielikainen,2006)、高难度检测(highly-undetectable stegosystems,HUGO)隐写术(Pevný 等,2010)和小波求权(wavelet obtained weights,WOW)隐写术(Holub 和Fridrich,2013)。在载体图像的不同位置进行嵌入可能会产生不同的影响,因此选择适当的嵌入位置非常重要。为了解决这个问题,Filler 等人(2011)提出了最小化加性失真的校验子格编码(syndrome trellis codes,STC),可以与任何加性失真代价函数结合使用来开发隐写方法。此后,研究人员专注于提升失真函数的安全性。另一方面,变换域隐写术通过修改载体图像的频域系数来隐藏秘密信息。一些典型的变换域隐写术方法包括通用小波相对畸变(JPEG universal wavelet relative distortion,J-UNIWARD)隐写术(Holub 等,2014)、均匀嵌入失真度量(uniform embedding distor⁃tion metric,UED)隐写术(Guo 等,2012)以及尹晓琳等人(2022)的方法。基于原始图像嵌入的隐写术方法因为通过改变像素值或变换域中的系数将秘密数据嵌入到载体图像中,所以不可避免地会给载体图像带来失真,这使得它们难以抵御基于统计分析的隐写分析器的检测。

为了解决基于原始图像嵌入的隐写术的限制,研究者提出了无载体图像隐写术。传统的无载体隐写方法不需要修改载体,而是通过设计图像特征和秘密数据之间的映射规则(Zhang 等,2018a;Luo 等,2021)或使用特定算法将秘密数据合成到图像纹理中来隐藏秘密信息(Wu 和Wang,2015;Liu 等,2022)。尽管无载体图像隐写术具有高安全性的优点,但仍然存在一些需要克服的挑战,例如嵌入容量低、需要大量图像数据库和图像质量不理想等问题。最近,基于深度学习的无载体方法(Chen 等,2022;Peng 等,2022)已被开发用于提高嵌入容量,但它们仍然存在图像失真和秘密信息提取准确率低等问题。

随着深度学习的发展,基于卷积神经网络(con⁃volutional neural network,CNN)的图像隐写分析已经取得了很高的性能,例如Xu-Net(Xu 等,2016)、Ye-Net(Ye 等,2017)、SRNet(steganalysis residual net⁃work)(Boroumand 等,2019)、Zhu-Net(Zhang 等,2020),检测性能已经超越了空域富模型(spatial rich model,SRM)(Fridrich 和Kodovsky,2012)这种优异的传统隐写分析器。传统的图像隐写方法已经无法抵抗这些隐写分析器的检测,因此迫切需要增强图像隐写术的安全性。受深度学习算法的启发,Goodfellow 等人(2014)提出了生成对抗网络(genera⁃tive adversarial network,GAN),为图像隐写方法带来了新的灵感。一系列基于GAN 的图像隐写方法(郑钢 等,2021;Tan 等,2022)开始涌现并表现良好。对抗样本的提出也为图像隐写提供了新的思路:通过对载体图像添加细微的对抗噪声扰动来构造一个新的对抗图像,这种扰动在视觉上是无法察觉到的。将基于对抗图像生成的隐写图像输入到隐写分析器中,隐写分析器输出具有很高置信度的错误结果。然而,向隐写图像添加对抗噪声可能会破坏原始分布,并影响由编码和解码算法的性质(如纠错码)导致的秘密信息提取效果。为了解决这个问题,现有的大多数基于对抗图像的隐写方法在信息隐藏之前向载体图像添加对抗噪声。

为提高现有隐写方法的安全性,本文提出一种联合多重对抗与通道注意力的高安全性图像隐写方法。原始图像可经过本文方法生成适合隐写的对抗图像,使用该对抗图像生成的隐写图像可抵御基于深度学习和特征统计的隐写分析器的检测。本文模型由生成器、隐写器、多重隐写分析器网络和通道注意力模块构成,且受生成对抗网络的启发,本文模型设计了隐写分析优化网络、隐写分析对抗网络,通过网络间的对抗学习提高隐写图像抗隐写分析检测的能力,生成更适合隐写的对抗图像。本文选用U-Net(Ronneberger 等,2015)作为生成器网络框架来生成对抗图像,同时为了更好地调整对抗噪声在原始图像中的分布,引入多个压缩激励网络(squeeze-andexcitation networks,SENet)(Hu 等,2018)通道注意模块来显式地建模通道依赖关系,这使网络能够将对抗噪声集中在更关键和有效的通道特征中,提高抗隐写分析能力和对抗图像的视觉质量。

本文工作的主要贡献如下:1)设计了一种同时对抗多重隐写分析器的训练网络,首先对多重隐写分析器网络进行性能优化,采用优化后的隐写分析器构建隐写分析对抗网络,通过生成网络与多重隐写分析对抗网络间的多重对抗迭代训练,生成对隐写分析网络扰动最大的对抗图像。2)发现通道注意力机制对提升生成对抗图像视觉质量和抗隐写分析能力具有促进作用。通道注意力模块可以在图像的网络激活中学习通道相关性并自适应调整通道特征,它使对抗噪声专注于嵌入对神经网络扰动最大、对原始图像改动最小的位置。3)不同于相关方法使用已训练好的隐写分析器来获得对抗图像,本文采用隐写分析器与生成器同时训练的策略,对抗图像随着隐写分析器参数的更新也不断迭代优化。同时引入均方误差损失,在保证抗隐写分析能力的前提下,提升对抗图像视觉质量。

1 相关工作

根据隐写图像生成阶段的不同,对抗样本在图像隐写中的应用可分为两种。第1种如图1所示,是基于隐写图像的对抗样本,它是指在隐写图像中添加精心构造且人眼难以察觉的细微干扰而形成的样本,这些样本会导致基于神经网络构造的隐写分析器以高置信度输出错误的分类结果;第2种如图2所示,是基于原始图像的对抗样本,它是指在原始载体图像中添加精心构造且人眼难以察觉的细微干扰而形成的样本,使用这些样本作为新的载体图像嵌入秘密信息生成的隐写图像会使基于神经网络构造的隐写分析器以高置信度输出错误的分类结果。第1种对抗样本因为在隐写图像中添加扰动,可能破坏了秘密信息在隐写图像中的原有分布,导致提取秘密信息准确率下降,所以一般采用第2 种对抗样本进行隐写研究。

图2 基于原始图像的对抗样本Fig.2 The adversarial example based on original image

Zhang 等人(2018b)提出了一种基于对抗样本的图像隐写算法,利用快速梯度下降模型(fast gradi⁃ent sign model,FGSM)来将输入的噪声迭代生成对抗载体图像,并采用经典的自适应隐写算法嵌入秘密信息,并可针对多个隐写分析生成对抗图像。

Zhou 等人(2020)采用全卷积神经网络(fully convolutional neural network,FCN)作为载体图像生成器,构建了一种可以快速生成对抗载体图像的网络模型,其设计的新的损失函数,使得对抗载体图像和隐写图像能够欺骗隐写网络的分析。该隐写模型一定程度上提高了载体图像的生成速度和质量,增强了隐写图像的安全性。

Liu 等人(2021)提出了一种增强现有隐写方法安全性的对抗嵌入隐写方法,首先结合多个载体图像梯度和生成的隐写图像来确定成本修改的方向。然后该方法并没有调整全部或随机部分的嵌入成本,而是根据载体图像梯度的幅度及其成本仔细选择候选成本。通过调整一小部分嵌入成本,可以显著提高在重新训练的基于CNN 和传统隐写分析器上评估的现代隐写方法的安全性。此外,在不同图像数据库上的安全性能评估表明,该方法的泛化性良好。

马宾等人(2023)提出了一种基于U-Net 结构的生成式多重对抗隐写算法。该算法解决了现有基于生成式对抗网络的隐写算法存在的生成图像质量尺寸小、内容不可控的问题。该方法利用了基于U-Net的生成网络模型,将参考图像中的详细信息传输到生成的载体图像中。该方法可控地生成较高质量的目标载体图像,从而增强载体图像的信息隐藏能力。

然而,这些工作虽然都取得了优秀的性能表现,但仍存在可改进之处。Zhang 等人(2018b)的隐写模型没有训练生成器,需要对每幅图像进行迭代操作来生成对抗图像,当面对大量需要嵌入秘密信息的图像时,耗费时间巨大,因而该模型只适用于少量载体图像的情况。Zhou 等人(2020)的模型只能针对一种隐写分析器生成对抗图像,且其抗隐写分析能力鲁棒性不够理想。Liu 等人(2021)的方法因为在生成对抗图像的过程中缺少迭代过程,所以在安全性方面弱于其他方法。马宾等人(2023)的方法直接使用生成器生成一幅对抗图像,没有添加对抗噪声的过程,所以生成图像质量较差,平均峰值信噪比(peak signal-to-noise ratio,PSNR)仅有36 dB 左右。针对这些不足之处,本文通过引入通道注意力机制和多重对抗思想,训练了一个可以快速有效地生成大量鲁棒对抗图像的生成器,有效提升了图像隐写术的安全性。

2 提出的方法

受生成对抗网络判别器与生成器的对抗训练和对抗样本对神经网络的高干扰性的启发,提出了一种基于生成对抗图像的提升图像隐写术安全性方法。首先,概述了模型体系结构和基本思想,然后详细描述了模型各组成部分的组成。最后,说明了各网络的损失函数。

2.1 模型的总体概述

如图3 所示,本文模型由3 部分组成:1)生成器G,输入原始图像X,输出对抗扰动噪声V,将对抗扰动噪声V添加到原始图像中生成对抗图像XV;2)隐写器SN,输入原始图像X或对抗图像XV,输出隐写图像XS或增强隐写图像XVS;3)多重隐写分析网络SD(steganalysis discriminator),它试图通过给隐写图像和载体图像分配不同的分数来区分二者,其包含两个子网络:隐写分析优化网络SON(steganalysis optimization network)和隐写分析对抗网络SAN(steganalysis adversarial network)。

图3 模型总体框架Fig.3 The framework of the model

2.2 生成器网络结构

当前存在很多性能优异的生成模型。其中,VAE 代表变分自编码器(variational autoencoder),可以从输入数据中学习潜在变量,并生成新的样本。它主要用于数据的增广分布,例如生成新的图像、视频、声音和文本等。U-Net 与VAE 类似,都是编码解码(encoder-decoder)结构,该网络由相互对称的用于获得前后文信息的收缩路径和用于精确定位的扩展路径组成。U-Net通过同层跳接的网络结构,可以将原始图像的细节信息传递到生成模型中,从而实现图像高品质重建。

在本文方法中,生成器生成的不是图像,而是对抗噪声,对抗噪声添加到原始图像中生成对抗图像,对抗噪声在原始图像中分布位置的不同也会大大影响生成对抗图像的图像质量和抗隐写分析能力,需要精准地定位对抗噪声的分布位置。因此,本文采用U-Net 网络结构,在加入对抗噪声的同时,减少对原始图像的扰动,从而生成更适合信息隐写的载体图像。如图4所示,本文使用U-Net构建生成器网络结构。通过调整对抗噪声的大小,可以将其强度控制在一定范围内。最后,本文将对抗噪声添加到原始图像,并将像素值约束在特定范围内,生成对抗图像。

图4 生成器网络结构Fig.4 The network structure of the generator

2.3 隐写方法

近年来,随着STC 隐写码的问世,自适应隐写(adaptive steganography)框架在主流隐写算法中得到广泛应用。这一框架的核心是结合“STC 编码+代价函数”,通过代价函数计算每个载体元素的修改代价,并在完成消息嵌入的同时运用STC编码算法,以最小化总修改代价。实验中分别采用两种性能优异的主流隐写方法来生成嵌入代价。其中使用生成对抗网络的自动隐写失真学习框架(automatic stegano⁃graphic distortion learning framework with GAN,ASDL-GAN)(Tang 等,2017)模拟了加性失真的隐写术和基于深度学习的隐写分析之间的对抗竞争。在ASDL-GAN 框架下,学习到的失真函数与对抗隐写分析器的不可检测性直接相关。UT-GAN(Yang 等,2019)跟踪了ASDL-GAN的研究,将生成器替换为高效的U-Net 结构。此外,通过引入无需预训练的Tanh-simulator 函数,在不损失安全性能的前提下,使得训练时间大大减少。

2.4 通道注意力模块

深度学习中的注意力机制使网络学习关注重要特征而忽略不相关的特征。在生成对抗图像的过程中,对抗噪声以与原始图像特征融合的方式嵌入。这些特征最终对隐写分析网络的扰动重要性不同,因此注意力机制可能有助于提高对抗图像抗隐写分析能力,同时在不同通道合理位置添加对抗噪声对生成对抗图像质量的影响也不同,通道注意力机制可能有助于提升生成对抗图像质量。硬注意力机制选择输入数据元素的一个子集,完全丢弃其余元素。由于其不可微性,它通常与强化学习相关联。在生成对抗图像的过程中,载体图像的信息需要尽可能保留,而不是丢弃。此外,强化学习的训练往往效率低下。自我注意力机制捕获计算机视觉领域中图像块之间的内在关联。由于对抗图像的生成考虑了整体图像信息,因此对其的直接贡献很小。因此本文选择软注意力机制,它为特征分配一个介于0和1之间的权重,以指示需要注意的程度。

软注意力机制主要包括空间注意力和通道注意力。前者允许网络找到合适的图像区域,而后者有助于在特征图中聚焦于有利的通道。空间注意力使用注意力模型生成一个掩膜,表明原始图像的注意敏感性,这是一种空间注意。掩膜中的值越大,意味着相应像素的变化将导致视觉检测的风险越高。然而,空间注意力显示的注意力不太敏感的区域并不是复杂的纹理或边缘区域,它们被认为对自适应隐写术是安全的。由于卷积层本身具有边缘检测和纹理提取的效果,本文认为附加空间注意力模型的功能是有限的,这促使本文研究通道注意力对图像隐写术的影响。在本文方法中,卷积层是基本的构建块。它将图像转换为多通道特征图,以便在这些通道特征中加入对抗噪声。在处理输入特征图时,经典卷积运算无法捕获通道内的整体信息和通道之间的依赖关系,导致输出特征图中出现一些无意义的通道。在输出的对抗图像中,无意义的通道可能进一步转化为不必要的噪声,这对对抗图像的图像质量不利。因此,应强调重要的通道,抑制无意义的通道。为此,本文引入了SENet(squeeze-and-excitation networks)通道注意力模块,根据通道的重要性调整通道。将输入特征图F表示为F∈RM×H×W,它首先利用通道间的相互依赖性来推导权重向量。每个权重反映了每个通道的重要性。然后将权重乘以相应的通道以缩放特征,输出重新校准的特征图U。通道注意力模块的结构如图4 的下半部分所示。SENet 首先使用平均池化在特征图F的每个通道中聚合空间信息以获得favg∈RM×1,具体为

式中,m表示favg中的第m个元素,(i,j)表示坐标。池化操作将每个通道的全局信息压缩为一个标量,作为空间特征统计。为了从这些统计信息中得出表示每个通道重要性的权重,SENet 对它们执行线性和非线性操作。具体来说,SENet 使用由两个全连接层组成的共享网络来传播favg。接下来通过sig⁃moid 函数将特征向量转换为通道权重向量。即权重向量s∈RM×1计算为

式中,δ和σ分别代表ReLU 激活函数和sigmoid 激活函数,W1和W2指每层的权重。需要注意的是,隐藏层对输入进行降维,以平衡模型的性能和计算复杂性。本文参考相关通道注意力机制的研究,将折断系数τ设置为16,这是最佳配置。最后,s的每个元素(作为标量)乘以F的每个通道以计算U=[U1,U2,…,Um]。U的第m个通道的计算可表示为

这样,通过与较低权重相乘来抑制无用通道,反之亦然。修改通道后,特征图U具有更强的与对抗噪声融合的能力。

2.5 损失函数

在本文网络中,生成器G输入原始图像,输出对抗噪声,对抗噪声再添加到原始图像中生成对抗图像,并使用隐写分析网络SD判别生成的对抗图像是否为原始图像,输出概率越大,生成对抗图像越倾向于被认定为原始图像。多重隐写分析网络的训练目标是:当输入为对抗图像时,期望输出概率接近于0;当输入原始图像时,期望输出概率接近于1。它的损失函数LSD1可以表示为

式中,x1和x2分别是原始图像和生成对抗图像的概率,x'1和x'2对应的则是原始图像和生成对抗图像的标签。

此外,多重隐写分析网络SD 判别生成的对抗图像与基于对抗图像生成的增强隐写图像的概率,输出概率越大,增强隐写图像越倾向于被认定为对抗样本(隐写分析器认为其为原始图像)。多重隐写分析网络的训练目标为:当输入为增强隐写图像时,期望输出概率接近于0;当输入对抗图像时,期望输出概率接近于1。它的损失函数LSD2可以表示为

式中,y1和y2是隐写分析器SD最后经过softmax层的输出,分别是对抗样本与增强隐写图像的概率,y'1和y'2分别是输入的对抗样本和增强隐写图像对应的标签。

在本文方法中,需要保证生成的对抗样本XV和原始图像X的视觉不可区分性。为了实现这一目标,本文用均方差损失(MSE_loss)来表示图像失真损失,具体为

本文方法的生成器通过生成对抗图像来干扰多重隐写分析器的判别,输出错误的结果,所以两个判别损失LSD1和LSD2取相反数相加作为生成器总损失的一部分。同时,为了提升生成对抗图像的视觉质量,像素空间均方差损失MSE_loss添加到总损失中,促使生成的对抗图像取得更理想的PSNR 值。最终生成器G的总损失为

式中,n代表本文训练过程中同时对抗的隐写分析器数量,k,α,β,λ均为权重系数。本文研究初始开展时同时对抗四重隐写分析网络,训练速度缓慢,生成对抗样本图像质量较差,经过消融实验和损失函数权重调整将隐写分析器数量降为2。

本文方法在初始构思时只是将生成器生成对抗图像,隐写分析器判别输入图像是原始图像还是对抗图像做了对抗训练。但在后续实验中发现,使用这种方式生成的对抗图像在嵌入秘密信息后抗隐写分析能力大大下降,分析认为嵌入的秘密信息破坏了原有对抗图像中的对抗噪声的分布。于是,在本文方法中,将对抗图像嵌入秘密信息生成隐写图像的过程和隐写分析器判别输入图像是载体图像还是隐写图像做了对抗训练。通过本文提出的损失函数也可以看出,原始图像和对抗图像,以及对抗图像和增强隐写图像都会输入到隐写分析器中,通过对抗训练让网络学习,将秘密信息尽可能嵌入到不会影响对抗图像抗隐写能力的位置。

3 实验结果与分析

为了通过实验验证本文方法,选择当前流行的用于隐写基准测试的BOSS Base 数据集。它由10 000 幅未压缩的大小为512 × 512 像素的灰度图像组成,本文方法将其降维为256 × 256 像素的图像集,并随机选取10 000幅开展研究,训练集和验证集分别为8 000幅和2 000幅。秘密信息嵌入步骤使用了两种典型的隐写方法,即ASDL-GAN 和UT-GAN。本文使用了4种基于CNN的隐写分析器,即Xu-Net、Ye-Net、SRNet 和Zhu-Net 以及一种传统的基于特征统计的隐写分析器SRM。基于各自论文中描述的实验结果和本文的实验验证,这些隐写分析器的检测 能力按以下顺序排列:Zhu-Net > SRNet > Ye-Net > SRM > Xu-Net。使用Adam 作为生成器的优化器,学习率=0.000 1,beta_1=0.5,beta_2=0.99。隐写方法和隐写分析网络的优化器及其使用的参数在原始论文中给出。

3.1 隐写分析网络消融实验

为提升对抗图像抗隐写分析能力,本文初始选择同时对抗Xu-Net、Ye-Net、SRNet、Zhu-Net 4种高性能深度学习隐写分析器进行训练。考虑到同时对抗4 重隐写分析网络会使模型参数量急剧增加,导致训练速度缓慢、训练周期长,且生成对抗图像的过程中对抗噪声每次迭代要按照4 重隐写分析网络的梯度反馈来叠加生成,这可能会导致有大量冗余的对抗噪声被添加到原始图像中,最终使得生成的对抗图像质量较差。

为了在保证对抗图像抗隐写分析能力良好的前提下,减少模型参数量,缩短训练时间,提高生成对抗图像的视觉质量,本文在实验中对训练时同时对抗的隐写分析网络数量进行了消融实验。如表1 所示,本文分别采用Xu-Net+Ye-Net+SRNet+Zhu-Net、Ye-Net+SRNet+Zhu-Net、Ye-Net+SRNet、Ye-Net+Zhu-Net、SRNet+Zhu-Net、SRNet、Zhu-Net 的隐写分析网络结构来进行训练。实验中采用UTGAN作为隐写方法,嵌入容量为0.4 bit/像素。

表1 隐写分析网络消融实验结果Table 1 The results of steganalytic networks ablation experiments

表1 显示了消融实验结果,其中“原始隐写”表示隐写分析器识别原始隐写图像的准确率,“增强隐写”表示隐写分析器识别基于对抗图像生成的隐写图像的准确率。最优结果应为0.5,这表明隐写分析器无法区分输入图像是载体图像还是隐写图像。表1 数据表明,选择SRNet+Zhu-Net 作为隐写分析网络的组合进行训练可以实现隐写安全和图像质量之间的最佳平衡。因此,本文将隐写分析网络数量n设置为2,并选择此组合进行后续实验。由实验结果可知,针对SRNet 和Zhu-Net 生成的对抗图像,在面对Xu-Net、Ye-Net 的检测时也可以取得很好的抗隐写分析效果,这表示我们的模型具有很好的泛化性,即使面对未知的隐写分析器的检测时也可以取得很好的效果。

3.2 通道注意力模块消融实验

在深度学习中使用通道注意力机制,可以让网络学会强调关键的特征而忽略不相关的特征。在生成对抗图像时,对抗噪声与原始图像特征相结合,这些特征对对抗图像具有不同的意义。因此,使用通道注意力机制可以增强对抗图像的抗隐写分析能力。此外,在不同的通道中加入对抗噪声对图像视觉质量的影响是不同的,因此,使用通道注意力机制可以潜在地提高对抗图像的质量。

本文进行消融实验来评估通道注意力添加位置对本文提出的模型的影响,本文测试了4 种变体:1)在编码阶段添加通道注意力模块;2)在解码阶段添加通道注意力模块;3)在编码和解码阶段都添加通道注意力模块;4)不添加通道注意力模块。信息嵌入方法为UT-GAN,嵌入容量为0.4 bit/像素。实验结果如表2 所示,当选择在编码阶段加入通道注意力模块时,对抗图像质量和抗隐写分析能力都达到了最佳效果。

表2 通道注意力模块消融实验结果Table 2 The results of channel attention modules ablation experiments

3.3 生成器损失函数权重实验

3.3.1 MSE损失Lm权重λ

采用均方差(mean squared error,MSE)作为生成网络的损失参数时,损失的权值也会对生成对抗样本的图像质量和抗隐写分析能力产生影响。表3 为不同λ取值下生成对抗图像的PSNR 和结构相似性(structural similarity,SSIM)评价结果以及相应4 种隐写分析网络的准确率。由表3 可以看出,当λ=0.2 时,生成图像平均PSNR 为39.355 6 dB,SSIM 为0.960 0,使Xu-Net、Ye-Net、SRNet 和Zhu-Net 的准确率也分别达到了49.8%、50.3%、49.5% 和50.4%,此时生成对抗图像质量最优,且抗隐写分析能力也较强,本文认为达到了最优平衡,是最理想的权重。因而,实验中将生成器损失函数中MSE_Loss的权重λ设置为0.2。

表3 权重λ实验结果Table 3 The results of weight λ

3.3.2 判别损失权重α和β

表4 展示了不同α和β设置下,达到的最 优PSNR 与SSIM 值以及4 种隐写分析网络的准确率。由表4 可以看出,在α=0.1,β=0.9 时,对抗图像的PSNR达到了39.431 2 dB,SSIM达到了0.962 0,4种隐写分析网络的准确率分别达到50.3%、49.6%、50.4%和50.3%,此时生成对抗图像质量最优,且抗隐写分析能力也较强,本文认为达到了最优平衡,是最理想的判别损失权重。因而,实验中将判别损失权重设置为α=0.1,β=0.9。

表4 权重α和β实验结果Table 4 The results of weight α and β

3.3.3 SRNet和Zhu-Net权重分配k1和k2

本文在前面对多重隐写分析网络结构做了消融实验,最终只留下SRNet 和Zhu-Net,在生成器损失函数中,SRNet 和Zhu-Net 也存在权重分配问题,SRNet 损失对应权重为k1,Zhu-Net 损失对应权重为k2。通过对两种隐写分析网络分配不同的权重,生成对抗图像对两种隐写分析网络的扰动程度也不相同。表5 展示了SRNet、Zhu-Net 不同权重分配下生成对抗图像的图像质量和对不同隐写分析网络的扰动效果。本文期望通过调整权重分配来使生成的对抗图像对每个隐写分析网络都达到很好的扰动效果。由表5数据可以看出,当k1=0.5,k2=0.5时,生成对抗样本对4 种隐写分析网络的扰动效果总体上最强,同时具有良好的图像质量。

表5 权重k1和k2实验结果Table 5 The results of weight k1 and k2

3.4 对抗图像质量分析

本节中,使用之前实验确定的隐写分析网络数量和参数来训练模型,然后基于测试集生成2 000幅对抗图像。图5 显示了原始图像和生成对抗图像之间的差异。为了更加细致地观察这些差异,本文还展示了它们相应的直方图。如图5所示,原始图像和对抗图像非常相似,人类视觉系统无法区分它们。

图5 原始图像与对抗图像及其直方图Fig.5 The original images,adversarial images and their corresponding histograms((a)original images;(b)adversarial images;(c)histograms of original images;(d)histograms of adversarial images)

图6展示了随机挑选的800幅对抗图像的PSNR和SSIM 值的散点图。根据统计,平均PSNR 值为39.925 1 dB,平均SSIM 值为0.960 1。实验结果表明,本文设计的基于U-Net 添加通道注意力模块的生成器可以输出高视觉质量的对抗图像。

图6 800幅对抗图像的PSNR和SSIM值散点图Fig.6 The scatter plots of the PSNR and SSIM of 800 adversarial images((a)PSNR;(b)SSIM)

3.5 抗隐写分析能力比较

抗隐写分析能力是评估对抗图像性能的核心指标。考虑到Zhang 等人(2018b)、Zhou 等人(2020)、Liu 等人(2022)和马宾等人(2023)的方法都通过生成对抗图像增强图像隐写术安全性,因此本文将所提方法与这4 种当前性能较优异方法的实验结果进行比较。实验中使用的秘密信息嵌入的隐写方法分别是ASDL-GAN 和UT-GAN,嵌入容量为0.4 bit/像素。实验中,为了保证可比性,本文比较的其他4 种方法也分别根据SRNet 和Zhu-Net 的梯度反馈生成2 000幅对抗图像,且与本文方法在噪声强度方面相似。实验结果如表6所示。

表6 使用原始隐写图像训练过的隐写分析器的检测准确率Table 6 Accuracy of the steganalyzers trained on original images/%

表6 展示了已经针对原始隐写图像进行过训练的隐写分析器对对抗图像的检测能力。用于检测的预训练隐写分析器与被攻击的隐写分析器具有相同的框架。从表6 中可以看出,当用于检测的隐写分析器是Xu-Net或Ye-Net或SRM 时,与未经修改的原始图像相比,使用5 种方法生成的对抗图像,经过秘密信息嵌入生成的增强隐写图像,都可以将隐写分析网络的准确性降低至0.5 左右。但是,当面对SRNet 或Zhu-Net 的检测时,基于其他4 种方法的增强隐写图像都无法欺骗这两种当前最为先进的隐写分析器。而本文方法在面对这两种隐写分析器的检测时表现良好,有效地提高了图像隐写的安全性。

此外,本文将生成的对抗图像和增强的隐写图像作为训练集,重新训练了5 个隐写分析器,并使用重新训练后的隐写分析器来检测5 种方法生成的对抗图像的抗隐写分析能力。实验结果如表7 所示。由表7数据可得,5种方法的抗隐写分析能力都有不同程度的下降。因为这5 五种方法都是通过添加对抗噪声来修改图像的敏感区域,使隐写分析器错误分类增强隐写图像,从而增强抗隐写分析能力。然而,添加噪声会影响图像的高频区域,不可避免地添加冗余的“特征”信息,使重新训练的隐写分析器更容易检测到这些信息。但是本文方法仍然比其他4种方法表现更好,因为其他4种方法在训练生成器时固定了隐写分析器的参数,而本文方法在隐写分析器和生成器之间进行对抗训练,这意味着生成器不断根据优化后的隐写分析器的反馈迭代地生成对抗图像,使它们具备更好的抗隐写分析能力,从而更显著地提高图像隐写术安全性。

表7 使用对抗图像再训练过的隐写分析器的检测准确率Table 7 Accuracy of the steganalyzers retrained on adversarial images/%

4 结论

针对现有隐写方法很难抵御基于深度学习的隐写分析器的检测的问题,本文提出一种基于生成对抗图像的提升图像隐写术安全性的新方法。使用基于U-Net 框架的添加通道注意力模块的生成器,经过与多重隐写分析网络的对抗训练,可以生成高质量的对抗图像。相较于使用原始图像嵌入秘密信息生成的隐写图像,使用本文方法生成的对抗图像作为载体图像生成的增强隐写图像可以抵御当前先进的隐写分析器的检测。实验结果显示,本文方法生成的对抗图像的平均PSNR值可以达到39.925 1 dB,图像质量极高。同时,在BOSS Base 数据集上与其他4 种基于生成对抗图像的方法的比较实验显示,本文方法性能更为优异,对图像隐写术安全性的提升更大。

虽然本文方法可以有效提升图像隐写术的安全性,但仍存在需要改进之处。本文方法的生成器使用的是传统U-Net 结构,网络层数较深,导致模型参数量较大,训练速度有待提升。未来工作中,将围绕设计更加轻巧的生成器结构开展研究,提升模型训练速度。

猜你喜欢

分析器注意力载体
创新举措强载体 为侨服务加速跑
让注意力“飞”回来
坚持以活动为载体有效拓展港澳台海外统战工作
酒精分析器为什么能分辨人是否喝过酒
多边形电极线形离子阱质量分析器的结构与性能
应用于词法分析器的算法分析优化
“扬眼”APP:让注意力“变现”
A Beautiful Way Of Looking At Things
TiO_2包覆Al_2O_3载体的制备及表征
Lucene中文分析器在书目搜索应用中的比较研究