APP下载

一种基于GAN和纠错编码技术的无嵌入隐写方法

2021-01-06梁天一梁谦旺施秦魏苏航蒋翠玲

计算技术与自动化 2021年4期

梁天一 梁谦旺 施秦 魏苏航 蒋翠玲

摘 要:为解决传统的信息隐藏技术中隐写容量小和隐写安全性低的不足,提出了利用生成式对抗网络(GAN)的无载体信息隐藏方法。首先利用噪声驱动生成器直接生成含密图像,然后训练秘密信息提取器以恢复隐藏的秘密消息。同时,进一步优化了提取器的训练任务,并引入冗余纠错编码技术。实验结果表明,相比同类方法,在大隐写容量的情况下,具有更高的信息提取准确率,同时加快了提取器的训练收敛速度。

关键词:信息隐藏;无嵌入隐写;生成式对抗网络;纠错编码

中图分类号:TP39      文献标识码:A

Abstract:A coverless information hiding method using Generative Adversarial Network (GAN) is proposed to address the shortcomings of the traditional information hiding techniques in terms of small hiding capacity and low security.Firstly, a generator is used to generate the digital imagedriven by the secret data directly. Next, the extractor for secret is trained to extracthidden information.At the same time, the training task of the extractor is further optimized and redundant error correction coding techniques are introduced. Compared with similar algorithms,at high steganography capacity,the proposed method ensures higher information extraction accuracy andfasterthe convergence speed intrainingstageofextractor.

Key words: information hiding; steganography without embedding; generative adversarial network; error correcting codes

隐写是信息安全领域的重要技术之一,它将秘密信息嵌入到载体中以形成隐秘体,从而实现保密通信的目的。图像隐写技术大致可以分为三类:基于图像修改的方法、基于图像选择的方法、基于图像合成的方法[1]。基于載体修改的方法通过在空域或变换域对原始图像进行某种修改而将秘密消息嵌入到图像中。由于对载体进行了修改,因而得到的隐秘图像容易被隐写分析者检测出来,这类传统的隐写方法安全性相对较低。基于图像选择的方法中,发送者拥有一个固定的图像库,将秘密信息映射成图像库中的新的图像排列或组合以形成隐秘图像。如果隐写分析者发现其映射规律仍可检测出来,而且其嵌入率较低。基于图像合成的方法是将秘密信息直接合成于载体中,因无固定载体而传递秘密信息,也称为无载体信息隐藏,这类方法的安全性较高。生成式对抗网络(Generative Adversarial Network,GAN)[2]的出现使得这类方法得到了进一步深入的研究[1]。

1  相关工作

传统的有载体图像隐写技术易于被隐写分析者检测,安全性相对较低。而无载体的信息隐藏方法由与GAN的快速发展以及安全性高的特点,近几年得到了快速的发展。该类方法的基本原理是将含密信息与原图像的特征元素,比如噪点、颜色、像素等建立映射关系,以含密信息为驱动,生成载体图像,从而抵御基于统计的隐写分析的检测,获得了较高的安全性。

周等[3]提出一种基于BOW(Bag-of-words)模型的无载体信息隐藏算法。该方法使用BOW模型提取图像的视觉关键词(visual words, VM)来表达秘密信息,实现了信息隐藏,但是需要大量的构建码本,存储开销大,且隐藏容量小。文献[4-5]的方法避免了构建自然图像,采用了基于纹理图像合成的方法实现信息隐藏,但该图像由于不是“自然图像”,容易受到攻击方的怀疑。张等[6]的基于变换域和主题分类的无载体图像隐写算法,能够抵抗现有隐写算法的检测,对常用图像处理具有更好的鲁棒性和抗隐写分析能力。刘等[7]在此基础上,提出了基于辅助分类器生成对抗网络ACGAN(Auxiliary Classifier GANs)[8]的无载体信息隐藏方案,利用类别标签与噪声联合驱动生成载体图像,实现了信息隐藏,该方案在抗隐写分析的检测和安全性方面均有不错的表现,但隐写容量低,且生成的图像不够清晰。胡等[9]首次提出了基于深度卷积生成对抗网络DCGAN(Deep Convolutional GANs)[10]的一种新型图像隐藏方案。该方案将秘密信息与噪声向量建立映射关系,把预处理的秘密信息作为DCGAN的输入,生成载体图像,接收方利用卷积神经网络(Convolutional Neural Networks,CNN)的提取器实现秘密信息的恢复。相比文献[7],胡[9]的方法隐写后的图像质量更高,安全性更好。张等[11]进一步提出了一种综合语义和生成对抗网络的隐写方法。该方法实现了秘密信息提取的高准确率,但隐写容量有限。朱等[12]利用O-GAN(Orthogonal GAN)[13]代替DCGAN作为生成器,利用判别器与U型网络相结合来从含密图像中提取秘密信息,取得更高生成图像质量与恢复准确率。

基于文献[9],对其信息提取流程进行优化,使得在高隐写容量的情况下更高的秘密信息提取的准确率和更快的收敛速度。同时引入了纠错编码机制[14],大幅提高了信息提取的准确率。

2 基于GAN的无嵌入隐写方法及改进

2.1 基于DCGAN的无嵌入隐写方法

改进的基于DCGAN的无嵌入隐写方法分为三个阶段实现,如图1所示。

3 实验与分析

3.1 实验环境与数据来源

3.1.1 实验环境

实验网络硬件平台为移动版RTX2070显卡,32GB内存,采用PyTorch搭建神经网络。

3.1.2 数据源

实验计划在两个数据集上进行,分别是开源的322像素的Cifar10[16]和642像素Celeb-A[17]数据集。

3.1.3 实验方法

第一阶段首先通过随机函数产生二项分布的比特流作为秘密信息S,将其按照2.2.1小节中步骤1、2的映射方法映射为z,输入到两个训练好的DCGAN模型中,得到50,000张322像素的图像,50,000张642像素的图像,作为信息提取器E的数据集的x,对应的S作为数据集y。

第二阶段将上一阶段得到的数据集按照7:2:1比例划分为训练集、验证集和测试集。分别在两种方案的网络上实验。采用胡[9]的参数,设置学习率为0.0002,使用Adam优化器,batch大小为100,将训练集的所有实例训练完一次称为一次训练,每次训练记录一次训练集、验证集和测试集的损失(Loss)及准确度(Acc)。E的恢复准确率定义为输出向量经过离散化后的S'对比原S的正确率(S'与S相等的位数/S的总位数×100%)。

3.2 实验结果与分析

基于同一预训练的DCGAN的生成器,输入相同噪声得到一批含密图片作为第二阶段数据集,之后分别进行文献[9]中Stego→z→S与改进后方案的Stego→S任务。通过实验与胡[9]的方案对比分析在不同携带位数σ值、不同的含密图像大小和是否加入纠错编码的条件下对秘密信息恢复准确率的影响。

3.2.1 不同携带位数σ以及图像大小对E的准确率的影响

图4显示了不同σ及图像大小对E的准确率率的影响,随着σ的增加,信息恢复的准确率下降,这是由于随着σ的增大,网络输出维度增加,恢复难度增大。同时,含密图像的像素越多,信息提取的准确率越大,这是由于尺寸更大的图像能为E提供更多的信息量。

3.2.2 在验证集与训练集上的提取器E的准确率

CNN提取器E在图像大小为642的数据集上,验证集与训练集上的Acc曲线如图5所示。

由图5分析可知,胡[9]的方案恢复准确率是在训练集上的准确率,高达95%以上,而交叉验证集的准确率却不高,σ=1时仅能达到85%左右。不过由于信息隐藏的实际应用情况,可以针对特殊情景构造不同的训练集,使得传送的是训练集内的消息,使之达到训练集内恢复准确率。相比原文,改进后的方案在保持准确率差距不大的情况下, 训练的收敛速度更快。

3.2.3 引入冗余纠错编码对准确率的影响

在相同数据集下,其中纠错码数据集的密文长度为1000×σ (bits),不使用纠错码的数据集的密文长度为6000×σ(bits),分别采用胡[9]中的方法与改进后的方法进行对比,得到在不同σ(1、2、3)情况下E的恢复准确率,如表1所示。

如表1所示,随着σ的增大,测试集的准确率大幅下降,在没有考虑纠错编码时,准确率与胡[9]的相当。但在胡[9]的方法中,随着σ的增大,不同编码的映射范围越来越小,由E恢复得到z′,再转换成S′的错误概率会越来越大。在引入纠错编码之后,改进前后的方案的信息恢复准确率都得到了大大提高。同時,改进部分提高了在σ较高的情况下的准确率,这在引入纠错码后更为明显。

4 结 论

提出了一种改进的基于GAN的无嵌入隐写方法,优化了信息提取器的训练方法,并引入了纠错码机制以提高信息恢复的准确率。实验表明,相比原方法,该方法训练速度更快,实现方便,且在随机噪声携带秘密信息比特位数多的情况下,信息恢复准确率更高。在下一步工作中,可以考虑改进纠错码的机制,采用更为先进的纠错机制,还可考虑进一步优化提取器E的结构。

参考文献

[1]刘佳,柯彦,雷雨,等.生成对抗网络在图像隐写中的应用[J].武汉大学学报(理学版),2019,65(2):139-152.

[2]GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. Advances in Neural Information Processing Systems. 2014: 2672-2680.

[3]周志立,曹燚,孙星明.基于图像Bag-of-Words模型的无载体信息隐藏[J].应用科学学报,2016,34(5):527-536.

[4]XU Jia-yi, MAO Xiao-yang, JIN Xiao-gang, et al. Hidden message in a deformation-based texture[J]. The Visual Computer, 2015, 31(12): 1653-1669.

[5]WU Kuo-chen, WANG Chung-ming. Steganography using reversible texture synthesis[J]. IEEE Transactions on Image Processing, 2014, 24(1): 130-139.

[6]ZHANG Xiang, PENG Fei, LONG Min. Robust coverless image steganography based on DCT and LDA topic classification[J]. IEEE Transactions on Multimedia, 2018, 20(12): 3223-3238.

[7]刘明明,张敏情,刘佳,等.基于生成对抗网络的无载体信息隐藏[J].应用科学学报,2018,36(2):371-382.

[8]ODENA A, OLAH C, SHLENS J. Conditional image synthesis with auxiliary classifier gans[C]. International Conference on Machine Learning,2017: 2642-2651.

[9]HU Dong-hui, WANG Liang, JIANG Wen-jie, et al. A novel image steganography method via deep convolutional generative adversarial networks[J]. IEEE Access, 2018, 6: 38303-38314.

[10]RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015.

[11]ZHANG Zhuo, FU Guang-yuan, NI Rong-rong, et al. A generative method for steganography by cover synthesis with auxiliary semantics[J]. Tsinghua Science and Technology, 2020, 25(4): 516-527.

[12]朱翌明, 陈帆, 和红杰, 等. 基于秘密信息驱动的正交 GAN 信息隐藏模型[J]. 应用科学学报, 2019,37(5):721-732.

[13]SU Jian-lin. O-GAN: Extremely concise approach for auto-encoding generative adversarial networks[J]. arXiv preprint arXiv:1903.01931, 2019.

[14]宗橙. 糾错编码原理和应用[M]. 北京:电子工业出版社, 2003.

[15]马永辉,徐长勇,平西建,等.基于纠错码的信息隐藏及其实现方法[J].计算机应用研究,2012,29(7):2686-2689.

[16]KRIZHEVSKY A. Learning multiple layers of features from tiny images[R]. Technical Report,University of Toronto,Canada,2009.

[17]LIU Zi-wei, LUO Ping, WANG Xiao-gang, et al. Deep learning face attributes in the wild[C].Proceedings of the IEEE International Conference on Computer Vision,2015: 3730-3738.