APP下载

基于深度学习的图像风格迁移研究进展

2021-06-11陈淮源张广驰周清峰

计算机工程与应用 2021年11期
关键词:语义损失特征

陈淮源,张广驰,陈 高,周清峰

1.广东工业大学 信息工程学院,广州510006 2.东莞理工学院 电子工程与智能化学院,广东 东莞523808

在图像处理领域中,图像风格迁移是一个有趣的研究热点,其主要任务是将一张图像的风格迁移到另一张图像上,这也被认为是一个纹理迁移问题,即在目标图像上合成源图像纹理的过程,其描述如图1所示。传统非参数的纹理合成方法通常是在原始纹理图像上进行重采样来合成新纹理,这只是一个在不改变其感知属性条件下随机化原始纹理的过程,在处理结构简单的图像上可以获得较好的效果,但在颜色和纹理复杂的图像上的处理效果难以令人满意,无法符合实际应用场景的需求。

图1 图像风格迁移示意图

随着深度学习[1-2]的兴起,Gatys等人[3]提出一种基于卷积神经网络(Convolutional Neural Networks,CNN)的高效参数纹理建模方法,通过预训练VGG模型[4]提取图像的抽象特征表示,构造Gram矩阵作为图像的风格表征,即利用特征图之间的相关性来表示纹理模型。基于这种风格表征方法,Gatys等人[5-6]开创性地提出了神经风格迁移,其核心原理是对图像数据进行特征拟合,使用预训练VGG模型作为图像特征提取器,显式地分离图像内容和风格的抽象特征表示,通过独立地处理这些特征表示来生成具有原图像内容和新风格的风格化图像。

神经风格迁移展现出了非常出色的视觉效果,引起了学术界和工业界的大量关注,但是神经风格迁移背后的原理仍然不清楚。Li等人[7]提出对风格迁移的新解释,认为风格迁移是一个特殊的领域自适应问题。领域自适应属于迁移学习的范畴,旨在从源数据分布中学习在不同的目标数据分布上有良好性能的模型,其关键在于衡量和最小化源分布与目标分布之间的差异。他们从数学理论上证明了匹配特征图的Gram矩阵等价于最小化一个二阶多项式核的MMD(Maximum Mean Discrepancy)[8]统计量,该统计量在领域自适应中常用来测量两个分布之间的差异。Li等人[7]还实验了其他不同核函数的MMD统计量,而且都得到了多样且合理的风格化结果,由此提出神经风格迁移本质上是一个特殊的领域自适应问题,这种解读为风格迁移问题提供了一个新视角,启发了后续许多风格迁移工作。在生成对抗网络(Generative Adversarial Networks,GAN)[9]中,图像风格迁移是一个图像到图像翻译问题,通过对抗训练判别图像数据空间的分布,能将一个域的图像转换到另一个域。

1 基于深度学习的图像风格迁移

本章以基于深度学习的图像风格迁移主要原理为出发点,从基于CNN的图像风格迁移和基于GAN的图像风格迁移这两类方法中,归纳和整理图像风格迁移现有的研究工作,并对它们进行对比分析。

1.1 基于CNN的图像风格迁移

基于CNN的图像风格迁移是以特征提取器为核心,通过特征统计来近似度量风格损失。基于CNN的风格迁移基本框架如图2所示。根据度量风格损失的统计量不同,基于CNN的方法可以归纳为基于特征分布的二阶统计量和基于特征分布的一阶统计量,以下对这两类方法进行展开叙述。

图2 基于CNN的图像风格迁移基本框架图

1.1.1 基于特征分布的二阶统计量

Gatys等人[5-6]最早发现卷积神经网络可以从任意图像中分离地提取图像的内容特征表示和风格特征表示,他们使用预训练VGG模型作为特征提取器和构造图像特征的Gram矩阵作为风格表示,利用图像迭代的方式直接优化初始噪声图像的像素,生成具有原内容和新风格的风格化图像。给定内容图像Ic、风格图像Is和生成图像I,基于CNN的图像风格迁移的总损失函数表示如下:

其中,Lc为内容损失函数,度量给定内容图像和生成图像之间内容表示的差异。Ls为风格损失函数,度量给定风格图像和生成图像之间风格表示的差异。系数α和β分别为内容损失函数和风格损失函数的权重值,用于平衡生成图像中内容和风格的比重。在风格迁移任务中,内容损失往往不使用逐像素求差的损失函数,而是使用图像特征表示求差的损失函数。内容损失函数的表示如下:

其中,Fl(I)表示图像I在VGG网络中第l层的特征表示,{}lc表示在VGG网络中用来计算内容损失的特征层集合,即内容损失函数定义为图像的特征重建损失。对于风格损失,则使用图像特征表示的Gram矩阵对图像风格进行建模。风格损失函数的表示如下:

其中,Gl(I)∈ℝNl×Nl表示图像I在VGG网络中第l层特征的Gram矩阵,Nl为第l层特征图的通道数,{}ls表示在VGG网络中用来计算风格损失的特征层集合。图像特征表示的Gram矩阵是特征分布的二阶统计量,通过图像特征之间的相关性来描述图像的风格。在预训练VGG模型中,浅层特征表示图像的低级语义信息(如图像的边缘和颜色等),而网络深层特征能捕捉图像的高级语义信息。在内容损失的特征层选择上,选择浅层特征往往会过于保留内容信息而影响风格化效果,所以选择深层特征计算内容损失不仅能获得期望的风格化效果,而且保留了图像的高级语义信息。对于风格损失的特征层选择上,不同深度的层有着不同粒度的风格效果,选择多个不同深度的特征层能获得更好的视觉效果。

基于图像迭代的风格迁移方法虽然在合成图像上有很好的视觉效果,但是这种优化方式是在图像各像素点上通过反向传播来改变像素值,这是一个缓慢且耗费内存的过程,在计算效率方面极大地限制其推广和应用。为解决这个问题,文献[10-11]提出了快速风格迁移方法,与基于图像迭代的方法相比在速度上提高了三个数量级,即基于模型迭代的风格迁移方法。基于模型迭代的风格迁移方法通过大量图像来训练一个特定风格的前馈生成网络,将计算的负担转移到模型的学习阶段,训练后的模型可以实现实时的快速风格迁移,这种方法也是目前应用市场上主要使用的方法。

快速风格迁移[10-11]虽然有效地解决了计算效率上问题,但这种方法需要为每种风格单独训练一个模型,使得扩展到其他风格的时间成本过大。针对这个问题,Chen等人[12]提出一种在单个模型生成多种风格的方法,将每种风格分别绑定为一组卷积层参数,通过联合学习可以得到一个存储不同风格的风格库。Zhang等人[13]在生成网络中引入一个新的互匹配层,它能在生成网络中学习直接匹配风格特征的二阶统计量,构建了一个多风格生成网络。Li等人[14]设计了一个纹理选择网络来生成相应纹理的风格特征,分别与内容图像的特征进行结合实现多风格迁移。他们还发现使用特征的协方差矩阵代替Gram矩阵来表征风格能够改善生成图像中出现的伪影和混色问题。

根据单个模型生成风格的数量不同,文献[15]将基于模型迭代的风格迁移方法分类为三种,单一风格生成模型、多风格生成模型和任意风格生成模型。上述基于模型迭代的方法虽然有较高的转换效率,但无法推广到未见过的风格上。文献[16]提出了一种简单而有效的通用风格迁移方法,能推广到任意未见过的风格上,且不需要对这些风格进行训练。该方法是第一个无需学习的风格迁移方法,通过在图像重建网络中嵌入一对线性变换,实现图像的风格迁移。首先选择不同层次的VGG网络作为编码器,并训练其对称的解码器构成多个图像重建网络,通过递归地将白化和着色变换(Whitening and Coloring Transformation,WCT)应用于每个图像重建网络,实现了通用的风格转换。具体来说,给定一对内容图像和风格图像,先经VGG网络获得图像的矢量化特征Hc=ϕ(Ic)和Hs=ϕ(Is),再对内容图像的特征进行白化和着色变换,该线性变换表示如下:

s特征值构成的对角矩阵,Ec和Es分别为对应特征向量组成的正交矩阵。通过WCT使内容图像特征和风格图像特征的协方差矩阵直接匹配,这与上述方法优化匹配Gram矩阵有相似的精神。这种线性变换与领域自适应中的CORAL(CORrelation ALignment)[17]方法相同,CORAL方法先将源域中的数据白化,而后重新关联到目标域数据,此操作实际上是将源域和目标域数据分布的二阶统计信息对齐。谢斌等人[18]提出基于相关对齐的风格迁移模型,其中执行相关对齐的样本不是图像数据本身,而是图像的特征。由于深度特征向量具有较高的维度,WCT直接进行矩阵分解运算在计算上很昂贵。为解决这个问题,Li等人[19]采用数据驱动的方式来学习输出特征变换矩阵代替直接的矩阵运算,这种方式更加地灵活和高效。

1.1.2 基于特征分布的一阶统计量

Li等人[7]启发性地从领域自适应的角度理解图像风格迁移,他们发现批量归一化层(Batch Normalization,BN)[20]中的统计量(如均值和方差)包含不同域的特征,通过简单地调整匹配图像特征在通道方向上的均值和方差也能实现风格迁移。他们认为图像特征分布的一阶统计量也能作为风格表征,因此,构造了另一种风格损失函数,表示如下:

Ulyanov等人[21]发现在快速风格迁移网络[10-11]中使用实例归一化层(Instance Normalization,IN)[22]代替BN不仅能加快网络的收敛速度,并且允许在训练过程中达到更低的风格损失,获得了更好的视觉效果。他们认为,IN的优越性在于它能在网络削弱内容图像之间的对比度信息,从而使网络的学习更简单。文献[23]通过实验对此提出另一种解释是IN本身具有风格归一化能力,可以将每种风格归一化为目标风格,使网络其他部分可以专注内容信息的学习。在IN的基础上,Dumoulin等人[24]发现在风格迁移网络中的归一化层使用不同仿射系数能训练一个多风格生成网络。他们提出了条件实例归一化层(Conditional Instance Normalization,CIN),网络中所有的卷积参数在多种风格之间共享,具有不同仿射参数的归一化层可以将输入内容图像转换为不同的风格。

每种风格通过与网络中的归一化层参数绑定,使模型能扩展到多种风格上,但受限于覆盖的风格数量有限,无法推广到未经训练的风格上,而且附加的参数量与风格的数量成线性比例增长。为摆脱这种限制,Ghiasi等人[25]后续的工作中设计了一个风格预测网络,通过训练大量的图像来预测生成网络中CIN的仿射参数,这种数据驱动的方式为模型提供了预测其他未经训练的风格的能力。同样受IN的启发,文献[23]提出了一个简单有效的自适应实例归一化层(Adaptive Instance Normalization,AdaIN),该层中并没有需要学习的参数,它通过输入的风格图像自适应地计算归一化层的仿射参数,实现了实时的任意风格转换。AdaIN的表示如下:

其中,F(Ic)和F(Is)分别是内容图像和风格图像经预训练VGG模型得到的特征,μ(F(I))和σ(F(I))分别是对应图像特征在通道方向上的均值和方差。给定一个内容输入和一个风格输入,该方法使用VGG网络作为固定的编码器,经过AdaIN调整内容图像特征在通道方向上的均值和方差以匹配风格图像特征对应通道的均值和方差,最后解码器学习将匹配后的内容特征转到图像空间完成图像的风格迁移。与领域自适应中的AdaBN(Adaptive Batch Normalization)[26]方法有着类似的操作,AdaIN通过匹配对齐内容和风格图像特征的一阶统计量,能有效地结合前者的内容和后者的风格,但是简单地匹配特征分布的均值和方差难以合成具有丰富细节和局部结构的复杂化风格。为了提升文献[23]的风格迁移充分性,Park等人[27]通过引入一种新颖的风格注意力网络,学习内容特征和风格特征之间的语义相关性,能有效地平衡局部和全局的风格。

Shen等人[28]将元学习引入风格迁移领域,使用元学习中的Hyper network[29]方法,Hyper network的思想是用一个网络去生成另一个网络的参数,通过学习输入风格图像特征分布的一阶统计信息动态地生成风格转换网络的参数。他们的方法为实时的任意风格迁移提供了一个有效的解决方案,而且元学习生成的模型大小仅几百KB,能够在移动设备上实时运行。Jing等人[30]指出,基于特征分布的一阶统计量的方法都需要使用VGG网络进行特征的提取,由于VGG网络参数规模庞大导致这些方法无法在资源受限的环境中部署。他们提出了一种基于MobileNet轻量级架构实现任意风格迁移的方法,引入一个动态实例归一化模块(Dynamic Instance Normalization,DIN)将风格编码为可学习的卷积参数,与轻量级的内容编码器结合实现快速风格转换。其框架如图3所示。DIN模块包含IN和动态卷积,其参数根据不同的风格自适应地改变,能更精确地对齐复杂风格的特征统计信息,允许更灵活的任意风格迁移的同时,保持较低的计算成本。

图3 DIN风格迁移算法框架

1.2 基于GAN的图像风格迁移

基于CNN的图像风格迁移,通过在深层CNN中提取高级抽象特征来实现特征空间的分布匹配。基于GAN的图像风格迁移,则通过生成器与判别器之间的对抗博弈来实现图像空间的分布匹配。在2014年,Goodfellow等人[9]提出了一种独具一格的网络模型,生成对抗网络(GAN),该模型中包含一个生成式网络和一个判别式网络,通过两个网络间的对抗训练达到纳什均衡状态,实现数据分布散度的拟合。GAN的损失函数表示如下:

其中,G和D分别为生成式网络和判别式网络,z表示输入生成式网络的随机噪声。在GAN的训练过程中,通过生成式网络和判别式网络之间的交替优化形成一个对抗过程,随着判别式网络判别能力的增强,使生成式网络具备生成与真实数据分布相似的假数据的能力,图4为基于GAN的风格迁移基本框架。正是因为GAN这种巧妙的对抗设计,生成式网络比其他生成模型拥有更强大的数据生成能力,也成为近些年学术界重点关注的模型之一。

图4 基于GAN的图像风格迁移基本框架图

在GAN中,图像风格迁移被认为是一类图像到另一类图像的转换过程。Isola等人[31]提出的pix2pix模型作为图像到图像翻译的代表性工作,使用大量成对的图像进行监督训练,得到一个一对一的图像翻译网络,它能出色地完成图像风格迁移任务。尽管pix2pix能实现逼真的图像转换,但是该模型的训练需要大量成对的图像数据,这极大地限制了其推广和应用。为打破这个限制,Zhu等人[32]提出一种无监督对抗网络CycleGAN,该网络中包含两对生成对抗网络旨在实现双向的域转换,引入了循环一致性消除了域之间的配对约束,并且能更好地保留图像内容结构。

CycleGAN中使用循环一致损失和图像空间的逐像素差作为图像内容损失,使生成图像的内容信息被过度保留,导致无法很好地迁移抽象的风格,如艺术风格等。为了更好地学习艺术风格,Sanakoyeu等人[33]在GAN中引入一种风格感知的内容损失,能够学习同一类艺术风格而不仅限于一种风格中的一个实例。Ma等人[34]在投影空间观察内容图像和风格图像的特征向量,发现初始状态下内容图像和风格图像的特征基本上是可分的,他们提出的双重一致性损失能在保持语义和风格的一致性的情况下,学习内容图像和风格图像之间的关系。同样关注于图像的内容和风格感知风格化,Kotovenko等人[35]在对抗网络中设计了一个内容转换模块,在具有相似内容信息的内容和风格图像之间的风格迁移过程中,学习如何改变内容的细节。

Choi等人[36]提出StarGAN模型,能在单个GAN中实现一对多的图像风格转换,文章中以人脸图像为例,实现了多种人脸表情的转换。Chen等人[37]设计了一个门控网络,利用门控切换的思想在单一对抗网络中实现了不同风格的转换。为探索任意风格迁移的对抗性训练,Xu等人[38]在对抗网络中加入了AdaIN[23]模块,结合GAN和神经风格迁移的优点,实现了GAN的任意风格迁移。同样地,Cho等人[39]将WCT[16]引入到图像翻译网络中,提出的GDWCT(Group-wise Deep Whitening-and-Coloring Transformation)利用正则化和分组计算的方式来近似WCT,有效地减少参数数量和提高计算效率。图5为使用GDWCT进行风格迁移的框架图。与文献[19]的思想一样,利用学习的方式构建变换矩阵,并结合GDWCT和GAN完成图像的风格迁移。

图5 GDWCT风格迁移算法框架

基于GAN的图像风格迁移方法都需要预先收集足够数量的风格图像,这在实际上是个比较困难的问题。Zheng等人[40]提出一种方法,仅使用一张风格图像就能训练GAN完成风格迁移,它在原始图像空间上将图像切分为许多小图像块,通过对这些小图像块进行重新排序组合来生成构建风格图像训练集,这为缺少风格图像样本的训练提供了一个解决方案。

1.3 对比分析

对于图像风格迁移任务来说,如何描述和计算风格是一个关键性问题。得益于深度卷积神经网络的特征提取能力,基于CNN的图像风格迁移方法通过提取图像的抽象特征表达,利用特征分布的统计量作为图像风格的描述,能灵活高效地实现图像风格迁移。这种描述方法虽然能很好地表征风格,但依赖于参数庞大的特征提取网络,这也是目前亟待解决的问题。

不同于上述方法,基于GAN的图像风格迁移方法通过对抗学习的机制为风格描述带来新的途径。在GAN中,不需要任何预先设计的描述计算风格,判别器能通过拟合图像数据分布隐式地计算风格,实现图像的风格迁移。通过对抗训练拟合图像数据的分布可以使图像的风格迁移效果更加逼真,这体现了GAN对图像数据的理解能力和感知能力。相比基于CNN的风格迁移方法,GAN在生成图像上的质量更佳,但是风格迁移过程的可控性不高,而且对抗网络的训练容易出现梯度消失和模型崩溃,存在训练困难的缺点。

图6 图像风格迁移代表性算法的实验对比图

基于深度学习的图像风格迁移方法中几个代表性工作的实验对比如图6所示。图6中从上至下分别为不同的风格迁移图像对,从左至右分别为风格图像、内容图像和五种图像风格迁移方法的实验结果。其中A、B、C、D、E组分别对应基于CNN的Gatys等人[6]、WCT[16]和AdaIN[23]方法,基于GAN的CycleGAN[32]和Sanakoyeu等人[33]的方法。从主观角度出发,A、B、C组很好地将风格图像的纹理和颜色迁移到生成图像上,整体的迁移质量高,视觉效果较好。D、E组注重于刻画风格图像和内容图像的细节,内容图像的细节得以保留,使得生成图像更具有真实性。

在显卡Nvidia RTX 2080Ti上,上述几种算法应用于256×256分辨率图像时的定量指标如表1所示。其中包含平均运行时间、内存使用量和单个模型生成风格的数量三个指标,这些指标能体现出各算法的高效性和灵活性。

表1 定量指标对比

2 改进性和拓展性工作

基于深度学习的图像风格迁移方法的出现极大地促进了风格迁移领域的发展,大量的学者和研究人员开始关注图像风格迁移技术的研究。近些年也涌现出了许多研究成果,有些研究工作专注于设计新的图像风格迁移方法,有些工作则致力于对现有方法进行改进和拓展,本章将对图像风格迁移的一些改进性和拓展性工作进行介绍。

2.1 纹理和语义改进

Risser等人[41]发现使用单一Gram风格损失在合成纹理上存在不稳定性,还发现其不稳定原因在于具有不同均值和方差的特征图也可以有相同的Gram矩阵。因此,他们在原先网络的基础上,通过额外匹配特征的直方图来提升合成纹理的稳定性。不仅如此,Gram损失对规则纹理和对称结构的图像的渲染也不尽人意,Berger等人[42]通过平移后的特征图计算Gram损失能有效改善这类问题。Wang等人[43]在深度特征变换[16]中加入正交噪声矩阵来扰动风格迁移过程,这种方式能在不影响原有风格迁移质量的条件下,显著地提升生成图像纹理的多样性。

文献[44]在Gatys等人[6]的方法中引入拉普拉斯损失,用于消除伪影和防止内容的细节丢失。Liu等人[45]则加入一个深度估计网络来计算生成图像的深度信息,能有效地保持原始内容图像的连贯性和整体空间布局。在后续的工作[46]中又加入了边缘检测网络来保护局部细节结构,权衡地保留生成图像的全局和局部结构。

2.2 感知因素控制

文献[47]对现有图像风格迁移方法进行改进,致力于研究对感知因素的控制,如内容风格插值、颜色信息保留和笔画大小控制等。他们提出了两种能在保留原始颜色的条件下进行图像风格迁移的方法,一是执行风格迁移之前先匹配风格图像与内容图像的颜色直方图,二是仅在图像的亮度通道进行风格迁移。Zhang等人[13]使用不同大小的风格图像训练网络来学习不同的笔画大小,根据输入图像的大小来调整笔画的大小。类似于文献[47]的思想,Wang等人[48]利用一个包含多个子网络的模型进行不同尺度的分层训练,每个子网络的风格化结果经上采样作为下个子网络的输入,这种由粗到细的风格化过程能够在高分辨率图像生成大而精细的笔画。

通过调整图像比例大小和训练多个模型这两种方式虽然能改变风格笔画的大小,但是也带来了质量和成本上的损失。面对这个问题,Jing等人[49]提出了一种能合并多个笔画大小的算法模型,在模型中引入了一个自适应感受野模块,通过不同的感受野学习不同的笔画大小,能在不牺牲质量和效率的情况下实现单个模型的连续笔画大小控制。

2.3 语义风格迁移

语义风格迁移是指在具有相似内容的内容图像和风格图像之间,对语义相似的区域进行风格迁移。文献[47,50]在风格迁移方法中加入区域掩码信息,可以在空间上控制不同区域实现不同的风格化,这种空间控制策略为语义风格迁移提供了一个思路。同样地,Li等人[51]在CycleGAN结构的基础上加入语义分割网络,在图像之间的不同区域上建立语义引导通道,解决风格化过程中的语义不匹配问题。

Lu等人[52]提出一种语义风格迁移算法,他们首先通过特征提取网络提取内容图像和风格图像的特征,然后使用内容和风格图像的掩码信息将特征分为不同区域,在特征空间中对具有相同语义的特征进行重构,最后经解码网络得到语义风格化图像。Mechrez等人[53]设计了一种新的损失函数,通过计算两个特征之间的余弦距离来度量它们之间的相似性,这种损失函数可用于不成对图像之间的计算。

2.4 真实感风格迁移

真实感风格迁移旨在能实现如现实照片般真实的风格迁移效果,不仅需要完成正确的语义风格迁移,还需保持内容图像的结构不失真。Luan等人[54]提出了第一个基于深度学习的真实感风格迁移算法,它分为两个阶段,一是在风格迁移过程中加入语义分割实现语义风格迁移,二是在生成图像的后处理上引入真实感正则化项对图像进行优化处理。同样采用两阶段优化,Li等人[55]的真实感风格迁移方法建立在深度特征变换[16]上,他们将WCT中的池化层和上采样层替换为带有坐标信息的池化和反池化层,这在一定程度上改善了由于多次池化造成的空间信息丢失问题。在后处理阶段,他们使用了基于流形排序算法的平滑步骤,通过内容图像的像素相似性矩阵平滑生成图像。

同文献[55]的改进类似,Yoo等人[56]将WCT中的池化层和上采样层替换为小波池化层和小波反池化层,结合小波信息的特性,可以几乎无损失地保留图像的空间信息。该方法是第一个端到端的真实感风格迁移方法,他们采用一种递进式网络代替WCT中的多级风格化策略来减少伪影的产生,保持图像的结构不发生失真,实现真实感风格迁移。

3 未来研究方向

现如今,基于深度学习的图像风格迁移算法取得了显著性的发展,它们能够获得令人满意的性能效果,并在工业界得到了推广应用,但是仍然存在着一些问题与挑战。在这一章,总结了图像风格迁移领域目前存在的一些主要挑战,并讨论了该领域未来的研究方向。

3.1 模型压缩

目前绝大多数图像风格迁移方法都依赖于在大量图像集上预训练的深度CNN模型(例如,VGG16)获得丰富的特征表示。尽管这些方法能有效实现风格迁移,但由于VGG模型的参数规模巨大,这严重限制了这些方法的应用,特别是在内存有限的设备上(例如,移动设备),也间接地阻碍了图像风格迁移领域的发展[57]。为克服VGG模型的缺点,An等人[58]对目前28种最流行的网络架构做了对比实验,旨在寻找在性能和效率上不逊于VGG模型的轻量级网络。Wang等人[59]将知识蒸馏引入风格迁移领域,其目的在于减少大型卷积神经网络的参数量,而且不会在性能上有较大的折衷。近几年,模型压缩和加速也引起了许多关注,如何实现模型量化、蒸馏和剪枝等压缩方法,这也是图像风格迁移领域未来需要解决的问题。

3.2 算法评估

图像风格迁移的初衷是希望能通过计算机来模拟艺术创作,而图像风格本身是抽象且难以描述的,所以对各个风格迁移算法的效果进行评估也是一件困难的事情。目前对这些算法的评估方式主要有两种,定性评估和定量评估。定性评估主要的手段是用户调研,通过各个人群在主观上的偏好投票比较各个算法的效果,这并不是最好的方式,因为不同个体得到的结果会有较大的差异。定量评估是通过特定意义的数学指标进行对比,目前主要使用的指标有算法的训练和推理时间等,这些指标并不能用来评估风格迁移算法的实现效果。Yeh等人[60]设计了风格有效性和内容一致性两种统计量指标用于评估风格迁移算法,这或许对设计标准性评估方法有一定的启发。在图像风格迁移领域中设计出一个标准性评估方法有助于理解如何改进现有的风格迁移算法。

3.3 理论完善

现有的图像风格迁移方法都是以领域自适应作为核心思想设计的,Li等人[7]在理论上证明了间接匹配Gram矩阵等价于最小化二阶多项式核的最大均值差异(MMD),他们还发现通道方向上的特征统计,即均值和方差,也能用来表征风格。虽然通过匹配特征在通道方向上的均值和方差也能实现风格的迁移,但是缺乏理论上的证明,仍然不清楚为什么特征统计可以表征风格和特征统计能否表征所有的风格等问题。领域自适应属于迁移学习的范畴,所以图像风格迁移也可以视为迁移学习的一个应用方向。迁移学习理论的完善能为风格迁移算法提供更全面的数学解释和理论支撑,这对图像风格迁移领域进一步的发展具有极其重要的意义。

3.4 模型设计

Zhang等人[61]设计了一种通用的网络架构分别实现了图像风格迁移和字体风格迁移,展现出了模型的可推广性。图像风格迁移的发展也推进了图像分类、语义分割和目标检测等领域的发展,如在语义分割任务上,使用风格迁移技术对训练图像进行数据增强,有助于提升分割模型的域适应性能力,所以设计用于其他领域研究的通用风格迁移模型是很有必要的。现有的风格迁移方法对内容风格权衡的超参数只能在训练阶段控制,这使得一对图像的输入只能得到单一的风格化结果,Babaeizadeh等人[62]提出一种方法,能在训练后的模型上实时地调整和控制生成的风格化图像。受此启发,设计一种能在各种模型任务上实现训练后的损失调整策略会是一个很有趣的研究方向。

4 结束语

本文首先对采用深度学习的图像风格迁移方法进行了全面阐述,包括基于卷积神经网络和基于生成对抗网络的图像风格迁移方法,并分析其优缺点,然后对一些改进性和拓展性的研究工作进行介绍,最后总结概括了当前研究面临的挑战以及未来可能的研究热点。基于深度学习的图像风格迁移是当前一个发展迅速的热门研究领域,本文根据图像风格迁移主要的原理对现有研究工作进行分类叙述,能帮助该领域的初学者和研究人员把握当前研究方向和加深对研究的认识。

猜你喜欢

语义损失特征
胖胖损失了多少元
语言与语义
如何表达“特征”
不忠诚的四个特征
玉米抽穗前倒伏怎么办?怎么减少损失?
抓住特征巧观察
“上”与“下”语义的不对称性及其认知阐释
一般自由碰撞的最大动能损失
损失
认知范畴模糊与语义模糊