APP下载

基于l1诱导轻量级深度网络的图像超分辨率重建

2023-01-31张大宝赵建伟周正华

模式识别与人工智能 2022年12期
关键词:低分辨率先验分辨率

张大宝 赵建伟,2 周正华

图像超分辨率(Super-Resolution,SR)在航空影像[1]和医疗成像[2]等领域被广泛应用,主要原理是从观测到的一幅或多幅低分辨率(Low Resolution,LR)图像重建高分辨率(High Resolution,HR)图像.一般地,图像的退化模型可表示为

y=Ax+n,

(1)

其中,y表示观测到的低分辨率图像,A表示退化操作,x表示未知的高分辨率图像,n表示加性噪声.显然,从退化后的低分辨率图像y中恢复高分辨率图像x是个不适定问题.

关于上述不适定问题,学者们提出许多高效的超分辨率重建方法,主要分为基于插值的方法[3]、基于重建的方法[4]和基于学习的方法[5].特别地,随着深度学习的快速发展和应用,基于深度学习的超分辨率重建方法得到学者的关注.该类方法主要利用深度网络拟合低分辨率图像到高分辨率图像之间的映射关系.Dong等[6-7]将深度卷积网络引入图像超分辨率重建中,先后提出SRCNN(Super-Reso-lution Convolutional Neural Network)和FSRCNN(Fast Super-Resolution Convolutional Neural Net-work).

在此基础上,学者们提出许多基于深度网络的图像超分辨率重建方法.Shi等[8]引入有效的亚像素卷积,提出ESPCN(Efficient Sub-Pixel Convo-lutional Neural Network).为了提高深度网络的重建性能,Kim等[9]利用残差连接将网络深度加深到20层,提出VDSR.Lai等[10]利用逐级放大的思想,提出LapSRN(Laplacian Pyramid Super-Resolution Network).Zhang等[11]利用残差连接和关注机制,提出RCAN(Very Deep Residual Channel Attention Networks).Zhang等[12]提出RDN(Residual Dense Network),利用残差连接和密集连接的思想,提取丰富的局部特征和全局特征.Li等[13]结合多尺度特征融合和局部残差学习,提出MSRN(Multi-scale Residual Network).Zhang等[14-16]将物理学中的流体力学、热传导理论和曲率一致应用到芯片和自然图像的超分辨率重建中.

上述超分辨率重建方法主要通过不断构造更深、更复杂的深度网络以提高网络重建性能,但是网络的加深会导致网络权值数量的急剧增加,给网络训练和存储带来巨大负担.因此,学者们开始探讨轻量级深度网络模型的设计.为了减少网络的权值数量并尽量保持网络的重建性能,Kim等[17]基于递归权值共享的思想,提出DRCN(Deeply Recursive Convolutional Network),大幅减少网络的权值数量.在此基础上,Tai等[18]结合残差连接,提出DRRN(Deep Recursive Residual Network).

尽管基于递归的权值共享可减少深度网络的权值数量,但该类网络的递归模块是人为设计的,没有在专家先验知识的指导下进行网络设计.Reichstein等[19]指出融合模型驱动与数据驱动是未来研究系统科学问题的主流方向之一.因此,学者们开始探讨将模型驱动和数据驱动相结合进行基于轻量级深度网络的超分辨率图像重建的研究.Ren等[20]提出PEP-DSP,从l2图像退化模型出发推导优化迭代算法,并根据迭代算法设计轮廓增强先验网络及去噪统计先验网络,实现图像重建.同时,Dong等[21]提出DPDNN(Denoising Prior Driven Deep Neural Net-work),也从l2图像退化模型出发推导其优化迭代算法,并根据迭代算法设计多尺度残差卷积网络去噪器.

上述PEP-DSP和DPDNN是从l2图像退化优化模型出发推导迭代算法,在算法的指导下设计深度网络进行图像重建.由于l2数据保真项对高斯类噪声具有较好的平滑作用,但对于具有稀疏性的椒盐噪声处理效果并不明显,因此PEP-DSP和DPDNN对带有稀疏噪声图像的重建效果不明显.考虑到实际应用中图像噪声具有一定的稀疏性,而l1保真项能较好地刻画噪声的稀疏性.同时,评价图像的重建效果除峰值信噪比(Peak Signal to Noise Ratio,PSNR)和结构相似性(Structural Similarity,SSIM)以外,图像的视觉效果即图像具有清晰的轮廓也很重要.

因此,本文基于模型驱动与数据驱动结合的思想,提出基于l1诱导轻量级深度网络(l1Induced Lightweight Deep Networks,l1ILDN)的图像超分辨率重建方法.先利用分裂Bregman算法[22]和软阈值算子,从带有边缘正则项的l1重建优化模型推演有效的迭代算法.再在上述迭代算法的指导下设计相应的递归深度网络用于图像重建.不同于现有的深度网络依赖人为模块设计,本文的深度网络是在重建优化模型的指导下设计的,推导的递归结构由于其权值共享的特性,可减少网络权值的数量.同时,由带有边缘正则项的l1保真项诱导的轻量级深度网络能更好地增强重建图像的锐度.

1 基于l1诱导轻量级深度网络的图像超分辨率重建

本文利用l1保真项比l2保真项能更好地刻画图像噪声的稀疏性的特点,在深度学习的基础上融合专家先验知识,提出基于l1诱导轻量级深度网络(l1ILDN)的图像超分辨率重建方法.

1.1 网络设计原理

由于l1ILDN是在重建优化模型的指导下设计的,避免传统深度网络盲目加深网络带来的网络权值急剧增加的问题,因此,本节先推导l1诱导轻量级深度网络的设计原理.

对于图像退化问题(1),超分辨率重建的主要目的是从低分辨率图像y中重建高分辨图像x.根据贝叶斯条件[23],图像退化问题(1)的解可由最大后验概率p(y|x)表示,即

其中,lgp(y|x)表示似然项,lgp(x)表示先验项.

在PEP-DSP和DPDNN中,似然项选取l2保真项‖y-Ax‖2,先验项选取关于x的正则项J(x),

(2)

其中λ表示正则化系数.

不同于PEP-DSP和DPDNN,本文方法考虑到实际应用中图像噪声具有一定的稀疏性,而相比l2保真项,l1保真项能更好地刻画图像噪声的稀疏性,因此本文选取‖y-Ax‖1作为数据保真项.另外,不同于PEP-DSP和DPDNN中采取抽象的正则项,为了提高重建图像的视觉效果,增强重建图像的锐度,本文选取图像边缘的方差作为先验正则项,即

(3)

其中,‖·‖1表示l1范数,B表示图像边缘提取算子,Var(·)表示方差.显然,上述带有边缘正则项的l1重建优化模型能较好地体现图像噪声的稀疏性和重建图像的局部结构.

由于上述l1重建优化模型(3)中的l1范数是不可微的,因此求解该优化问题比求解l2重建优化模型(2)更复杂.

首先,利用变量分离策略将l1重建优化模型(3)转化为如下形式:

(4)

接着,利用分裂Bregman算法将约束问题(4)转化为如下无约束问题:

(5)

其中η表示惩罚系数.利用文献[21]中的Bregman分离策略,式(5)可转化为

其中b表示辅助变量.此时,上述迭代方法可分解为如下迭代公式:

(6)

对于式(6)中的x子问题,由于l2范数和Var是可微的,因此采用经典的梯度下降法求解,得

xk+1,l+1=xk+1,l+βηAT(dk-Axk+1,l+y-bk)+

对于式(6)中的d子问题,由于l1是不可微的,因此求解变得困难.本文采用软阈值算子求解d子问题,得

其中Soft(·)表示软阈值算子.

综上所述,式(6)的解可表述为如下迭代形式:

(7)

其中,xk+1表示内部进行L步迭代后得到的解,再参与dk+1和bk+1的外部迭代运算.

1.2 网络结构

经典的基于深度学习的超分辨率重建方法在设计网络时主要通过人为设计网络模块,提高重建性能,而本文方法在1.1节中推导的算法指导下,设计相应的深度网络,避免盲目增加网络权值参数量,网络结构如图1所示.

图1 l1诱导轻量级深度网络结构Fig.1 Structure of l1 induced lightweight deep network

具体网络的设计过程如下.对于给定的低分辨率图像ILR∈Rm1×n1×3,为了便于后续模块中的卷积操作获得充足的通道数,本文方法首先使用64组3×3的卷积核对ILR进行卷积操作,得到的特征图作为观测的低分辨率图像y.由于本文的深度网络是在1.1节中的算法指导下设计的,而从式(7)可知,重建的高分辨率图像x具有双重递归结构.因此,本文令

x0=ATy

作为递归的初始值.为了提高重建性能,本文选取多尺度残差块[13]作为退化矩阵AT.

对于式(7)中的y、bk和dk,令X模块表示高分辨率图像x的L次内部递归过程,结构如图2所示.对于第l次内部迭代输入xk+1,l,利用多尺度残差块作用于xk+1,l,得到Axk+1,l,再与y、bk和dk进行相应的运算,得到

dk-Axk+1,l+y-bk,

再经过AT和参数βη的作用后得到

βηAT(dk-Axk+1,l+y-bk).

同理,xk+1,l在特征提取矩阵B的作用下得到Bxk+1,l,再根据方差的定义进行取平均和相减操作,得到

然后经过βλBT的作用后,得到

最后与xk+1,l相减,完成xk+1,l的更新.

图2 X模块结构Fig.2 Structure of X module

进行完X模块的L次内部递归后,需要更新辅助变量bk+1、dk+1,保证式(7)中高分辨率图像x的外部递归过程.d-b模块更新过程如图3所示.

图3 d-b更新过程Fig.3 Updating process of d-b

给定输入变量xk+1、bk和y,首先对xk+1实行对应于退化A的卷积运算,然后将其与bk和y进行相应的和差运算,得

rk+1=Axk+1+bk+1-y.

最后,将rk+1输入软阈值函数Soft(·)中,得

dk+1=Soft(rk+1).

同理,rk+1与dk+1相互作用,可得

bk+1=rk+1-dk+1.

通过上述X模块和d-b模块双重递归过程,x0经过K次迭代后,得到特征图xK∈Rm1×n1×64.最后,使用像素重组将xK放大r倍,得到重建的高分辨率图像ISR∈Rm1×n1×3.

1.3 损失函数

其中,θ表示网络中需要训练的权值和参数,Yi表示输入的低分辨率图像块,Xi表示原始的高分辨率图像块,I(θ;Yi)表示经网络重建后的高分辨率图像块.由于本文网络是根据l1数据保真项推导的算法而设计的,因此在损失函数的选择上采用收敛更快且鲁棒性更强的L1损失函数.另外,本文采取经典的Adam(Adaptive Moment Estimation)优化器[24]优化损失函数.

2 实验及结果分析

2.1 实验环境

本文选择DIV2K数据集[25]中前800幅图像构造网络训练集,通过对图像进行旋转操作以增强数据集.同时,本文选择Set5[26]、Set14[27]、BSD100[28]和Urban100[29]数据集进行重建测试.选择PSNR和SSIM作为重建性能的评价指标.一般地,PSNR和SSIM值越高,方法的重建性能越优.

在训练阶段,各方法将DIV2K数据集上的高分辨率图像进行双三次下采样后得到的图像作为低分辨率图像,然后将图像减去数据集的平均值进行预处理.低分辨率图像大小为48×48,网络训练的批次大小为16.在训练网络时,Adam优化器的相关参数设置为β1=0.9,β2=0.999,ε=10-8,初始学习率为10-4,每200代后学习率减半.

本文实验均是在Pytorch 1.1.0框架下实施的,在Intel(R) Xeon(R) E5-1620@3.50 GHz、8核处理器、32 GB内存、RTX 2060显卡和Windows 10操作系统下实现.

2.2 参数分析

本文的深度网络包含3个网络结构重要参数:X模块内部结构中递归次数L、网络中X模块递归次数K和软阈值算子中的超参数η.本节通过实验讨论这3个参数对网络重建性能的影响.

考虑到网络训练的时间,在较合适的网络规模,即LK=12的情况下讨论不同的递归次数L和K对重建性能的影响,在Set5数据集上,L、K取值不同时的PSNR值和SSIM值如表1所示.由表可知,在L=3,K=4时,网络取得最优的重建性能.随着L的增加和K的减少,网络性能有所下降.这主要是网络的外递归的影响比X模块的内递归的影响要大.

表1 L、K取不同值时对网络性能的影响Table 1 Influence of different L and K on network performance

下面讨论软阈值算子中的参数η对网络重建性能的影响.在Set5数据集上η不同时的PSNR值和SSIM值如表2所示.由表可知,在η-1=0.01时,网络取得最优的重建性能.主要原因是η-1太小时,软阈值算子在网络上的作用较小;而当η-1较大时,不能使d-(Ax-y)近似于0.

表2 η取不同值时对网络性能的影响Table 2 Influence of different η on network performance

2.3 消融实验结果

本节通过消融实验说明l1ILDN的创新性.首先,为了说明多尺度残差块(Multi-Scale Residual Block,MSRB)和先验项约束的意义,将退化模型中A选取普通卷积、l1优化模型中无先验正则项导出的网络作为基本网络,记为Based-net.其次,为了凸显在先验指导下设计网络的意义,将LK个MSRB递归网络记为Deep-net.最后,为了说明损失函数L1的优点,将使用本文网络结构而损失函数为MSE损失的网络记为l1ILDN-l2.

Based-net、Deep-net、l1ILDN-l2和l1ILDN的消融实验结果如表3所示.由表可看出,l1ILDN的重建结果在4个数据集上都最优.相比Based-net,l1ILDN具有明显优势主要是因为退化模型中A选取MSRB,比普通卷积具有更好的特征提取能力.同时,在推演模型算法时,使用先验正则项,使根据算法设计的网络具有更好的拟合能力.l1ILDN的重建结果优于Deep-net,说明在模型推导下设计网络具有重要意义.l1ILDN的重建结果优于l1ILDN-l2,说明即使网络结构一样,但网络训练选取损失函数的不同,将产生不同的重建结果.

表3 本文方法的消融实验结果Table 3 Results of ablation experiments of the proposed method

2.4 复杂度分析

本节讨论l1ILDN的复杂性.选择如下4种对比方法:DRCN[17]、DPDNN[21]、MemNet(Very Deep Per-sistent Memory Network)[30]、MADNet[31].选择Set5数据集,各方法的实验结果(放大因子为2)如表4所示,表中FLOPS(Floating-Point Operations per Second)表示每秒浮点运算次数.

表4 各方法在Set5数据集上的复杂度对比Table 4 Complexity comparison of different methods on the Set5 dataset

由表4可看出,l1ILDN使用最少的参数量和最小的FLOPS实现最高的PSNR和SSIM.究其原因,本文方法是在先验知识诱导的算法指导下进行网络设计的,避免盲目加深网络带来的参数冗余,使网络能在参数较少时得到较好的网络重建效果.

2.5 对比实验结果

本节选择如下对比方法进行对比实验:Bicubic、SRCNN[6]、FSRCNN[7]、ESPCN[8]、VDSR[9]、LapSRN[10]、DRCN[17]、DRRN[18]、PEP-DSP[20]、DP-DNN[21]、文献[29]方法、MemNet[30]、MADNet[31]、A+(Adjusted Anchored Neighborhood Regression)[32]、IDN(Information Distillation Network)[33]、RiRSR(Resnet in Resnet Architecture)[34].

选择放大因子r=2、3、4,各方法在Set5、Set14、B100、Urban100数据集上的PSNR和SSIM对比结果如表5~表7所示,表中黑体数字表示最优值.

表5 r=2时各方法的指标值对比Table 5 Comparison of index values of different methods with r=2

表6 r=3时各方法的指标值对比Table 6 Comparison of index values of different methods with r=3

表7 r=4时各方法的指标值对比Table 7 Comparison of index values of different methods with r=4

由表5~表7可知,本文方法取得最高的PSNR和SSIM.究其原因,本文方法考虑噪声的稀疏性和先验知识,在算法的指导下设计深度网络,避免盲目构造网络造成的冗余.

2.6 重建图像对比

l1ILDN、ESPCN、VDSR、DRCN、DPDNN、RiRSR的重建高分辨率图像对比如图4所示.从图中右下角的放大图像可看出,l1ILDN能重建具有更清晰纹理、更少伪影的图像,而ESPCN重建的3幅图像非常模糊.究其原因,主要是l1ILDN是在带有边缘正则项的重建模型推导的算法指导下进行设计的,边缘正则项的约束使重建图像具有更好的边缘清晰度.

(a)原始图像(a)Original images

3 结 束 语

现有的基于深度学习的方法主要通过加深网络以提高网络的重建性能,但是直接加深网络会造成网络参数带来的冗余,给网络训练和内存存储带来负担.考虑到噪声的稀疏性和减小网络参数带来的冗余,并增强重建图像的清晰度,本文结合数据驱动和模型驱动,提出基于l1诱导轻量级深度网络的图像超分辨率重建方法.从带有正则项的l1优化模型出发,推导轻量级深度网络的设计原理.然后根据该原理设计相应的轻量级深度网络,进行图像重建.因此,本文方法是在模型的指导下设计轻量级深度网络,避免盲目加深网络造成的参数冗余,可体现数据驱动和模型驱动的优势.实验表明,本文方法重建性能较优.重建优化模型和迭代算法决定深度网络的结构和性能.因此,深入挖掘重建先验知识,构造更能反映图像退化过程的轻型深度网络将是进一步的研究重点.

猜你喜欢

低分辨率先验分辨率
红外热成像中低分辨率行人小目标检测方法
BOP2试验设计方法的先验敏感性分析研究*
一类低先验信息度的先验分布选择研究
基于边缘学习的低分辨率图像识别算法
原生VS最大那些混淆视听的“分辨率”概念
树木的低分辨率三维模型资源创建实践
一种提高CCD原理绝对值传感器分辨率的方法
基于深度特征学习的图像超分辨率重建
基于自适应块组割先验的噪声图像超分辨率重建
基于平滑先验法的被动声信号趋势项消除