三维重定向图像主观和客观质量评价方法
2019-08-01富振奇邵枫
富振奇 邵枫
摘 要:对于重建图像存在的边缘失真和纹理细节信息模糊的问题,提出一种基于改进卷积神经网络(CNN)的图像超分辨率重建方法。首先在底层特征提取层以三种插值方法和五种锐化方法进行多种预处理操作,并将只进行一次插值操作的图像和先进行一次插值后进行一次锐化的图像合并排列成三维矩阵;然后在非线性映射层将预处理后构成的三维特征映射作为深层残差网络的多通道输入,以获取更深层次的纹理细节信息;最后在重建层为减少图像重建时间在网络结构中引入亚像素卷积来完成图像重建操作。在多个常用数据集上的实验结果表明,与经典方法相比,所提方法重建图像的纹理细节信息和高频信息能得到更好的恢复,峰值信噪比(PSNR)平均增加0.23dB,结构相似性(SSIM)平均增加0.0066。在保证图像重建时间的前提下,所提方法更好地保持重建图像的纹理细节并减少图像边缘失真,提升重建图像的性能。
关键词:单幅图像超分辨率重建;深度学习;卷积神经网络;多通道卷积;亚像素卷积
中图分类号:TP391.41;TP389.1
文献标志码:A
Abstract: Aiming at the problem of edge distortion and fuzzy texture detail information in reconstructed images, an image superresolution reconstruction method based on improved Convolutional Neural Network (CNN) was proposed. Firstly, various preprocessing operations were performed on the underlying feature extraction layer by three interpolation methods and five sharpening methods, and the images which were only subjected to one interpolation operation and the images which were sharpened after interpolation operation were arranged into a 3D matrix. Then, the 3D feature map formed by the preprocessing was used as the multichannel input of a deep residual network in the nonlinear mapping layer to obtain deeper texture detail information. Finally, for reducing image reconstruction time, subpixel convolution was introduced into the reconstruction layer to complete image reconstruction operation. Experimental results on several common datasets show that the proposed method achieves better restored texture detail information and highfrequency information in the reconstructed image compared with the classical methods. Furthermore, the Peak SignaltoNoise Ratio (PSNR) was increased by 0.23dB on average, and the structural similarity was increased by 0.0066 on average. The proposed method can better maintain the texture details of the reconstructed image and reduce the image edge distortion under the premise of ensuring the image reconstruction time, improving the performance of image reconstruction.
0 引言
近年來,图像作为获取信息最为直接的途径,在遥感、医疗、军事、公共安全、计算机视觉等诸多领域都有着重要的应用[1]。单幅图像超分辨率重建(Simple Image SuperResolution, SISR)技术的方法主要有基于插值的方法、基于重建的方法和基于学习的方法[2-3]。基于学习的重建方法保存了图像更多的高频信息和细节信息,且算法适应性和鲁棒性更好,因此成为近年来的单幅图像超分辨率重建技术研究的热点[4]。
基于学习的超分辨率(SuperResolution, SR)方法的基本思路是通过大量样本训练得到低分辨率图像(Low Resolution, LR)与高分辨率图像(High Resolution, HR)之间的映射关系,并以此作为先验知识进行重建[5]。Yang等[6-7]提出基于稀疏编码的图像超分辨算法,对高、低分辨率的图像块进行联合训练得到相应的一个过完备字典,通过这个字典进行高低分辨率图像块的稀疏关联重建图像。在此基础上,李云飞等[8]和Zeyde等[9]应用K奇异值分解(KSingular Value Decomposition, KSVD)算法对字典的训练过程进行改进,虽然提高了字典训练速度,使重建图像在主客观评价指标上均有所改善,但重建过程的计算复杂度较高,HR图像生成时间过长。为了做到图像的实时处理,Timofte等[10-11]提出锚点邻域回归(Anchored Neighborhood Regression, ANR)算法,在最近邻域嵌入算法[12]上引入稀疏编码思想,降低了算法的计算复杂度,但是图像的细节纹理恢复效果较差,重建质量仍需提高。
近几年,随着深度学习的不断发展,2014年Dong等[13]在基于样本学习的SR算法基础上提出了基于卷积神经网络(Convolutional Neural Network, CNN)的圖像超分辨率重建(SuperResolution CNN, SRCNN)算法。SRCNN首次将CNN引入到SR任务中,将传统SR算法的分步处理整合到一个深度学习模型中,大幅简化了SR工作流程[14]。SRCNN的提出证明将深度学习,特别是CNN应用到SR任务中是非常合适的,发展前景广阔。同传统的SR算法相比,SRCNN在SR性能上有不错的提升,但SRCNN重建的HR图像仍存在纹理模糊的问题,SR性能有待进一步提高[15]。在2016年,Youm等[16]提出基于多通道输入卷积神经网络的图像超分辨率算法(SuperResolution method using MultiChannelinput CNN, MCSRCNN),其输入图像是多通道的,即输入图像包含了18种低分辨率图像,能更好地保留图像的高频信息。Shi等[17]提出了一种直接在低分辨率图像上提取特征信息,从而高效重建得到高分辨率图像算法,即有效的亚像素卷积神经网络(Efficient SubPixel Convolutional Neural network, ESPCN),其核心思想是亚像素卷积层,获得了较好的效率。在2017年,Ledig等[18]提出将生成对抗网络(Generative Adversarial Network, GAN)应用在SR问题中,因为传统的SR算法在放大倍数较小时的图像恢复效果较好,但当图像的放大倍数在4以上时,传统方法重建图像的细节信息与边缘过于平滑,缺少视觉真实感,因此基于生成对抗网络的超分辨率(SuperResolution using Generative Adversarial Network,SRGAN)算法以牺牲峰值信噪比(Peak SignaltoNoise Ratio, PSNR)来用GAN生成图像中的更多细节,增加真实感。
综上所述,考虑到图像的重建性能和网络的训练时间以及图像恢复的真实感三方面的因素,本文提出一种基于改进卷积神经网络的单幅图像超分辨率重建方法。该方法以由单幅低分辨率图像构成的三维特征矩阵作为神经网络的多通道输入,减少图像预处理过程中的高频信息的丢失;然后通过深层残差网络,提取图像中的多层次的细节信息,以提高图像重建的真实感;最后为保证图像重建的时间且尽可能地缩短重建时间,通过亚像素卷积层输出得到高分辨率图像。实验结果表明本文算法在保证训练时间的前提下,获得了较好的单幅图像重建性能,图像的边缘和细节信息的恢复效果更好。
1 相关工作
1.1 SRCNN算法
SRCNN是在单幅图像超分辨率重建研究中较早跨越传统算法的深度学习方法,将传统SR算法的分步处理整合到一个深度学习模型中,简化了SR工作流程[19]。应用卷积神经网络,通过学习输入和输出之间的特征映射关系,实现了图像由低分辨率到高分辨率的重建过程。SRCNN网络框架如图1所示,首先用双立方插值,依据预先设计好的尺寸对一幅低分辨率图像进行简单的画质提升处理,此举作为预处理操作,然后将预处理后的图像表示为Y,原始的高分辨率图像为X,但为了简化表述,仍将Y称为低分辨率图像,实际上Y与X具有相同的图像尺寸。网络训练的目标主要是学习特征映射F,使得Y通过映射F(Y)尽可能地恢复到X的性能。
1)图像块的底层特征提取与特征表示。即从低分辨率图像Y中提取图像块,可以进行有重叠的特征提取;然后将每个提取的图像块表示为一个高维度的矢量,这些矢量被表示为一系列的特征映射,且令特征映射的数量等于高纬度矢量的维度。其计算公式如式(1)所示:
其中:W1和B1表示滤波器和偏差;“*”表示卷积运算;W1表示包含n1个c×f1×f1的滤波器,c为图像包含的通道数量, f1为滤波器空域大小,即W1对图像进行了n1次卷积,所使用卷积核为c×f1×f1,该层输出n1个特征映射;B1是一个n1维的向量,它的每个元素对应一个滤波器,激活函数使用ReLU(Rectified Linear Unit),即max(0,x)。算法的第1)部分表示为图1网络结构中的第一层网络,提取到预处理图像中的n1维特征,作为第二层网络的输入。
2)非线性映射。非线性地将每个高维度的矢量映射到另一个高维度的矢量上,每个被映射的矢量被表示为一个高分辨率图像块,这些被映射的矢量表示为另一系列的特征映射。其计算公式如式(2)所示:
其中:B2是n2维的向量。W2包含n2个n1×f2×f2的滤波器。
3)图像重建。将以上步骤形成的高分辨率图像块再进行卷积运算,重建形成最终的尽可能接近真实的高分辨率图像。其公式如式(3)所示:
SRCNN的主要贡献是由稀疏编码跨越为深度学习,应用完整的神经网络处理图像超分辨率问题,并取得了较好的实验效果。SRCNN理论中还指出,将处理的单幅图像由单一颜色通道更换为三颜色通道,即在图像的YCbCr或RGB空间中完成图像重建的效果应优于单一颜色通道,可以保留更多的图像色彩信息[19]。而且SRCNN算法最先是采用较小的数据集Set5和Set14,网络训练后学习到的知识较少,图像重建性能受限制,而更换为相对较大的数据集BSD200后重建性能也明显得到提高,可见数据集的大小对图像的重建性能影响也较大。
SRCNN在重建HR图像时,网络层数较少,感受野也相对较小,利用到的区域特征单一并且利用效率不高[8,18],最终导致重建的HR图像纹理有些模糊,算法的适应性受一定限制,SR性能有待进一步提高。
1.2 MCSRCNN算法
在MCSRCNN[16]中,SR过程针对SRCNN中的网络输入的单通道作出改进。在SRCNN中,卷积神经网络的输入由图像单一颜色通道形成的数据经双立方插值构成,这种单一的預处理操作会使重建图像存在边界模糊和缺少高频信息的问题。所以在MCSRCNN中,神经网络的输入改为多通道,即输入包含了18种低分辨率图像,如图2给出MCSRCNN算法的网络框架。这18种低分辨率图像由单幅图像在预处理过程中生成,即结合不同锐化卷积核的优势和3种不同的插值方式(3种插值方法为最近邻、双线性、双立方插值;5种图像锐化强度值为0.4、0.8、1.2、1.6、2的被锐化的低分辨率图像),令所有被锐化的低分辨率图像通过最近邻插值、双线性插值或双立方插值被插入到同样的一幅高分辨率图像中,然后令所有被锐化的和被插值的低分辨率图像共同构成卷积神经网络的多通道输入。
MCSRCNN在经过第一层网络后构建的特征映射比SRCNN的要好,因为图像本身是一种时域的波形图,在其时域波形图中只能观察到波形的突起,但通过傅里叶公式可知,图像是由低频部分和高频部分两部分组成,图像中的低频部分表示图像的内容即灰度变化,而高频部分则表示图像的边缘信息和细节信息即锐度变化。在SRCNN算法中重建的图像存在边缘模糊的问题,也就是预处理过程中单一的双立方插值使得输入图像从进入神经网络时就丢失了部分的高频信息,而MCSRCNN中神经网络的多通道输入解决了这一问题,并且该算法在卷积过程中对于多通道的输入采用相同大小的卷积核,在提升重建效果的同时并未增添参数。
MCSRCNN虽然解决了重建过程中丢失高频信息的问题,但它选用的数据集Set5和Set14较小,为了提高神经网络的图像重建性能应选用较大的数据集。而且在SRCNN算法中提出,虽然在实现单幅图像的超分辨率重建的过程中一般使用图像的单一颜色通道,但使用图像的3个颜色通道的重建效果要优于单一颜色通道。所以,为了更好地实现单幅图像的超分辨率重建,应将两种算法中的优势结合起来,实现更好的重建效果。
1.3 SRGAN算法
均方误差(Mean Squared Error,MSE)和PSNR在捕获与知觉相关的差异方面的能力(比如高频纹理细节)非常有限,因为它们是根据图像的像素差异来定义的,PSNR值最高并不一定能更好地反映感知能力的结果,图像的真实感未必是最好的[5]。
在以前的基于神经网络的SR算法中,虽然能够获得很高的PSNR值,但恢复出的单幅图像通常会丢失部分高频细节信息,使人不能有较好的视觉感受,忽略了细节纹理的恢复。
而更深层次的网络结构已被证明可以提高SISR的重建性能,传统的基于CNN的SISR网络模型的网络层次较浅,虽然能够提升一定的图像重建性能,但重建过程中网络的学习效果受限,提取特征的过程丢失高频细节信息的问题较为严重,因此SRGAN使用深层的残差网络来恢复单幅图像中更多的细节纹理信息,增强单幅图像重建后的视觉真实感[18]。从实验数据中可知,虽然SRGAN的PSNR值不是最高,但它较好地恢复了图像中的纹理与细节,使重建图像的视觉效果更为逼真。
2 改进的图像超分辨率重建算法
2.1 改进思想
为了解决以上提出的问题,本文对需要进行重建的低分辨率图像保留三颜色通道,首先对其进行预处理操作:先对低分辨率图像进行三种插值操作,即最近邻插值、双线性插值和双立方插值;然后对进行不同插值处理后的图像分别进行五种不同强度值的图像锐化操作;最后将只进行一次插值操作的图像与先进行一次插值、后进行一次锐化的图像合并排列成三维矩阵,即令预处理过程后的18幅图像作为神经网络的多通道输入。然后,为学习更深的图像细节纹理信息和高频信息,重建过程构建了更深层次的网络结构,但考虑到网络的收敛问题和防止梯度消失的问题,本文采用深层残差网络结构,提高网络的准确率。最后在单幅图像的重建过程中采用亚像素卷积层来实现,提升重建效率,减少重建时间。
2.2 网络结构
考虑到重建性能和重建时间等多方面的因素,本文提出的基于改进CNN的图像超分辨率重建算法主要是构建了一种深层卷积神经网络,该网络共有6层,分别由3部分构成,即底层特征提取、非线性映射和图像重建。该网络考虑到低分辨率图像与高分辨率图像之间的非线性映射关系,能提升网络对高频信息和细节纹理信息的学习效率,并在改进重建性能的同时缩短网络训练时间与图像重建时间。本文搭建的卷积神经网络框架如图3所示。
该网络结构的特点如下:
1)本文算法中采用图像的三颜色通道进行处理,以便在预处理操作中尽可能地保留输入的原始低分辨率图像中的高频信息和细节纹理信息等特征,在预处理操作中同时考虑时间与图像质量两方面因素。不同插值算法的计算复杂度不同,且插值时考虑周围不同数目的相邻像素点灰度值影响也不同,如最近邻插值计算量最小但仅考虑位置最近的像素的灰度值,双线性插值在两水平方向与垂直方向均进行一阶线性插值,双立方插值考虑周围四个相邻像素点灰度值影响。图像在插值处理后,会出现边缘和轮廓模糊问题,而图像边缘信息主要集中在高频部分,使用锐化操作则可以有效减轻插值的不利影响。因此,本文算法采用插值与锐化操作完成图像预处理,并以18幅低分辨率图像作为神经网络的多通道输入,相对于单一地使用双立方插值,有利于学习到一种更好且更复杂的特征映射。
这种以插值和锐化构成的18幅低分辨率图像具有丰富的可用于重建高分辨率图像过程中的补充信息,能提高重建过程的准确性。
2)在非线性映射层加入残差网络结构,通过恒等映射将后层信息直接传向前层,实现了特征的重复利用,减少了特征信息的丢失。通过增加非线性映射层来加深网络结构,而且引入残差网络后,解决了由于网络加深而易引起的梯度消失和梯度爆炸问题,网络的每一层分别对应于提取不同层次的特征信息,有效地加深网络结构,提取到的不同层次的特征信息就会增多。
3)在图像重建过程中引入亚像素卷积层,在网络的最后一层使用上采样操作,能减少在图像重建中的重建步骤与时间,为减少计算量使用尺寸较小的滤波器,在保持特征信息前后关系的同时,对高分辨率特征图中的像素进行重新排列,整合相同的信息,恢复成最终所需的高分辨率图像。
2.3 残差网络结构
在非线性映射过程中引入残差网络,因为残差网络更容易优化,并且能够通过增加有效的深度来提高准确率。残差网络的优势是不仅解决了增加网络深度导致的梯度消失与梯度爆炸问题,而且提高了网络性能。
神经网络层数的不同,提取的浅层、中层和深层的特征信息不同,网络层数越多,意味着能够提取到不同层次的特征信息越丰富,并且,网络越深提取的特征越抽象,具有的高频信息越丰富[17]。使用残差网络不仅很好地避免了退化问题,而且其反向更新的特点引入快捷链接的概念,使连加运算代替传统网络中的连乘运算,大幅降低了计算量[19]。
图4中给出了残差网络中的一个残差模块的结构,残差模块由卷积层、快捷连接和激活函数ReLU组成。假设将采取某种预处理操作后的图像a作为此残差模块的输入,经过快捷连接后为H(a)=F(a)+a,如果F(a)和a的通道相同,则可直接相加。残差模块的主要设计有两个部分:快捷连接和恒等映射。通过在一个浅层网络上令F(a)=0,使得H(a)=a,就构成一个恒等映射,使网络在深度增加时而不退化,因此快捷连接使残差变得可能,而恒等映射使网络变深。在卷积层后增加激活函数,能使网络的学习周期大幅缩短[18]。
2.4 亚像素卷积层
亚像素卷积层是在网络输出层进行上采样的操作,与在输出层进行卷积操作的SRCNN相比,在训练和测试时都降低了复杂度,减少了在输出层卷积上的时间消耗[17]。在SRCNN中,对图像进行下采样操作,r为下采样因子,高分辨率图像和低分辨率图像都具有c个颜色通道,因此它们可表示为大小为H×W×c和rH×rW×c的实数张量。而亚像素卷积层的输入为特征通道数为r2的特征映射,r表示上采样因子,将每个像素的r2个通道重新排列成一个r×r的区域,对应于高分辨率图像中的一个r×r大小的图像块,从而大小为H×W×cr2的特征图像被重新排列成大小为rH×rW×c的高分辨率图像,这个变换就被称作亚像素卷积,但它实际上并没有进行卷积操作[17]。因此亚像素卷积的本质就是将维度为r2的低分辨率特征向量按一定排列要求周期性地排列来构成高分辨率图像。
在低分辨率空間中,令大小为fs的滤波器Ws与权重空间1/r进行卷积操作,步幅为1/r,其结果虽未激活和计算像素之间的权重,但激活了滤波器Ws的不同部分。当激活模型为r2个时,每个激活模型依据其位置,有最多[fs/r]2个权重被激活。当进行卷积操作的滤波器依据不同的亚像素位置扫过图片时,这些激活模型就会被周期性地激活:
3 实验与结果分析
本文采用的实验平台是使用NVIDIA显卡GeForce GTX TITANX、3.20GHz Intel i5 CPU、32GB RAM,编译软件使用Matlab 2016a,并使用Caffe深度学习工具箱进行神经网络模型的搭建和训练[20]。由于本文改建的网络相对较深,算法应使用更大的训练集,以体现该网络的优势,因此实验从ImageNet数据集中随机抽取约6万幅图像组成训练集,抽取的图像尺寸最大不超过512×512,原始高分辨率图像为X,放大倍数取s=2,3,4,预处理后的多幅图像为Y,作为网络的多通道输入。虽然选用较大的学习率可以加快网络的收敛,但可能出现局部最优问题,因此根据网络模型训练的经验与更公平地进行对比实验和分析,将前五层网络的学习率设为10-4,最后一层网络的学习率设为10-5,动量参数设为0.9,权重衰减参数设为0.0005。
本文从主客观两种角度对重建图像的性能进行评价分析。
4 结语
本文主要进行的是深度学习在SISR技术领域的研究,通过改进卷积神经网络来提升图像质量,使用多种预处理手段构成网络的多通道输入,以有效避免区域特征单一的问题;同时,在非线性映射层采用残差网络结构不仅获取了图像的不同层次的特征信息,而且有效解决了梯度消失和梯度爆炸问题;最后引入亚像素卷积完成图像重建操作,提高了重建效率。本文算法使用更大的训练集,经过实验和结果分析,不仅避免了网络加深的过拟合现象,而且获得了较好的重建效果,图像纹理细节部分的区分度和清晰度得到有效提高,但边缘重建效果与原始高分辨率图像间仍有差距,需进一步改进算法,解决图像边缘区域的模糊问题,提升单幅图像的超分辨率重建效果。
参考文献(References)
[1]孙旭, 李晓光, 李嘉锋, 等.基于深度学习的图像超分辨率复原研究进展[J]. 自动化学报, 2017, 43(5): 697-709. (SUN X, LI X G, LI J F, et al. Review on deep learning based image superresolution restoration algorithms [J]. Acta Automatica Sinica, 2017, 43(5): 697-709.)
[2]苏衡, 周杰, 张志浩.超分辨率图像重建方法综述[J]. 自动化学报, 2013, 39(8): 1202-1213. (SU H, ZHOU J, ZHANG Z H. Survey of superresolution image reconstruction methods [J]. Acta Automatica Sinica, 2013, 39(8): 1202-1213.)
[3]李浪宇, 苏卓, 石晓红, 等.图像超分辨率重建中的细节互补卷积模型[J]. 中国图象图形学报, 2018, 23(4): 572-582. (LI L Y, SU Z, SHI X H, et al. Mutualdetail convolution model for image superresolution reconstruction [J]. Journal of Image and Graphics, 2018, 23(4): 572-582.)
[4]KIM J, LEE J K, LEE K M. Accurate image superresolution using very deep convolutional networks [C]// Proceedings of the 2016 IEEE Conference on Computer on Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 1646-1654.
[5]TIAN J, MA K K. A survey on superresolution imaging[J]. Signal, Image and Video Processing, 2011, 5(3): 329-342.
[6]YANG C Y, MA C, YANG M H. Singleimage superresolution: a benchmark [C]// Proceedings of the 2014 European Conference on Computer Vision. Berlin: Springer, 2014: 372-386.
[7]YANG J C, WRIGHT J, HUANG T S, et al. Image superresolution via sparse representation [J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873.
[8]李云飞, 符冉迪, 金炜, 等.多通道卷积的图像超分辨率方法[J]. 中国图象图形学报, 2017, 22(12): 1690-1700. (LI Y F, FU R D, JIN W, et al. Image superresolution using multichannel convolution [J]. Journal of Image and Graphics, 2017, 22(12): 1690-1700.)
[9]ZEYDE R, ELAD M, PROTTER M. On single image scaleup using sparserepresentations [C]// Proceedings of the 2010 International Conference on Curves and Surfaces, LNCS 6920. Berlin: Springer, 2010: 711-730.
[10]TIMOFTE R, DE V, GOOL L V. Anchored neighborhood regression for fast examplebased superresolution [C]// Proceedings of the 2013 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2013: 1920-1927.
[11]TIMOFTE R, ROTHE R, GOOL L V. A+: adjusted anchored neighborhood regression for fast superresolution [C]// Proceedings of the 12th Asian Conference on Computer Vision. Berlin: Springer, 2015: 111-126.
[12]CHANG H, XIONG Y, YEUNG D Y. Superresolution through neighbor embedding [C]// Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2004: 275-282.
[13]DONG C, CHEN C L, HE K, et al. Learning a deep convolutional network for image superresolution [C]// ECCV 2014: Proceedings of the 2014 European Conference on Computer Vision. Berlin: Springer, 2014: 184-199.
[14]徐冉, 張俊格, 黄凯奇.利用双通道卷积神经网络的图像超分辨率算法[J]. 中国图象图形学报, 2016, 21(5): 556-564. (XU R, ZHANG J G, HUANG K Q. Image superresolution using twochannel convolutional neural networks [J]. Journal of Image and Graphics, 2016, 21(5): 556-564.)
[15]刘娜, 李翠华.基于多层卷积神经网络学习的单帧图像超分辨率重建方法[J]. 中国科技论文, 2015, 10(2): 201-206. (LIU N, LI C H. Single image superresolution reconstruction via deep convolutional neural network [J]. China Sciencepaper, 2015, 10(2): 201-206.)
[16]YOUM G Y, BAE S H, KIM M. Image superresolution based on convolution neural networks using multichannel input [C]// Proceedings of the 2006 IEEE 12th Image, Video, and Multidimensional Signal Processing Workshop. Piscataway, NJ: IEEE, 2016:1-5.
[17]SHI W, CABALLERO J, HUSZAR F, et al. Realtime single image and video superresolution using an efficient subpixel convolutional neural network [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 1874-1883.
[18]LEDIG C, THEIS L, HUSZAR F, et al. Photorealistic single image superresolution using a generative adversarial network [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 105-114.
[19]DONG C, CHEN C L, HE K, et al. Image superresolution using deep convolutional networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295-307.
[20]JIA Y Q, SHELHAMER E, DONAHUE J, et al. Caffe: convolutional architecture for fast feature embedding [C]// Proceedings of the 22nd ACM International Conference on Multimedia. New York: ACM, 2014: 675-678.
[21]MEGHA G, YASHPAL L, VIVEK L. Analytical relation & comparison of PSNR and SSIM on babbon image and human eye perception using Matlab [J]. International Journal of Advanced Research in Engineering and Applied Sciences, 2015, 4(5): 108-119.