基于多感受野的生成对抗网络医学MRI影像超分辨率重建
2022-04-12刘朋伟高媛秦品乐殷喆王丽芳
刘朋伟,高媛*,秦品乐,殷喆,王丽芳
(1.山西省医学影像与数据分析工程研究中心(中北大学),太原 030051;2.中北大学大数据学院,太原 030051;3.山西省医学影像人工智能工程技术研究中心(中北大学),太原 030051)
0 引言
医学图像处理的对象是各种不同成像机制的医学影像,磁共振成像(Magnetic Resonance Imaging,MRI)是一种安全的,利用强磁体、无线电波和计算机创建图像的技术,与计算机断层扫描(Computed Tomography,CT)、正电子发射型计算机断层(Positron Emission Computed Tomography,PET)成像相比,MRI 不仅没有电离辐射,而且提供了丰富的对比度。由于人体组织内部不同物质、不同结构具有不同的属性,这些属性会影响获取高质量的MRI 影像,因此对获得的MRI 影像进行适当的超分辨率重建,有助于获得细节丰富、纹理清晰的医学影像,可以辅助医生更加准确地判断病灶,作出更加准确的诊断[1]。
医学图像超分辨率(Super-Resolution,SR)重建是指将从医学仪器获得的低分辨率(Low Resolution,LR)图像重建为有助于医生临床诊断的高分辨率(High Resolution,HR)医学图像技术。自从Dong 等[2]开创性地将卷积神经网络运用到超分辨率领域(Super-Resolution Convolutional Neural Network,SRCNN)以来,基于深度卷积神经网络的SR 方法迅速发展,各种网络体系结构设计和训练策略不断提高SR 性能;Kim 等[3-4]提出了深度递归卷积网络(Deeply-Recursive Convolutional Network,DRCN)和基于深度卷积的精准图像超分辨率(Super-Resolution using Very Deep convolutional networks,VDSR)在进一步增加网络深度的同时改善SR 性能;Zhang 等[5-6]通过结合SR 框架中的残差块提出了基于密集残差的图像超分辨率网络(Residual Dense Network,RDN)并进一步提出了深层残差通道注意力超分辨率网络(Residual Channel Attention Networks,RCAN),高媛等[7]利用深度可分离卷积扩宽残差块中卷积层提高了医学MRI 影像超分辨率的重建质量。但是,这些方法通常容易产生棋盘伪影,影响重建效果。Ledig 等[8]利用深度残差学习提出基于生成对抗网络的超分辨率(Super-Resolution using Generative Adversarial Network,SRGAN)算法;高媛等[9]针对医学影像超分辨率重建过程中细节丢失导致的模糊问题,提出了深度残差生成对抗网络(Deep Residual Generative Adversarial Network,DR-GAN)来削弱棋盘效应;龚明杰等[10]提出了基于稠密残差块的拉普拉斯金字塔级联式生成对抗网络(LAplacian Pyramid cascaded Generation confrontation Network based on Dense residual blocks,Dense-LAPGAN)解决医学图像欠清晰且大小不一的问题;Wang 等[11]通过在增强型超分辨率生成对抗网络(Enhanced Super-Resolution Generative Adversarial Network,ESRGAN)中引入残差密集块(Residual in Residual Dense Block,RRDB)来增强以前的框架,通过结合感知损失[12]、对抗损失[13]以及相对判别器[14]的思想,让判别器预测相对真实性而不是绝对值,最后利用激活前的特征改善感知损失,为亮度一致性和纹理恢复提供更强的监督;Shang 等[15]在ESRGAN 的基础上提出了具有感受野模块的超分辨率网络(Receptive Field Block based on Enhanced SRGAN,RFB-ESRGAN),能够提取更为丰富的图像细节特征,提高了重建图像的质量。尽管这些现有的感知驱动方法确实改善了超分辨图像的整体视觉质量,但是在恢复细节时,可能会生成不自然的伪影,包括几何失真。Fattal[16]通过学习不同分辨率的先验依赖性,提出了一种基于图像梯度边缘统计的方法;Sun 等[17]提出了代表图像梯度的梯度轮廓和梯度场变换的方法;Yan 等[18]提出了基于梯度轮廓锐度的SR 方法,以提高超分辨图像的清晰度。在这些方法中,根据在LR 图像中学习到的参数,通过估计与HR 边缘相关的参数来建模统计依存关系。Ma 等[19]提出了基于梯度引导的结构保留超分辨率(Structure-Preserving Super-Resolution,SPSR)算法,对于深度生成对抗网络,梯度空间约束可以更好地为图像重建提供额外的监督,但网络没有充分利用图像的全局和局部特征信息,导致重建的图像细节、纹理不够清晰。
针对医学图像由于成像原理和成像技术存在扫描时间长、低信噪比等缺点,探究利用深度学习进行医学影像超分辨率在临床应用上的有效性,通过分析医学MRI 影像的纹理特征,根据卷积神经网络在不同感受野下获取特征信息的不同及医学图像各器官之间复杂的纹理组织的尺度变化范围的不同,本文提出基于多感受野的生成对抗网络医学MRI 影像超分辨率重建算法(Multi-receptive Field Generation Adversarial Network,MFGAN)。本文提出具有多感受野的特征提取块(Multi-receptive Field feature Extraction Block,MFEB),MFEB 通过利用具有不同空洞率的4 个并行分支的空洞卷积层来获取不同感受野下的全局特征信息。为避免感受野过小或过大导致细节纹理特征丢失、覆盖,将每组特征分层,用于丰富下一组特征的细节纹理信息。为获取对图像重建任务具有更高响应的空间特征信息,本文设计了基于动态卷积和边缘检测卷积的空间注意力模块(Spatial Attention mechanism based on Dynamic convolution and Edge detection,DESA)。为了减少由于网络深度的增加浅层特征在网络传播过程中丢失,本文在MFEB 的基础上设计了特征融合组(Feature Fusion Group,FFG),将FFG 的输入与第1 个MFEB 的输出连接起来,将特征输入到空间注意力块中,获取图像的空间特征信息,随后将特征传递给下面的MFEB,在FFG 内的MFEB 重复此过程,逐步收集局部特征信息;梯度分支生成的梯度图(Gradient Maps,GM)保留图像的结构信息,并通过LR 图像的梯度图恢复得到的HR 图像梯度图可以集成到SR 分支中,为SR 提供结构先验信息,并且可以更好地突出锐度和结构应该注意的区域,从而辅助重建高质量的医学超分辨率图像。
1 模型结构
1.1 MFGAN
本文提出的MFGAN 用于医学MRI 影像超分辨率重建,网络框架如图1 所示,MFGAN 由生成器-判别器组成。生成器采用双分支结构:SR 分支和梯度分支,利用SR 分支提取图像的局部和全局特征信息,梯度分支提取的图像的梯度信息,然后将SR 分支和梯度分支的特征信息融合输出重建图像;判别器采用深层卷积神经网络判定生成图像和原始图像的真实性,促使生成器生成逼真的SR 图像。
图1 MFGAN结构Fig.1 Structure of MFGAN
1.2 生成器结构
生成器结构如图2 所示,首先采用3×3 卷积增广输入图像特征并采用下采样的方式降低输入图像尺寸,提高网络运算效率;然后将特征信息输入到用于获取最终超分辨率图像输出的SR 分支和梯度分支,在SR 分支中使用MFEB 和DESA 组成FFG 获取图像的局部和全局特征信息;同时,将所有FFG 的输出串联作为SR 分支最终输出特征,减少了浅层特征在网络传播过程中的丢失;梯度分支合并来自SR 分支丰富的结构信息,通过梯度分支恢复高分辨率梯度映射,能够为超分辨率重建提供额外的结构先验,从而辅助生成高质量图像;最后,将最终梯度分支得到的梯度特征通过融合块与SR 分支的特征进行融合作为最终的SR 输出。
图2 生成器结构Fig.2 Structure of generator
1.2.1 多感受野特征提取块
卷积神经网络(Convolutional Neural Network,CNN)随着网络深度和参数个数的增加,对单幅图像的超分辨率重建任务具有更高的性能提升,仅通过增加网络的深度提升网络性能需要引入大量的参数,增加了网络的计算复杂度和训练时间;传统超分辨率重建网络通过堆叠3×3 卷积层实现,这对于处理不同尺度的特征信息缺乏灵活性,不能同时获取图像的局部和全局特征信息。
针对上述问题,本文提出多感受野的特征提取块(MFEB),MFEB 结构如图3 所示。
图3 多感受野特征提取块结构Fig.3 Structure of MFEB
采用4 个并行分支结构获取不同感受野下的全局特征信息,以其中一条分支为例,本文首先采用1×1 卷积层与激活函数RELU 来压缩输入特征。计算公式如下:
式中:l=1、2、3、4 表示4 个不同的并行分支,Hl表示第l个分支的输出特征。每个分支的特征被输入到具有不同空洞率的空洞卷积层,在不增加参数数量的情况下获取不同大小的感受野下的全局图像信息。计算公式如下:
其次,为了避免感受野过小或过大导致细节纹理特征丢失、覆盖,本文将依次整合不同感受野下的特征信息,采用3× 3 卷积将输出特征yi在通道维度分为两个子组:一组子特征yi,1直接连接到下一层,用于反馈该尺度感受野下的全局特征信息;另一组子特征yi,2在通道维度与输入特征映射的下一组特征yi+1连接,用于丰富下一组特征的纹理信息,如此重复上述操作,从而弥补固定感受野捕获信息的不足。
随后采用1×1 卷积融合不同感受野下的特征信息,MFEB 输出的特征F′计算如下:
式中:i=1、2、3、4,Conv1×1表示1×1 卷积层,Conv3×3表示3×3卷积层,⊕表示在通道维度上拼接两组特征,yi+1分别表示输入特征yi的下一层特征表示。
最终输出的特征中小感受野可以聚焦于图像的细节信息,有助于恢复医学图像的细节纹理信息。
1.2.2 特征融合组
随着网络深度的增加,图像浅层特征信息可能会在网络传播过程中逐渐丢失,然而这些浅层特征有助于网络重建高质量的超分辨率图像。因此,本文在MFEB 的基础上设计了特征融合组,如图2 所示。FFG 的输入与第1 个MFEB 的输出级联,将级联特征输入到空间注意力模块(DESA)中,获取对重建图像具有高响应的空间特征信息。本文对FFG 内的所有MFEB 重复上述过程,逐步收集图像的局部特征信息。此外,为了充分利用局部特征信息,本文网络输出由所有FFG 的输出串联而成,有效避免了局部特征在网络传播过程中的丢失,最后使用1×1 卷积层来自适应地控制输出信息,降低计算复杂度。
1.2.3 空间注意力机制
注意力机制不仅能记录信息之间的位置关系,还能根据权重去度量不同特征信息的重要性,通过对特征信息进行相关与不相关的抉择建立动态权重参数,以强化关键信息弱化无用信息,从而被应用在图像处理领域提高深度学习算法的效率。BAM(Bottleneck Attention Module)采用两个3×3 空洞卷积提取图像的特征信息[20],能够比普通卷积更有效地利用图像的上下文信息,通过增大特征提取时感受野的范围,获取比普通卷积更有效的上下文信息,但因不同空洞率的空洞卷积无法衡量图像中复杂纹理组织的尺度变化范围,并且空洞卷积稀疏采样的方式可能会引起图像像素间关联性的丢失,致使各器官之间的边界模糊,纹理不清晰;若使用空洞卷积的空洞率过大也可能导致棋盘伪影,影响图像的重建效果。
针对上述存在的问题,本文提出基于动态卷积和边缘检测的空间注意力机制(DESA),DESA 结构如图4 所示。动态卷积通过根据输入图像的特征信息利用动态滤波器生成不同大小的卷积核获取不同大小的图像特征信息,提升网络重建图像的精度,避免因空洞卷积过大造成重建图像出现棋盘伪影;同时为增强图像内部的边缘纹理信息,增强网络边缘检测的敏感性,对于输入特征f∈Rh×w×c,本文采用内核为1×k与k×1 的转置卷积获取图像的边缘响应信息E1与E2,采用叠加互补转置卷积层的方式获取图像中的边界信息与高频信息。计算公式如下:
图4 DESA模块结构Fig.4 Structure of DESA module
式中Conv1×k和Convk×1分别表示1×k和k×1 卷积核,本文设置k=1、3、5。同时对输入特征采用自适应平均池化层(Adaptive Average Pooling,AAP)获取区域大小为k×k的上下文信息;然后对动态卷积获得的图像全局特征信息与边缘检测获取的边缘特征信息进行叠加,之后采用Sigmoid 函数对映射到[0,1]的编码空间特征采取归一化处理,作为原始输入特征的空间响应激活函数(Spatial Attention,SA)。SA 与输入特征f进行元素级相乘,然后与原始输入特征相加,得到最终的注意力特征f′。计算公式如下:
式中:f a表示将特征经过自适应平均池化后,采用动态卷积获得的全局图像特征,Convk×k表示卷积核为k×k的动态卷积层,AAP 表示自适应平均池化,⊗表示元素级乘。
本文设计的空间注意力机制能够解决空洞卷积引起的图像间像素相关性丢失重建图像的边缘模糊和纹理不清晰等问题,通过使用不同尺度的动态卷积核增强网络对于图像全局上下文信息获取,同时利用边缘检测卷积层,以获取图像的边缘和纹理信息,提升重建图像的精度。
1.2.4 梯度块
梯度块(Gradient Block,GB)结构如图5 所示。梯度块将来自SR 分支的结构信息进行合并,通过梯度块恢复高分辨率梯度映射,为超分辨率重建提供额外的结构先验。
图5 梯度块结构Fig.5 Structure of gradient block
梯度信息反映了图像的边缘细节变化,为避免梯度变化差异大,在梯度还原时弱化图像边缘的锐度,从而保证生成平滑的边缘信息引导超分辨图像生成。因此本文采用全局平滑池化层(Global Smooth Pooling,GSP)平滑HR 的边缘锐度,可以使生成图像更具有平滑的纹理信息。GSP 通过计算相邻像素之间的差异性,实现对梯度分支图像的响应激活。计算公式如下:
式中:Ix(x)是x在水平方向上的差分,Iy(x)是x在垂直方向上的差分,Mx(I)是Ix(x)和Iy(x)对应位置元素的平方和,再开方。M(⋅)获得的梯度图LR 梯度只记录梯度的幅值信息,并未考虑方向信息,因为幅值信息足以表明图像局部区域的锐度(sharpness),其元素是坐标x=I(x,y)的像素的梯度长度,Fx表示来自SR 分支的特征,BMSRBx表示梯度分支与SR 分支的特征叠加,SGSPx表示经过全局平滑池化之后的特征权重。
1.3 判别器结构
判别器的作用是估计输入图像是生成图或真实图的概率,通过判别器引导生成器进行训练,使得生成器生成的结果更趋近于真实图像。网络对生成器的要求是尽可能在不引入任何伪影的情况下对真实图像进行建模,然而使用单一的判别器网络可能会过分关注图像的某些特征,从而导致重建图像出现伪影等不真实的细节纹理信息。因此,为了提高重建图像局部区域细节信息与真实图像对应区域的相似性,受益于文献[21]提出的局部对抗损失,避免因判别器局限于关注生成图像某一局部特征,而忽视整张图像的特征。本文采用了对生成图局部图像块进行真假判别的判别器网络,从而在限制判别器网络感受野范围和网络容量的同时提升重建图像的质量。判别器结构如图6 所示,本文采用VGG16 网络作为判别器结构,使用深层网络提取更为丰富的图像细节特征,从而提高判别器的判别能力,同时本文在最后一层采用1×1 卷积核降低特征通道,输出3×3 概率图,替换了原始的全连接层,使得在保证降低特征图维度的同时不改变图像的空间结构。相较于传统生成对抗网络中判别器只输出一个标量值来表示生成图或真实图整幅图像的真实性,本文的判别器输出3×3 概率图,其中每一个概率值对应图像中一个局部感受野,将图像分成9 个子区域分别进行判别,可以进一步提高判别器对局部细节的判别能力,从而促使生成器生成细节丰富、纹理清晰的医学图像。
图6 判别器结构Fig.6 Structure of discriminator
1.4 损失函数
在超分辨率领域,损失函数用于度量重建误差和指导模型优化。像素损失可以减少重建图像和原始图像之间的像素差异,有利于提升峰值信噪比(Peak Signal-to-Noise Ratio,PSNR),加快网络收敛,但容易造成过拟合。
感知损失是HR 图像和SR 图像特征之间的欧氏距离的最小化,通过使用预训练的VGG 网络衡量图像之间的语义差异,目的在于提高图片的视觉质量,计算公式如下:
式中:φ(l)(⋅)表示VGG 网络的第l层输出,hl、wl、cl分别表示第l层图像的长、宽和通道数。
本文对原始低分辨的图像进行超分辨重建时,为保证重建效果,引入GAN 的生成器(G)-判别器(D)结构,对于判别器输出的3×3 概率图,概率图中每个值代表生成图像中对应局部区域的真实性,相应的真实图的对应区域对应标签为1,通过交叉熵损失计算生成图和真实图之间对应局部区域的差异,最终对每一个局部区域得到的交叉熵损失求和得到判别器的损失值,反向传播进行训练,计算公式如下:
式中:HD表示判别器网络;分别表示HR 和SR 的第i个局部图像块;o[i]表示生成的第i个局部图像块由判别器判断为真的概率;label表示图像标签;LG、LD分别表示生成器和判别器的对抗性损失。
上述损失函数约束的模型只考虑图像的空间约束,但忽略了梯度空间提供的语义信息。由于梯度图(Gradient Map,GM)能充分反映图像的结构信息,因此可以作为二阶约束为生成器提供约束。本文通过减小从SR 图像中提取的梯度图与从相应的HR 图像中提取的梯度图之间的差异来确定梯度损失。计算公式如下:
本文在SR 分支采用了逐像素损失、感知损失、对抗损失,将SR 进行梯度化后进行二阶损失约束,利用逐像素损失和对抗损失来约束SR 的梯度图与HR 的梯度图;梯度分支利用逐像素损失约束生成SR 的梯度图与HR 的梯度图。计算公式如下:
通常,生成对抗网络重建的图像会产生许多的伪影和噪声,为了抑制噪声和削弱伪影对重建图像的影响,本文在损失函数中加入了总变分正则化项以缓解上述问题。本文损失函数计算公式如下:
2 实验和结果分析
2.1 实验参数
实验采用的数据集是开源的医学CT OR MRI 数据集和CHAOS 数据集,从中选取了纵隔清晰,高低频信号对比明显、富含纹理细节的3 000 张图像进行实验,实验采用2 500张图像作为训练集、200 张作为验证集和300 张图像作为测试集。
为充分对比本文算法的有效性,将高分辨率图像采用Bicubic 下采样2、3、4 倍得到LR 图像分别训练模型,在训练期间,为尽可能模拟实际临床医学图像的条件,分别对每个LR 图像进行旋转90°、180°、270°、垂直翻转、垂直翻转旋转90°、垂直翻转旋转180°和垂直翻转旋转270°以获取额外的7张LR 图片,能在保证数据真实的情况下增广数据,最终将训练集扩大至20 000 张图像。将LR 图像随机裁剪后得到的尺寸为30×30 的补丁输入网络进行训练。在每个epoch 训练结束后,将验证集输入模型以跟踪该epoch 的训练结果,训练完成后使用测试集进行最终测试。实验采用PSNR、结构相似性(Structural SIMilarity,SSIM)和感知指数(Perceptual Index,PI)作为医学影像超分辨率的评价指标。
本文的实验采用mini-batch 的训练方式,mini-batch 大小设置为16。采用预训练的VGG 网络计算感知损失中的特征距离,以像素损失、感知损失、对抗性损失和梯度损失为优化目标。初始生成器和判别器的学习率均设置为10-4,为减少网络的训练时间在50k、100k、200k、300k 次迭代时学习率减半。本文的实验环境为Ubuntu 14.01.5 LTS 操作系统,Pytorch V1.1.0,CUDA Toolkit 9.0,Python3.6。本算法使用ADAM 优化器,初始参数设置 为β1=0.9,β2=0.999,ε=10-8。整个网络在一块NVIDIA P100 上训练了48 h。
2.2 对比实验
2.2.1 多感受野特征提取块对比实验
多感受野特征提取块能够在不同空洞率的感受野下获取不同尺寸的图像特征,充分获取图像的全局和局部特征信息。为了验证该模块的有效性,设计了一组与RB(Residual Block)和RRDB 块在SISR 任务中的性能对比实验。分别对网络中的特征提取模块进行了替换,每次实验网络只包含一个特征提取块。在验证MFEB 的基础上对网络中的注意力模块和梯度分支的有效性进行验证。实验运行了350 个时期(epoch),每个epoch 内迭代1 000 次,共迭代3.5×105次,同时在验证集上计算了网络的PSNR 和SSIM值以验证网络的性能。表1 列出了应用不同残差块和对空间注意力模块、梯度分支有效性验证的实验结果,可以看到使用MFEB、注意力模块和梯度分支重建效果均有不同程度的提升。
表1 使用不同残差块和各模块对比的PSNR和SSIMTab.1 PSNR and SSIM comparision modules using different residual blocks
2.2.2 特征融合组对比实验
为了验证特征融合组(FFG)能否有效避免浅层特征在网络传播过程中丢失,该组实验在网络主体上,分别使用含有和去除FFG 直接串联特征提取块的网络主体结构,在相同的实验环境和数据集条件下做了两组对比实验。表2 列出了实验结果,可以看到完整的FFG 在3 个尺度下的PSNR 和SSIM值均达到了最高,这也证明了特征融合组能够有效避免浅层特征在网络传播过程中的丢失。
表2 有无FFG的PSNR和SSIM对比Tab.2 Comparison of PSNR and SSIM with and without FFG
2.2.3 和其他算法的对比
为进一步验证MFGAN 模型的有效性,本文将MSRGAN与SRCNN、SRGAN、ESRGAN、DR-GAN、RFB-ESRGAN 和SPSR 进行效果对比。表3 说明了本文提出的MFGAN 在PSNR、SSIM 和PI 三个指标上优于以前的算法。
表3 列出了尺度分别为×2、×3、×4 时各算法的PSNR、SSIM 和PI值。与SPSR 相比,本文所提算法MFGAN 的PSNR值在各个尺度上分别提升了4.8%、2.7%、3.5%,MFGAN 重建的图像恢复了更多的高频信息,充分利用了图像的局部和浅层特征信息,重建图像细节丰富,纹理清晰,具有更好的视觉效果,符合临床诊断的需求。
表3 各算法在测试集上的PSNR、SSIM和PI值Tab.3 PSNR、SSIM and PI index of each algorithm on test set
为了客观对比MFGAN 与各个算法的重建效果,本文从测试集中随机选取了2 幅高分辨率图像通过Bicubic 下采样4倍后分别输入以上7 个网络,重建效果如图7 所示,可以看到从视觉效果上来看,MFGAN重建出的医学MRI影像相比其他6 种超分辨率重建算法纹理细节更丰富、视觉效果更逼真,减弱了噪声的影响,符合临床诊断的需求。
图7 各算法重建效果对比Fig.7 Reconstruction effects comparison of each algorithm
2.2.4 模型参数对比与特征融合组数量的选取
为分析MFGAN 模型使用FFG 数量的有效性以及比较本文模型与SPSR 模型的参数及性能,在相同实验环境下,分别采用5 个FFG、6 个FFG(即本文模型)及7 个FFG 的模型进行对比。表4 列出了4 种模型结构的参数数量与不同尺度的PSNR值,实验数据说明采用6 个FFG 的MFGAN 相较于采用5 个FFG 的MFGAN 性能要好,而采用7 个FFG 所需参数较多且指标提升不明显。最终,本文选取FFG 数量为6 的MFGAN,其参数数量相较于SPSR 稍多,但在重建图像的PSNR 和SSIM值上均高于SPSR 算法,并且在视觉效果相较于SPSR 算法所重建的医学图像细节更加丰富。
表4 各模型参数数量以及不同尺度下的PSNR值Tab.4 Parameter number and PSNR for different models at different scales
3 结语
本文提出了基于多感受野的生成对抗网络医学MRI 影像超分辨率重建算法。该算法使用多感受野特征提取块构建特征融合组,并在每个特征融合组中添加空间注意力模块,充分获取图像的空间特征信息,减少了浅层和局部特征在网络中的丢失,在图像的细节上取得了更逼真的还原度;梯度分支合并来自SR 分支的特征信息,通过梯度分支恢复高分辨率梯度映射,为超分辨率重建提供额外的结构先验,达到了性能和尺寸的最佳权衡。MFGAN 算法在PSNR 和SSIM 上均优于其他基于深度卷积神经网络的超分辨率算法,同时重建出的图像细节丰富、纹理清晰,符合临床诊断需求,充分证明了本文算法在重建超分辨率医学MRI 影像的高效与准确性。在下一步的工作中,着重于构建更加有效并轻量级的网络结构,在追求最终重建效果的同时,关注时间和空间的消耗。