APP下载

基于深度学习的三维模型检索算法综述

2021-02-04刘安安李天宝王晓雯

数据采集与处理 2021年1期
关键词:草图视图检索

刘安安,李天宝,王晓雯,宋 丹

(天津大学电气自动化与信息工程学院,天津300072)

引 言

随着三维建模技术和计算机图形学的发展,三维模型广泛应用于CAD、VR/AR 和自动驾驶等领域。与此同时,3D 重建和3D 打印等技术的不断革新,使得三维模型的生成过程变得更加容易。由于三维模型的数量剧增,对模型数据库的管理和对模型的检索匹配工作已经无法由人工完成。为了减少重复性工作,三维模型的各个领域都出现了各自的专业数据库和对应的检索技术,如何对三维模型进行高效准确的检索和管理得到了越来越多研究者的关注[1]。

虽然基于文本的搜索引擎非常常见,但是对于三维模型之类的高维数据,首先很难用文本信息概括其所包含的大量信息,其次来自于各个领域工程师的文本信息由于语言文化和行业习惯的差异,容易产生误差和混乱,仅仅利用文本或者标签对三维模型进行检索很难达到较高的准确性,因此需要基于模型的三维模型检索技术对三维模型进行精准的检索和匹配[1],即根据三维模型本身的信息来对模型进行匹配。基于模型的三维模型检索方法,在处理三维模型数据时需要先对模型进行特征提取,将三维模型转换为各种形式的三维模型特征描述子,根据三维模型描述子表示形式的不同,可以进一步将三维模型检索方法分为3 类:基于体素的方法、基于点云的方法和基于视图的方法。基于体素的方法[2-3]和基于点云的方法[4-5]都是直接在原始的三维模型上,通过构建相应的特征提取网络提取三维模型的高阶全局特征。基于视图的方法[6-9]利用虚拟相机对三维模型进行渲染,利用得到的一组二维视图来表示原始的三维模型,由于深度学习在二维图像处理上的技术非常成熟,基于视图的三维模型算法也取得了很好的效果。

尽管基于模型的三维模型检索方法性能良好,完整三维模型实例的获取和标注仍然是一个尚未完善的工作。随着深度神经网络以及大量二维图片数据集的提出,二维图像的分类和识别技术已经非常成熟,基于二维图像的跨域三维模型检索算法利用域适应等技术在大量有标记的二维图像上学习得到相关知识并协助处理三维模型也是近年来的一个热点问题[10-12]。基于二维图像的三维模型检索方法,即检索对象是二维图像、被检索对象是三维模型,其二维图像和三维模型之间存在的模态差异给三维模型检索带来了很大的挑战。根据二维图像的表现方式不同,可以将算法分为2 类:基于二维真实图像的方法和基于二维草图的方法。基于二维真实图像的方法[11]即在真实的图片上提取特征,图像来源通常是拍摄的照片。基于二维草图的方法[12]即在已知的草图上提取特征。和基于模型的三维模型检索方法相比,基于二维图像的三维模型检索方法在特征匹配上面临着更大的挑战,但在检索对象上表现为更易于获取,在应用中更具有普遍性。

本文首先全面介绍了近年来的三维模型检索算法,然后根据三维模型检索任务的不同,对不同的三维模型检索算法进行分类,并对各个类别下的算法进行比较和分析。其中,本文针对基于模型的三维模型检索算法着重分析了三维模型在体素、点云和视图等不同表示形式下的优缺点。针对基于二维真实图像的跨域三维模型检索算法,本文限定了三维模型不含标签的场景,重点分析了无监督迁移学习在无监督跨域三维模型检索中的性能。针对基于草图的三维模型检索算法,本文着重关注了二维草图和三维模型在巨大模态差异下的跨域检索和匹配问题。最后,本文对三维模型检索算法目前存在的问题进行分析和总结,并对该领域新的发展方向进行了探讨和展望,为该领域下的后续研究提供了新的思路。

1 基于深度学习的三维模型检索算法分类

三维模型检索是计算机视觉领域最为热门的研究方向之一,科研人员围绕它开展了许多研究工作。根据三维模型检索任务的不同,本文将基于深度学习的三维模型检索算法分为基于模型的三维模型检索算法和基于二维图像的三维模型检索算法。

1.1 基于模型的三维模型检索方法

近年来,随着深度神经网络的快速发展和大规模三维模型数据集的出现,利用深度学习方法对三维模型进行学习和表示成为了三维模型研究领域的热门研究方法。三维模型的表现形式包括体素、点云和视图等,因此现阶段根据对三维模型的表示方式不同,相关研究大致可分为基于体素、基于点云、基于视图和混合的三维模型检索方法。

基于体素的三维模型检索方法通常使用密集而规整的三维网格表示三维模型,对其进行三维卷积和池化等操作,从而提取高阶特征用于学习表示。Qi 等[13]提出了多方位体素卷积神经网络(Multi-orientation volumetric convolutional neural network,MO-VCNN),该网络使用权值共享的3D 卷积神经网络获取不同方向的三维体素特征,然后执行最大池化操作聚合特征,最终将聚合之后的特征输入到另一个三维卷积神经网络进行预测,取得了不错的效果。为了降低计算成本、提高效率,Li 等[14]提出使用场探测滤波器,通过学习改变探测滤波器的形状,将其自适应地分布在三维空间中。

基于点云的三维模型检索方法指的是从三维模型表面进行三维坐标采样构成三维点集用于学习表示。三维点云处理的挑战主要源于点集的非结构化和不规则性。Klokov 等[15]提出了k-D 网络,首先用k-维树(k-dimensional trees,k-D trees)表示点云,然后根据数据结构对点云进行处理。受形状匹配算法[16]的启发,Xie 等[17]使用自注意力模块来为点云的形状进行上下文建模。

基于视图的三维模型检索方法往往先为每个三维模型渲染一组二维视图图像,再利用二维卷积神经网络提取相关特征。Bai 等[18]对相应视图集之间的豪斯多夫距离进行分析,提出了基于视图的三维模型检索系统GIFT。Su 等[6]提出了多视图卷积神经网络(Multi-view CNN,MVCNN),最先使用一个共享的卷积神经网络对视图图像进行特征提取,然后跨视图维度进行最大池化来聚合特征。然而,由于该网络在最大池操作中丢弃了非最大值,可能无法充分利用多视图特性。针对这个缺陷,Wang 等[19]提出了一种基于优势集合思想的视图聚类和池化算法,在聚类后的多个视图集内进行池化操作,获得了不错的实验效果。还有学者尝试使用长短期记忆网络(Long short-term memory,LSTM)来聚合多视角图像的特征[20-21]。此外,Chen 等[22]提出使用循环注意力模型自动选择视图序列进行准确的三维形状识别。Sfikas 等[23]提出全景卷积神经网络(PANORAMA-based CNN,PANORAMA-CNN),即使用一组基于全景的卷积神经网络来对三维形状进行学习表示。

混合方法通常指对两种或两种以上的三维模型的表示进行处理。Lu 等[24]尝试分析三维模型基于模型特征和视图特征之间的相关性。You 等[25]引入点-视图关系网络(Point-view relation network,PVR-Net)融合点云特征和多视角特征,取得了很好的效果。文献[26]中使用FusionNet 对三维模型基于体素特征和视图特征进行融合从而对三维模型进行识别和检索。Rahman 等[27]提出将三维模型的深度图和彩色图进行融合,来对三维模型进行更好的表示。

1.2 基于图像的三维模型检索方法

除了基于模型的三维模型检索方法外,基于图像进行三维模型检索也是一个可选择的研究思路。基于二维图像的三维模型检索方法,即检索对象是二维图像、被检索对象是三维模型,二维图像和三维模型之间存在的模态差异给三维模型检索带了很大的挑战。根据二维图像表现方式的不同,可以将算法分为两大类:基于二维真实图像的方法和基于二维草图的方法。

基于二维真实图像的三维模型检索方法中,无监督跨域三维模型检索方法吸引了众多研究者的关注,即在源域的标签已知、而目标域的标签未知的情况下设计算法对三维模型进行检索和识别。Zhou等[10]提出两级嵌入对齐网络(Dual-level embedding alignment network,DLEA),采用对抗性域适应算法和类别中心对齐来联合约束模型的训练。Li 等[11]提出多视图多分布学习方法(Multi-view multi-distribution learning,MVML),通过学习两个耦合子空间将源域特征和目标域特征映射到公共域进行学习。域对抗神经网络(Domain-adversarial neural network,DANN)[28]采用对抗性域适应算法,对源域数据和目标域数据进行对齐。

基于草图的三维模型检索方法的难点在于解决二维草图与三维模型之间存在的巨大模态差异问题。Zhu 等[29]提出使用跨域神经网络(Cross-domain neural network,CDNN)来缩小二维草图与三维模型的差异。Daras 等[30]提出了一种支持多媒体查询的三维模型检索系统,该系统将三维模型投影到一组二维图像中,通过从二维图像中提取特征来确定不同模型之间的相似度。Bronstein 等[31]将在二维计算机视觉中流行的特征袋(Bag-of-Feature,BoF)方法应用于三维模型检索中。更进一步,Eitz 等[32]将BoF 与基于Gabor 的局部线性特征(Gabor local line based feature,GALIF)结合,用于基于草图的三维形状检索研究。除了BoF 编码算法外,局部约束线性编码(Locality-constrained linear coding,LLC)[33]是另一种在图像分类中广泛应用的编码方法,它可以保留图像的局部特性。Biasotti 等[34]将LLC 方法应用于三维模型检索。此外,Xie 等[35]从三维模型的不同二维投影中聚合有效特征。Tasse 等[36]提出了一种新的跨域检索方法,将不同模态的样本嵌入语义特征向量中进行特征学习。

2 基于模型的三维模型检索方法

按照三维模型的表示形式,可以将三维模型处理算法分为基于体素的方法、基于点云形式的方法和基于视图的方法。本节详细对比分析了几种代表性的方法:(1)基于体素的三维模型检索算法包括3DshapeNets[3]和深度局部特征聚合网络(Deep local feature aggregation network,DLAN)[37];(2)基于点云的三维模型检索算法包括PointNet[4]和PointNet++[5];(3)基于视图的三维模型检索算法包括MVCNN[6]、RotationNet[38]、组合视图卷积神经网络(Group-view convolutional neural network,GVCNN)[7]和基于视图的图卷积神经网络(View-based graph convolutional network,View-GCN)[8]。

2.1 基于体素的三维模型检索算法

2.1.1 3D ShapeNet 网络

基于体素的方法[2-3]利用三维空间中体素的集合来表示三维模型,然后在体素的基础上建立神经网络提取特征并进行三维模型的识别和检索。

Wu 等[3]提出的3D ShapeNets 网络,在三维体素网格上用二元变量的概率分布来表示三维几何模型,如图1 所示。对每个三维模型,建立一个30×30×30 大小的三维网格,将每个三维网格表示为二值化向量:1 表示体素在该网格内,0 表示体素没有在该网格内。3D ShapeNets 提出了一种深度卷积网络来学习三维模型在三维网格中的体素化特征,该网络共有5 层网络结构:第1 层卷积层有48 个卷积核,每个卷积核大小为6,卷积步长为2;第2 层卷积层有160 个卷积核,每个卷积核大小为5,卷积步长为2;第3 层卷积层有512 个卷积核,每个卷积核大小为4;第4 层是全连接层,有1 200 个隐藏单元;第5 层是最后一层,包含4 000 个隐藏单元,这一层的输出作为整个三维模型的特征。

图1 3D ShapeNets 结构示意图Fig.1 Schematic of the 3D ShapeNets structure

基于体素的三维模型处理算法将三维模型规范化处理,可以利用3D 卷积神经网络进行特征学习。30×30×30 大小的网格在神经网络中所需要的参数量与一个165像素×165像素大小的二维图像很接近,但是其计算量和内存消耗量随着分辨率的3 次方增长,因此3D ShapeNets 网络结构在分辨率较高的三维模型数据集中表现较差。

2.1.2 DLAN 网络

局部特征聚合是二维图像或三维模型研究中一种非常流行和行之有效的方法。近年来,研究发现基于端到端的深度三维卷积神经网络(3D-deep CNN,3D-DCNN)在三维模型的分类和检索任务上取得了不错的效果[3]。然而基于3D-DCNN 的方法也存在不足:一方面是对三维旋转缺乏不变性,另一方面在应用过程中形状量化过于粗糙,缺失详细的几何特征。

Furuya 等[37]提出了一种深度局部特征聚合网络DLAN。该网络结构可以分为局部特征提取模块和特征聚合模块。如图2 所示,局部特征聚合模块对局部三维特征进行提取和编码,利用三维卷积层和全连接层生成中层局部特征。特征聚合模块对局部三维特征进行聚合,通过池化层将局部特征提取模块计算得到的中层局部特征集聚合为每个三维模型的单个特征。最后,利用全连接层对聚合后的整体特征进行降维或压缩,利用最终的特征进行三维模型检索。

图2 DLAN 结构示意图Fig.2 Schematic of DLAN structure

DLAN 采用了先从局部提取特征、再将特征聚合的思想,能学习得到三维模型更细节的信息,并且相对于3DshapeNets,DLAN 可以处理更高分辨率的三维模型结构。

2.2 基于点云的三维模型检索算法

点云是一种重要的几何结构数据表示类型,用三维欧氏空间里点的集合来表示三维模型,点云数据相对于其他类型的数据有几条非常重要的性质:

(1)无序性。点云是三维空间中一系列没有顺序的点的集合,处理点云数据的模型需要对点的不同排列表示不变性。

(2)相关性。一个三维模型由三维空间中一定数量的点构成,每个点之间存在一定的相互关系,需要同时考虑局部特征和全局特征。

(3)不变性。点云数据需要对几种空间变换保持不变性,比如全部点云数据整体的平移和旋转等。

由于点云数据的不规则性和无序性,难以用传统的2D 深度网络来处理三维点云数据。常见的方法将无序的点云数据转换为三维网格中的规则化的体素来处理,以便神经网络学习过程中的权值共享等操作,但是这种方法降低了三维模型的分辨率并且忽略了很多几何结构信息。

2.2.1 PointNet 网络

PointNet 网络[4]是一种直接在无序点云数据集上提取特征的新型神经网络,充分考虑了点云特征的无序性、每个点之间的关联性以及整体点云的置换不变性,达到了很好的分类和检索效果。点云数据可以表示为一系列点的集合{ Pi|i=1,…,n},每个点Pi的数据为其三维坐标(x,y,z)以及一些额外信息,比如颜色等。

如图3 所示,PointNet 网络结构以n 个点的三维坐标作为输入,针对点之间的相关性,设计了局部信息转换模块;针对点的无序性,利用最大池化层作为对称函数来聚合整个三维模型的特征为

式中:xi表示第i 个点;h 表示特征提取函数;g 为对称函数,例如最大池化层和平均池化层等,用来将每个点的特征聚合成全局特征。最终PointNet 网络会得到一个全局的整体特征,利用这个特征可以进行分类和检索任务。

图3 PointNet 结构示意图Fig.3 Schematic of the PointNet structure

2.2.2 PointNet++网络

PointNet 只是学习每个点的空间编码,然后将所有的点聚合为模型整体特征,不能很好地捕捉三维模型的局部结构变化,限制了其在复杂场景下进行三维模型识别的泛化能力和对细粒度三维模型的判断能力,并且PointNet 是在均匀采样密度的点集上进行训练,这也会造成在复杂应用场景下的性能下降。PointNet++[5]网络在其基础上进行改进,提出了一个层级化的特征学习网络,可以对三维模型的局部特征进行很好的学习,并且可以处理不同尺度的点云特征。

如图4所示,PointNet++参考卷积神经网络使用不同尺度卷积核的思想,从不同尺度提取点云特性,然后聚合得到最终的整体特征。PointNet++主要包含3种模块:采样模块、分组模块和特征提取模块。

图4 PointNet++结构示意图Fig.4 Schematic of the PointNet++ structure

在特征提取模块中,用PointNet 提取局部特征,不同特征提取模块之间共享参数。采样模块旨在选取采样中心点,将点云数据划分为局部点云集,在采样时用最远点采样(Farthest point sampling,FPS)方法来选取中心点,即先随机选择一个点,然后选择第2 个离该点最远的点,循环此操作,直到选出需要的部分点云集数。分组模块确定局部点云集的尺度,在这里认为不同的区域可能会有不同的密度,所以通过选取三维几何空间尺度来确定采样的范围,即在中心点周围的规定尺度的三维球体空间中对点进行采样,这样可以更好地提取局部信息。

2.3 基于视图的三维模型检索算法

如图5 所示,基于视图的三维模型检索算法主要的思想是使用虚拟相机将三维模型转换为二维投影视图图像,进而利用深度神经网络提取视图的高阶特征,然后将多个视图的特征融合为一个全局描述子,从而进一步进行检索或分类。研究人员提出了各种算法对视图特征进行融合:MVCNN 直接用池化操作对视图进行融合;RotationNet 考虑了视图的姿态信息;GVCNN 对不同视图进行分组;View-GCN 利用图卷积网络对视图进行聚合。得益于深度学习在二维图像处理领域高度成熟的相关技术,以及二维图像庞大的带标签数据集可以对模型进行有效的预训练,基于视图的三维模型检索算法取得了很好的效果。

图5 基于视图的三维模型检索算法结构示意图Fig.5 Schematic of the view-based 3D model retrieval algorithm

2.3.1 MVCNN 网络

基于视图的三维模型处理方法,针对每个三维模型生成一组视图数据,常规的方法是为每个视图提取得到一个2D 图像描述符,然后根据投票或对齐方案直接使用单个描述符来执行识别任务。然而将视图与三维模型进行对齐比较困难。与上述简单的方法相比,结合来自多个视图特性的聚合表示更为可取,因为它产生了一个全局的、更有代表性的描述符来表示3D 形状。

Su 等提出的MVCNN[6]框架,首先将三维模型投影成多个二维视图,然后利用卷积神经网络分别对每个视图进行特征提取,再利用最大池化层将多个视图聚合成为一个包含整个三维模型的全局特征,最后利用这个全局特征进行进一步的检索或分类。非常简单的网络架构取得了较好的效果。

2.3.2 RotationNet 网络

MVCNN 在将多个视图特征聚合为一个视图特征时,每个视图的地位是平等的,这可能忽视了一定的有效信息。RotationNet 网络[38]在MVCNN 的基础上将视图的姿态标签作为潜在变量,在训练过程中利用未对齐数据集对每个视图的姿态进行无监督自对齐优化。

2.3.3 GVCNN 网络

更进一步,Feng 等研究发现三维模型的多个视图之间存在一定的相关性,因此在视图和全局特征之间设计了一个对视图进行组合的模块,提出了GVCNN 网络[7],将不同视角下卷积神经网络提取得到的视图特征按照其判别性强弱进行分组,对于N 个视图特征V = {v1,v2,…,vn},分别送入设计好的计算权重的全连接层,得到输出值O= {o1,o2,…,on},每个视图的判别性强弱定义为

式中abs(·)为绝对值函数。按照式(2)计算的权重对N 个视图进行分组,然后在每一组内进行特征池化操作,最后再在每个组间对特征进行聚合最终的三维模型全局特征,能够更充分地利用三维模型多个视图之间的相关性。

2.3.4 View-GCN 网络

同样为了对多视图特征进行更加有效的聚合,Wei 等提出了View-GCN 网络[8],将图卷积网络[39]应用在多视图特征聚合上。根据生成二维视图时虚拟相机的三维空间位置建立图结构,更好地保留了视图之间的几何结构信息,并且设计了局部图卷积模块和非局部信息传递模块,兼顾了相邻视图和偏远节点视图之间的信息传递,也取得了很好的分类和检索效果。

3 基于二维图像的三维模型检索算法

3.1 基于二维真实图像的三维模型检索算法

近年来三维模型数据大量涌现,但是只有很少的数据得到了有效的标记,绝大多数是无标记的数据,而经过深度神经网络[40-42]多年的发展,二维图像处理技术已经非常完善,并且有充足的有标记数据[43]可以利用。那么一个非常直观的想法就是利用迁移学习相关算法将从标签丰富的二维图像中学习得到的知识迁移到无标签的三维模型数据中去,促进三维模型的大数据管理。

本节详细对比分析了基于二维真实图像的跨域三维模型检索算法:流形嵌入分布对齐网络(Manifold embedded distribution alignment,MEDA)[44],联合域适应网络(Joint adaptation network,JAN)[45],深度域对抗网络(Domain-adversarial neural network,DANN)[46]和两级嵌入对齐网络(Dual-level embedding alignment network,DLEA)[10]。

图6 展示了基于二维图像的无监督跨域三维模型检索算法的基本框架:对于二维真实图像直接用卷积神经网络提取特征,对于三维模型采用基于视图的三维模型表示形式提取高阶特征,然后对源域、目标域数据进行跨域特征学习。

图6 基于二维真实图像的跨域三维模型检索算法结构示意图Fig.6 Schematic of the 2D real image-based cross-domain 3D model retrieval algorithm

3.1.1 MEDA 网络

MEDA 网络[44]利用MVCNN 方法提取二维图像特征和三维模型特征,然后将原始空间转化为高维的高斯曼流形,学习其流形中的领域不变分类器,进一步实现流形域自适应的动态分布对齐。

原始特征空间中不同模态之间存在模态差异,根据流形假设嵌入在流形空间的点和他们的相邻节点往往具有相似的性质,因此MEDA 提出流形特征变换,以此来减小不同域之间的数据漂移,然后动态衡量边缘分布和条件分布的重要性,学习得到最终的模型。

3.1.2 JAN 网络

Long 等提出的联合域适应网络JAN[45]利用联合最大平均误差准则(Joint maximum mean discrepancy,JMMD),通过对齐域适应网络多个特定层的联合分布来优化模型。通常进行域适应时只针对最后的特征输出进行约束,而忽略了中间层的信息,因此当网络的层数比较多时效果不是很理想。JAN综合网络输出层和网络中间层的特征,利用JMMD 准则对模型进行整体约束,即

式中:第一项表示交叉熵分类损失,用源域带标签的数据进行约束;第二项表示针对网络输出层和中间层的联合对齐损失函数。这样从适应网络的多个层次对模型进行约束,可以达到较好的迁移效果。

3.1.3 DANN 网络

2016 年,Ganin 等提出的深度域对抗神经网络DANN[46]首次介绍了深度对抗性域适应算法,在解决无监督跨域学习等方面取得了显著的效果。在处理基于图像的无监督三维模型检索算法时,将有标签的二维数据集作为源域将无标签的三维模型多视图数据集作为目标域源域二维图像数据直接用卷积神经网络提取特征,目标域三维模型多视图数据用卷积神经网络分别对多个视图进行提取特征,利用最大池化操作将多视图特征进一步聚合为全局特征描述子。

设计如下损失函数对模型进行约束

式中:Ly表示分类器的损失函数;Ld表示域判别器的损失函数;θf,θy,θd分别表示特征提取网络、分类器网络和域判别网络的参数,用对抗性训练[47]的方式优化模型为

经过上述优化后的模型,可以学习得到域一致性的特征,最大可能地忽略域差异,更好地对齐二维真实图像与三维模型数据的特征分布,达到更好的分类和检索效果。

3.1.4 DLEA 网络

Zhou 等提出的DLEA[10]网络将有标签的二维数据集作为源域将无标签的三维模型多视图数据集作为目标域源域二维图像数据直接用卷积神经网络提取特征,目标域三维模型多视图数据,用卷积神经网络分别对多个视图进行提取特征,并利用注意力模块[48]对多个视图赋予合适的权值,进一步聚合多个视图为全局特征描述子,期望多个视图中与二维图像角度相近的视图可以获得更大的权值。

模型训练过程中,首先利用源域有标签的二维图像数据集训练特征提取器和分类器,用常用的交叉熵损失约束模型进行训练

式中:Ds表示源域;f 表示特征提取网络。

然后利用对抗域适应算法在领域级别用LDC损失函数进行约束,在类别级别用LSM损失函数进行约束,将源域数据和目标域数据进行对齐

式中:G 表示分类器;D 代表域判别器。通过式(8)损失函数的约束能够消除源域二维图像数据集与目标域三维模型数据集的整体域差异,使得源域与目标域的特征分布更加相似。

最终训练好的网络能消除二维图像与三维模型之间的域差异,将在二维图像中学习到的信息很好地用在处理三维模型数据的过程中。

3.2 基于二维草图的三维模型检索算法

基于草图的三维模型检索的目标是根据输入的草图检索得到一系列三维模型,该方案更简单、更直观,便于用户更好地学习和使用,有较为广泛的应用,如基于草图的三维建模、基于草图的三维动画设计等。然而由于人类手绘的三维模型比较简单,与精确建模的三维模型在细节、精度等方面存在巨大的模态差异,基于草图的三维模型检索存在巨大的挑战,吸引了众多研究者的关注[50-53]。

本节详细分析对比了基于二维草图的以下4 种三维模型检索算法:跨域流形排序算法(Cross-domain manifold ranking,CDMR)[52],基于孪生神经网络的方法(Siamese-based CNN,Siamese-CNN)[54],深度相关度量学习方法(Deep correlated metric learning,DCML)[55]及其变体深度整体相关度量学习方法(Deep correlated holistic metric learning,DCHML)[56]。

3.2.1 CDMR 算法

2013 年,Furuya 等提出了一种基于度量学习的跨域流形排序算法CDMR[52],如图7 所示。CDMR算法在二维草图特征和三维模型特征之间构建一个流形,即一个图结构W,图结构的大小为:(Ns+Nm)×(Ns+Nm),其中Ns为二维草图样本的个数,Nm为三维模型样本的个数。Wij表示第i 个二维草图与第j 个三维模型的相似度,在计算了两个样本的特征距离d(i,j)之后,其相似度可以表示为

式中:参数σ 控制相关性,在计算草图到草图、草图到三维模型、三维模型到三维模型的相似度时,采用不同的参数σ。

在计算完跨域流形之后,采用流形排序算法在跨域流形图中计算检索过程中样本的相似性为

图7 CDMR 结构示意图[52]Fig.7 Schematic diagram of CDMR structure[52]

3.2.2 Siamese-CNN 网络

2015 年Wang 等提出Siamese-CNN[54]网络,其结构如图8 所示。该网络利用孪生网络[57]的思想,构建二维草图和三维模型视图的样本对,然后对二维图像和三维模型设计完全相同的特征提取网络结构,利用孪生网络定义损失函数,对两个网络的输出进行相似性约束,从而缩小二维草图与三维模型之间的域差异。

图8 Siamese-CNN 结构示意图Fig.8 Schematic diagram of Siamese-CNN structure

孪生网络通常采用一对样本作为输入,损失函数定义如下

式中:si,sj表示2 个不同的样本;y 表示相似性标签;α、β、r 表示超参数;Dw表示两个样本在特征空间的距离。在Siamese-CNN 中,针对跨域三维模型检索算法设计了损失函数为

式中:s1、s2表示不同的二维草图,v1、v2表示不同的三维模型视图,并且s1、v1来自同一类,s2、v2来自同一类,因此一个y 就可以表明4 个样本之间的关系。利用式(13)可以约束神经网络进行训练,以缩小域差异,进行更好的跨域三维模型检索。

3.2.3 DCML 方法

Dai 等在2017 年提出了一种基于深度相关度量学习的方法DCML[55]。如图9 所示,DCML 对二维草图源域和三维模型目标域各训练一个深度神经网络,用同一组联合损失函数来约束每个域内最大化类间相似性及最小化类内相似性,同时减小不同域间的整体域差异,最终学习两个深度的非线性变换,将两个域的特征映射到同一个非线性特征空间中,在相同的特征空间中对二维草图和三维模型进行检索和匹配。

图9 DCML 结构示意图Fig.9 Schematic diagram of DCML structure

经过各自的深度神经网络,源域二维草图和目标域三维模型分别得到了各自的特征:Fs= { x1,x2,x3,…},Ft={ y1,y2,y3,…},联合损失函数包括两部分:判别性损失和相关性损失,即

式中:等号右侧第3 项是用来防止过拟合的正则化项;判别性损失Ld用于在源域中构建正样本和负样本,利用三元组损失[58]对模型进行约束;相关性损失Lc用来约束不同域之间的分布一致性,首先在源域与目标域的所有样本中构建正样本和负样本,设计三元组损失对模型进行约束,然后对源域和目标域中相同类的样本在特征空间最小化其欧式距离来进行相似性约束。

由于二维草图与三维模型之间存在巨大的域差异,直接对神经网络最后输出层的特征进行约束很难达到理想的效果,Dai 等在DCML 的基础上对神经网络隐藏层的特征进行进一步约束,提出DCHML算法[56],达到了更好的效果。

4 实验分析

4.1 数据集

(1)ShapeNet Core55[59]:大规模三维模型数据集包含55个类别,共计51 162个三维模型样本。将数据集划分为训练集、验证集和测试集,大约分别占70%,20%和10%。ShapeNet Core55 数据集示例如图10所示。

(2)ModelNet40[3]:大规模三维模型数据集包含40 个类别,共计12 311 个三维模型,将数据集划分为训练集和测试集,大约分别占80%和20%。ModelNet40 数据集示例如图11 所示。

图10 ShapeNet Core55 数据集示例Fig.10 Example of the ShapeNet Core55 dataset

图11 ModelNet40 数据集示例Fig.11 Example of the ModelNet40 dataset

(3)SHREC’14 LSSTB[12]:二维草图数据集包含13 680 张草图,共分为171 类,每类80 张草图,每张草图都在三维模型数据集中有对应的模型。三维模型数据集包含8 987 个三维模型,共分为171 类,每类平均大约53 个样本。SHREC’14 LSSTB 数据集示例如图12 所示。

图12 SHREC’14 LSSTB 数据集示例Fig.12 Examples of SHREC’14 LSSTB dataset

(4)MI3DOR[11]:基于真实图像的三维模型检索数据集,二维真实图像数据集包含21 个类别,每类1 000 个样本,共计21 000 个样本,将数据集划分为训练集和测试集,分别占50%和50%;三维模型数据集包含21 个类别,共计7 690 个样本,样本类别分布不完全均衡,训练集包括3 842 个样本,测试集包括3 848 个样本。MI3DOR 数据集示例如图13 所示。

图13 MI3DOR 数据集示例Fig.13 Examples of MI3DOR dataset

4.2 相似性及检索效果评测指标

4.2.1 相似性度量

在三维模型检索过程中,利用各种特征提取方法对三维模型提取高阶全局特征,然后利用提取得到的特征向量进行模型间的匹配和检索。对特征向量进行检索和匹配的最直观的做法是对特征向量之间的相似度进行判断,可以用以下度量方式对相似度进行量化。

(1)闵可夫斯基距离,表达式为

式中:X、Y 表示不同三维模型的特征向量;N 表示特征向量的维度;当p=1 时,式(15)为曼哈顿距离;当p=2 时,式(15)为常见的欧几里得距离。

(2)余弦相似度,表达式为

由上述距离计算得到相似度矩阵:D:P×P →R+∪{0},其中P 为特征空间的一个子空间。

则对任意的特征点x,y ∈P,有如下性质:①D(x,y) ≥0;②D(x,y) =D(y,x);③D(x,y)=0 ⇔x=y。

4.2.2 检索效果评价指标

根据特征向量计算得到的相似度矩阵,有如下几个测评指标来对三维模型检索的效果进行综合评价。

(1)平均召回率(Average recall,AR)

式中:NC表示检索到的正确的模型的数量;NAll为数据集中所有相关物体的数量;Recall(i)为第i 类模型的召回率。

(2)平均精确率(Average precision,AP)

式中:NRAll表示所有被召回的模型的数量;Precision(i)表示第i 类模型的精确率。

(3)平均精确率的均值(mean Average precision,mAP)。对于每一个查询样本都会有一个AP 值,综合所有的AP 值计算所有数据集的mAP 指标,假设Q 为所有查询样本的个数,则有

(4)最近邻(Nearest neighbor,NN),表示检索列表中第一个检索结果的检索精度。

(5)第一层级(First tier,FT),表示前T 个检索结果的检索精度,T 表示整个数据集中相关样本的个数。

(6)第二层级(Second tier,ST),表示前2T 个检索结果的检索精度。

(7)F 度量(F-measure,F),联合评价检索结果的精准率和召回率,表达式为

(8)折损累计增益(Discounted cumulative gain,DCG),对检索结果排名靠前的样本赋予较大的权重,从而综合评测,表达式为

式中:reli表示第i 个样本的相关度。在三维模型检索中,通常1 表示相关,即检索正确;0 表示无关,即检索错误。

(9)归一化折损累计增益(Normalized discounted cumulative gain,NDCG),用DCG 的最大值IDCG对DCG 进行归一化处理,即

式中:REL 表示检索结果列表按照相关性大小降序排列,即检索列表中都是正确的结果。

(10)平均归一化修正检索排序(Average normalized modified retrieval rank,ANMRR)是一种基于排序的度量,考虑了检索对象中相关对象的排序信息。

式中:Ng(q)表示数据集中检索样本q 的所有相关样本的个数;r(i)表示检索q 检索到的第i 个样本的主观排序,即

式中:K 定义为min(4×Ng(q),2×GTM),其中GTM=max(Ng(q)),则有

式中Q 代表查询样本的总数。

值得注意的是,上述检索指标中只有ANMRR 值越小表示算法性能越好,其他检索指标均为越大表示算法性能越好。

4.3 三维模型检索算法对比及实验结果

三维模型检索算法对比如表1 所示。

表1 三维模型检索算法对比Table 1 Comparison of 3D model retrieval algorithms

4.3.1 基于模型的三维模型检索算法对比及实验性能分析

采用ModelNet40 数据集评估上述模型的分类效果和检索效果,利用ShapeNet Core55 数据集来评估上述算法的检索效果。ModelNet40 数据集和ShapeNet Core55 数据集都提供标准的三维obj 格式文件,可以自行转换为体素数据、点云数据或者多视图数据。表2 中,ShapeNet Core55 数据集每类样本的数目并不均衡,因此利用ShapeNet Core55 数据集对算法的检索性能进行分析时,为了更好地对不同类别的模型检索结果进行综合评价,采用了两种不同的评测指标计算方法:宏观平均和微观平均。宏观平均指的是在整个数据集上对所有样本计算各种检索指标(F,mAP,NDCG),每个三维模型样本在计算检索指标时占相同地位。微观平均指的是首先在每个类别内计算检索指标(F,mAP,NDCG),然后对每个类别的检索指标取平均值,每个类别在计算检索指标时占相同地位。

表2 基于模型的三维模型检索算法在ModelNet40 和ShapeNet Core55 数据集上的性能比较Table 2 Performance comparison of the model-based 3D model retrieval algorithms on ModelNet40 and ShapeNet Core55 datasets

上述基于模型的三维模型处理算法都借鉴了深度学习的思想,采用不同的三维模型处理方式(体素、点云、多视图),设计了有效的深度网络结构,提取三维模型高阶特征进行三维模型检索或分类。3DshapeNets 将三维模型数据体素化,每个三维模型表示为一个30×30×30 的三维网格;DLAN 先用小的体素网格分别提取三维模型的局部信息然后聚合为整体信息;PointNet 和PointNet++设计了深度网络结构直接在点云数据上提取特征;MVCNN、RotationNet、GVCNN 和View-GCN 选取多视图数据作为输入数据,设计不同的多视图融合方式,提取高阶全局信息。分析实验结果可以观察得到:

(1)3DshapeNets 和DLAN 是基于体素的三维模型处理算法,采用3D-CNN 结构提取体素化的三维模型数据并处理,由于其计算量和内存占用量随着三维模型网格分辨率的3 次方增长,难以处理高分辨率的三维模型,实验性能低于基于点云的和基于视图的方法。

(2)PointNet 和PointNet++两种基于点云的三维模型处理算法,充分考虑了点云特征的无序性、平移旋转不变性和点之间的相互关联性,取得了令人满意的实验效果。PointNet++进一步考虑了点云尺度变化,设计了层级化的点云特征提取结构,取得了更好的实验效果。

(3)基于视图的方法,得益于卷积神经网络在二维图像上的成熟技术,性能普遍偏高;并且不同视图之间存在关联信息,RotationNet 利用了视图的姿态信息作为隐藏信息参与模型的训练,GVCNN 根据视图的判别性对视图进行分组,View-GCN 更好地利用了视图相互之间的结构信息,都取得了更好的三维模型检索效果。

4.3.2 基于二维真实图像的三维模型检索算法对比及实验性能分析

基于二维真实图像的跨域三维模型检索算法,在目标域无标签信息的情况下,充分利用二维图像的标签信息,结合迁移学习相关算法,协助处理三维模型数据,有重要的现实意义。

采用MI3DOR 数据集来对上述算法进行性能评估,结果如表3 所示。MI3DOR 数据集分为21 个类别,其训练集中包含10 500 个二维真实图像和3 842 个三维模型,其测试集中包含10 500 个二维真实图像和3 848 个三维模型。三维模型数据提供三维obj 格式文件和多视图文件。

针对MI3DOR 数据集,在进行特征提取时上述算法都选择AlexNet[40]网络作为基本网络架构,AlexNet 网络包含5 个卷积层conv1~conv5和3 个全连接层fc6~fc8。对于二维真实图像,直接用AlexNet 提取特征,采用其fc7层的输出作为二维图像的高阶特征;对于三维模型,首先利用AlexNet 对三维模型的每个视图提取特征,采用fc7的输出作为每个视图的高阶特征,然后利用多视图特征融合方法,将每个三维模型不同视图的高阶特征融合为三维模型的全局高阶特征。

表3 中JAN,DANN,DLEA 分别设计了相应的域适应模块和损失函数,对AlexNet 特征提取网络进行约束和优化。而MEDA 在进行域适应时直接利用AlexNet 提取得到的特征进行相应的跨域学习,并不对AlexNet 网络进行训练。分析实验结果可以得到:

(1)MEDA 是一种非深度的迁移学习方法,将特征映射到流形空间,以此来减小不同域之间的数据差异,然后进行自适应的分布适配,取得了不错的实验效果。

(2)JAN 考虑了深度域适应网络的多个特定层,设计联合分布进行对齐损失,能够更好地对深度网络进行约束,取得很好的实验效果。

(3)DANN 和DLEA 都采用了对抗性域适应的思想,能很好地减小域差异,学习得到域不变性特征,显著提高模型的性能;并且DLEA 增加了类别中心对齐的约束,对深度域适应算法有很好的增益效果。

4.3.3 基于二维草图的三维模型检索算法对比及实验性能分析

采用SHREC’14 LSSTB 数据集对上述算法进行性能评估,结果如表4 所示。SHREC’14 LSSTB 数据集包含171 个类别,其中二维草图数据集包含13 680 个样本,每个类别80 张草图,其中三维模型数据集包含8 978 个样本,每个类别的样本数分布不均衡,平均每类含有53 个样本。三维模型数据提供off 格式文件。

针对基于草图的跨域三维模型检索问题,上述方法分别从度量学习、深度神经网络和深度度量学习等方向给出了解决方案。CDMR设计了一种基于BoF 和GALIF 的特征表示方式BF-fGALIF 来表示草图的特征,采用了BF-DSIFT 方法[60]来表示多视图三维模型的特征。而Siamese-CNN,DCML 和DCHML 都采用深度神经网络的方法来提取二维草图和三维模型的多视图特征。观察实验结果可以发现:

(1)CDMR 设计跨域流形结构,采用流形排序算法,对草图和三维模型的相似性进行计算和更新,对跨模态检索有一定的增益效果。

(2)Siamese-CNN 采用孪生网络的思想,巧妙地利用孪生网络对输入的二维草图和三维模型的相似度进行判断,取得了较好的模型检索效果。

(3)深度学习能显著提升模型的性能,DCML 和DCHML 在深度学习的基础上加入度量学习相关算法,显著地提高了模型的性能;而DCHML 在深度网络的中间层也采用度量学习的思想进行约束,取得了更好的实验效果。

表3 基于二维真实图像的三维模型检索在MI3DOR 数据集上的性能比较Table 3 Performance comparison of the 2D real imagebased 3D model retrieval algorithms on MI3DOR dataset

表4 基于二维草图的三维模检索算法在SHREC’14 LSSTB 数据集上性能比较Table 4 Performance comparison of the 2D sketchbased 3D model retrieval algorithms on SHREC’14 LSSTB dataset

4.3.4 不同类别的三维模型检索算法对比及实验性能分析

根据三维模型检索的任务不同,即三维模型检索时查询样本是三维模型还是二维图像,本文将三维模型检索算法分为基于模型的三维模型检索算法和基于二维图像的三维模型检索算法,其中基于二维图像的三维模型检索算法包括基于二维真实图像的方法和基于二维草图的方法。根据表1 的算法对比和表2~4 的实验结果可以分析得到:

(1)基于模型的三维模型检索算法,体素、点云和多视图的三维模型表达方式各有优势,得益于深度学习的发展,三维模型检索处理技术得到了很大的提高。

(2)基于二维真实图像的三维模型检索算法,将二维真实图像作为查询样本,在现实生活中有很大应用价值,二维图像也包含极为丰富的信息,能够充分利用二维图像的信息,对协助处理三维模型有很大的现实意义。

(3)基于草图的三维模检索算法,由于二维草图过于简单、携带的信息量较少,而三维模型大都是精确建模的结果,二维草图与三维模型之间尚存在巨大的模态差异,具有很大的挑战性,实验性能还有较大的提升空间。

5 结束语

三维模型检索时待检索样本是三维模型,查询样本可以是三维模型,也可以是二维图像。据此本文对基于深度学习的三维模型检索方法进行分类:基于模型的三维模型检索算法和基于二维图像的三维模型检索算法。

针对基于模型的三维模型检索算法,本文着重分析了三维模型不同表示形式的方法:基于体素的方法、基于点云的方法和基于视图的方法,各种方法都有一定的优缺点。将三维模型进行体素化即将三维模型转换为结构化的数据,可以直接利用三维卷积神经网络来处理,但是三维体素网格占的内存太多,现有的计算力限制了高分辨率的三维模型体素化操作。点云类型数据能尽可能全面地表示三维模型的信息,但是点云数据是非结构化的,无法像二维图像一样用一个矩阵来表示,只能用点的坐标来表示三维模型,此外由于三维模型在空间的姿态是任意的,只将物体进行旋转平移等操作时物体本身并不会发生变化,其三维坐标却发生了大范围的迁移。在实际应用场景中,点的个数会有很大范围的误差,好的算法需要能够处理不同尺度的点云数据。基于视图的方法虽然依赖于深度学习在处理二维图像方面的强大能力而取得了成功,但是同样由于内存的限制,无法无限制地使用各个视觉的图像,而固定数量的视图可能无法全面表示三维模型,同时各个视图之间还存在一定的信息冗余。除此之外,使用二维视图数据不可避免地会损失一些三维结构化的信息,尤其是在实际应用场景下,当三维模型比较复杂时很难使用固定数量的视图对三维模型进行有效的表示。如果能更好地利用各种三维模型表示形式的优点,同时减少信息冗余,可能会为三维模型处理带来新的启发。

针对基于二维图像的三维模型检索算法,本文对二维图像做了二维真实图像和二维草图的区分。二维真实图像中携带着大量的信息,各种深度学习方法都在探索如何更全面地提取图像中丰富的信息,均取得了很好的效果。并且二维图像数据集非常完善,有丰富的标注和完善的信息用来训练各种模型,利用迁移学习的思想,以二维真实图像为源域、三维模型为目标域,将从二维图像中学习得到的信息迁移到三维模型中去,有重要的现实意义。因此,本文详细介绍了基于二维真实图像的无监督跨域三维模型检索算法,算法中限定了三维模型不含标签的场景,重点分析了无监督迁移学习在无监督跨域三维模型检索中的性能。本文发现二维图像与三维模型之间的模态差异很难完全消除,但是各种深度域适应算法还是能取得较好的实验效果,对三维模型检索任务有很好的指导作用。基于二维草图的三维模型检索算法,在实际应用中能更方便直观地提升三维模型建模和分析的效率,三维模型结构复杂,假如能够通过简单的草图或者现场根据回忆画出示意图,就可以很好地检索出想要的三维模型,对三维模型建模人员以及广大用户都有很好的帮助作用。基于此,本文着重关注了基于草图的三维模型检索算法下二维草图和三维模型的跨域检索和匹配问题,发现深度学习和度量学习都有一定的增益效果。但是,由于二维草图过于简单,与复杂的三维模型存在巨大的模态差异,因此基于草图的三维模型检索算法目前仍存在较大的挑战,将是下一步的研究重点。

猜你喜欢

草图视图检索
SolidWorks二维草图的绘制经验与技巧
瑞典专利数据库的检索技巧
一种基于Python的音乐检索方法的研究
不能承受的生命之轻
视图
浅议专利检索质量的提升
Y—20重型运输机多视图
SA2型76毫米车载高炮多视图
画好草图,寻找球心
Django 框架中通用类视图的用法